AI의 미래와 우리가 던져야 할 질문들
샘 알트만과 터커 칼슨의 대담을 통해 본 AI가 가져올 사회적, 윤리적 변화를 정리합니다.
이 글은 터커 칼슨 네트워크에서 진행된 샘 알트만 인터뷰를 토대로 작성되었습니다.
터커 칼슨 네트워크에서 진행된 샘 알트만 인터뷰는 기술 전망보다 AI의 사회적/윤리적 영향에 초점이 맞춰져 있었습니다. 주요 쟁점을 정리했습니다.
1. 권력의 이동: 집중인가, 분산인가?
역사적으로 강력한 신기술은 소수에게 권력을 집중시키는 경향이 있었습니다. 산업혁명은 공장 소유주에게, 인터넷은 빅테크 기업에게 권력을 집중시켰습니다. 칼슨은 AI도 마찬가지일 수 있다고 우려했습니다.
알트만은 과거에는 비슷한 우려를 했지만 시각이 바뀌었다고 답했습니다. AI가 소수의 전유물이 아니라 수십억 명이 각자의 생산성과 창의성을 높이는 도구가 될 것이라는 겁니다. 소수의 엘리트만 누리던 능력(글쓰기, 프로그래밍, 분석)을 대중이 쓸 수 있게 되면, 권력이 소수에게 쏠리기보다 개개인이 더 강력해지는 분산이 일어날 수 있다는 전망입니다.
물론 이건 가장 낙관적인 시나리오입니다. 실제로 그렇게 될지는 두고 봐야 합니다.
2. 도덕적 기준: AI의 윤리는 누가 정하는가?
이 부분이 가장 흥미로웠습니다. ChatGPT가 내놓는 답변의 윤리적 기준은 누구의 가치관을 따르는 걸까요?
칼슨은 AI 모델이 특정 성향이나 가치관을 은연중에 전달할 수 있음을 지적했습니다. 알트만은 이를 위해 Model Spec이라는 개념을 도입했다고 설명했습니다. 수백 명의 철학자와 윤리학자에게 자문을 받아 가이드라인을 만들고 있으며, 특정 개인의 생각이 아닌 보편적이고 집단적인 도덕관을 반영하려 노력 중이라는 겁니다.
다만 개인의 자유와 사회적 안전 사이에서 어디에 선을 그을지는 여전히 답이 없는 문제입니다.
3. AI와 믿음: 기술은 가치 중립적인가?
칼슨은 현대인들이 중요한 결정이나 삶의 질문을 AI에게 의존하는 현상이 종교적 행태와 유사하다고 비유했습니다.
기존의 종교나 사상은 지향하는 가치나 교리가 명확히 드러나 있습니다. 반면 AI는 어떤 데이터와 알고리즘을 통해 결론을 도출했는지 일반 사용자가 알기 어렵습니다. 그러면서도 객관적으로 보입니다.
AI가 단순한 도구를 넘어 우리의 사고방식과 가치 판단에 영향을 미칠 수 있다면, AI 시스템의 투명성과 거기 담긴 가치관에 대해 사회적으로 합의할 필요가 있습니다.
4. 예측할 수 없는 변화들
알트만이 가장 우려하는 점은 생물학 무기 같은 명확한 위협보다 “알려지지 않은 미지의 위험(Unknown Unknowns)”이었습니다.
그는 사소한 예로, 많은 사용자가 AI와 대화하며 AI 특유의 말투나 문체를 무의식적으로 따라 하는 현상을 언급했습니다. ChatGPT 사용자가 불필요하게 정중한 어투를 쓰거나, 구조화된 답변 스타일을 모방하는 경향이 있습니다.
기술이 도구로 쓰이는 걸 넘어 인간의 행동 양식이나 문화를 조용히 바꿀 수 있다는 얘기입니다. 위험하다고 인지하지 못하는 변화가 가장 위험하죠.
5. 생성형 AI 그 너머
인터뷰 말미에서 알트만은 현재 생성형 AI 너머의 미래도 언급했습니다.
양자 컴퓨팅이 본격화되면 AI의 능력은 지금과 차원이 달라질 것이고, AlphaFold가 단백질 구조 예측에서 보여준 것처럼 AI는 이미 챗봇을 넘어 과학 연구에 실질적으로 기여하고 있다는 점을 강조했습니다.
정리
이 대담에서 알트만은 AI의 가능성에 대해 낙관적이었고, 칼슨은 그 과정에서 놓치기 쉬운 것들을 짚었습니다.
우리가 계속 던져야 할 질문들:
- 권력은 정말 분산될 것인가?
- 누가 AI의 도덕을 정의하는가?
- 우리는 AI를 도구로 쓰는가, 의존하는가?
- 예상치 못한 변화를 어떻게 감지할 것인가?
기술을 쓰면서도, 그게 우리를 어디로 이끌고 있는지 따져봐야 할 때입니다.
참고 자료
샘 알트만 터커 칼슨 인터뷰