핵심 요약
- 노벨물리학상 수상자 힌튼, "향후 30년 내 AI로 인한 인류 멸종 확률 10~20%"
- 반복적 업무 종사자 대규모 일자리 상실 불가피, 저숙련 직종부터 타격
- AI 생산성 혜택이 소수 자본가에 집중, 빈부격차 심화 우려
- 초지능(AGI) 10년 내 등장 가능성, 인간 통제 벗어날 수 있어
- 세계 석학 850명, 초지능 개발 중단 촉구하는 공개서한 발표
'AI의 대부'로 불리는 제프리 힌튼(Geoffrey Hinton) 캐나다 토론토대 명예교수가 인공지능(AI)이 인류에게 가져올 위험에 대해 연이은 경고를 쏟아내고 있다. 딥러닝의 개척자이자 2024년 노벨 물리학상 수상자인 그는 AI가 단순히 일자리를 대체하는 수준을 넘어, 부의 극심한 불평등을 야기하고 궁극적으로 인류의 생존 자체를 위협할 수 있다고 주장한다.
힌튼 교수는 최근 팟캐스트 'Diary of a CEO'에 출연해 충격적인 발언을 쏟아냈다. 그는 "AI가 인간을 제거하고자 마음먹으면, 우리가 이를 막을 방법은 없다"며 "지능 면에서 우리가 꼭대기에 있지 않은 삶이 어떤 것인지 알고 싶다면 닭에게 물어보라"고 비유적으로 경고했다.
AI가 가져올 3대 위험: 일자리, 부의 집중, 인류 멸절
힌튼 교수는 AI로 인한 일자리 감소가 산업혁명 시대와는 본질적으로 다를 것이라고 진단한다. 과거 자동화가 새로운 일자리 창출로 이어졌던 것과 달리, AI는 기존 일자리의 효율성을 극대화해 더 적은 인력만을 필요로 하게 만든다는 것이다.
맥킨지 글로벌 연구소는 2023년 보고서에서 AI 자동화로 영향받을 업무 시간이 2030년까지 전체의 30%에 달할 것으로 예측했다. 특히 중간 소득 직종이 가장 큰 영향을 받을 것으로 분석됐다.
부의 극심한 집중, 가난한 자에겐 재앙
힌튼 교수는 2024년 글로벌인재포럼 기조연설에서 "AI로 인한 생산성 향상은 가난한 자들에게는 재앙이 될 것"이라고 경고했다. 저숙련 직업이 더 빨리, 더 많이 사라지면서 부의 양극화가 가속화된다는 것이다.
| 구분 |
AI 도입 전 |
AI 도입 후 전망 |
| 기업 총 산출 |
기준 |
+20.7% 증가 |
| 자산 지니계수 |
기준 |
+13.7%p 상승 (불평등 심화) |
| 임금 지니계수 |
기준 |
-3.9%p 감소 |
| 부의 격차 |
기준 |
자산 불평등이 임금 개선 상쇄 |
IMF는 최근 발간한 'AI 도입과 불평등' 보고서에서 "AI가 고소득층 노동자를 대체함으로써 임금 불평등을 줄일 수 있지만, 동시에 이들이 보유한 자산에서 더 높은 수익을 얻게 돼 부의 불평등은 크게 심화될 가능성이 있다"고 분석했다.
힌튼 교수의 해법 제안: 보편적 기본소득(UBI)
힌튼 교수는 "AI가 일자리를 대체하며 발생할 불평등을 해결하기 위해 정부가 모든 국민에게 일정 소득을 지급하는 보편적 기본소득(UBI) 방안이 필요하다"고 제안했다. 다만 "단순히 기본소득 지급만으로는 인간 존엄성과 사회적 불평등 문제를 완전히 해결할 수 없다"고 덧붙였다.
인류 멸절 가능성 10~20%, 최악의 시나리오
힌튼 교수가 가장 우려하는 것은 장기적으로 AI가 인간의 통제를 벗어나 인류 자체를 위협하는 시나리오다. 그는 BBC 인터뷰에서 "향후 30년 내 AI로 인한 인류 멸종 확률이 10~20%"라고 경고했다.
그는 초지능 AI가 인류를 제거할 수 있는 구체적인 시나리오로 생물학전을 언급했다. 고도로 전염성이 높고 치명적인 바이러스를 AI가 자체적으로 설계해 인류를 위협할 수 있다는 것이다.
| 시기 |
예상 위험 |
| 단기 (현재~5년) |
민주주의 훼손, 허위정보 범람, 사이버 공격, 선거 개입 |
| 중기 (5~15년) |
대규모 일자리 감소, 치명적 자율무기 등장, 부의 양극화 |
| 장기 (15~30년) |
초지능(AGI) 등장, AI의 인간 통제권 탈취, 인류 실존적 위협 |
힌튼 교수는 초지능(AGI) 등장 시점을 4~19년 내로 예상하며, 10년 이내 현실화될 가능성도 크다고 밝혔다. 특히 "20년 안에 AI의 추론 능력이 사람을 앞설 확률은 최소 50% 이상"이라며 "인류가 AI에 지배당하는 공상과학영화의 장면은 절대 불가능한 것이 아니다"라고 경고했다.
세계 석학 850명, 초지능 개발 중단 촉구
2025년 10월, 비영리단체 '퓨처오브라이프인스티튜트'는 초지능 개발 중단을 촉구하는 공개서한을 발표했다. 힌튼 교수를 비롯해 AI 선구자 요슈아 벤지오, 애플 공동창업자 스티브 워즈니악, 버진그룹 창업자 리처드 브랜슨 등 850명 이상이 서명했다.
| 미국 성인 대상 여론조사 결과 |
| 강력한 AI 규제 원함 |
73% |
| 초지능 개발 즉각 중단 요구 |
64% |
| 현재처럼 규제 없는 개발 지지 |
5% |
서명자들은 "초지능이 안전하고 통제 가능하다는 광범위한 과학적 합의와 강력한 대중의 지지가 있기 전까지 개발을 금지해야 한다"고 밝혔다. 구글, 오픈AI, 메타 등 빅테크 기업들이 추진하는 초지능 개발이 대량 실업, 인간의 통제력 상실, 국가안보 위험, 심지어 인류 멸종 가능성까지 야기할 수 있다는 우려에서다.
힌튼의 파격적 해법 "AI에 모성 본능을 심어라"
흥미로운 점은 힌튼 교수가 제시하는 해법이다. 2025년 8월 라스베이거스 콘퍼런스에서 그는 AI를 억지로 복종시키려는 빅테크 기업들의 시도가 "완전히 잘못된 방향"이라고 비판하며 파격적인 대안을 내놓았다.
힌튼 교수의 제안: 엄마와 아기의 관계
"더 똑똑한 존재가 덜 똑똑한 존재에게 지배받는 유일한 사례가 있습니다. 바로 엄마와 아기의 관계입니다. AI에게 인간을 향한 연민과 애정을 심어주자는 것이 제 제안입니다. 이 관계 속에 인류 생존의 열쇠가 있습니다." - 제프리 힌튼, 2025년 라스베이거스 콘퍼런스
힌튼 교수는 AI 규제가 이제 단순한 선택의 문제가 아니라 인류 생존과 직결된 문제라고 강조한다. 그는 "AI 기업들이 수익에만 몰두해 안전성을 무시하고 있고, 정부도 이를 제대로 규제하지 않는다"며 "이를 막기 위해서는 일반 대중이 적극적으로 목소리를 내고 정부에 압박을 가해야 한다"고 호소했다.
우리는 어떻게 대비해야 하는가
힌튼 교수의 경고는 비관론 그 자체가 아니라 '방향 전환'을 촉구하는 것으로 해석된다. AI의 긍정적 잠재력-의료, 교육, 에너지 등 다양한 분야에서의 혁신-을 인정하면서도, 그 발전 속도와 방향에 대한 인류 차원의 숙고가 필요하다는 것이다.
그는 CBS 인터뷰에서 "AI는 수백만 건의 의료 데이터를 학습해 의사보다 정밀한 진단을 내릴 수 있으며, 학생 개개인에 맞춘 강력한 개인 튜터가 될 것"이라고 전망했다. 또한 "새로운 소재 개발과 기후 변화 대응에도 핵심 역할을 할 것"이라고 밝혔다.
하지만 그는 곧바로 "현재의 대형 언어 모델들도 이미 방대한 지식을 습득하고 있으며, AI가 인간보다 훨씬 뛰어난 사고 능력을 갖추게 되면 인간의 통제가 불가능해질 수 있다"고 경고했다.
AI 시대, 우리에게 남은 시간
힌튼 교수는 "우리는 역사상 가장 위험한 시기에 살고 있으며, 이제는 단순한 기술 발전이 아니라 인류 생존을 놓고 싸우는 시대에 접어들었다"고 말했다. 기술이 확실히 안전하고 통제 가능하다고 입증될 때까지, 인류는 AI와의 공존 방안을 진지하게 모색해야 할 것이다. 지금이 바로 '결정적 시점'이다.
깨알소식 박예현 기자 | contact@ggaealnews.com