챗GPT·딥마인드 개발자들의 경고 “AI가 인류 멸종 부를 수도”

  • 기사 소리로 듣기
    다시듣기
  • 글씨 크기 조절
  • 공유하기
  • 댓글
    0
윤창수 기자
윤창수 기자
수정 2024-06-06 00:49
입력 2024-06-06 00:49

오픈AI·구글 전현직 공동성명

“기업 자체적으로 감독 못할 것”
“인류 파괴·재앙 일으킬 확률 70%”

“위험 제기한 내부고발자 보호
AI 기업 견제할 장치 마련해야”
수뇌부 교체에 불안감 커진 듯

이미지 확대
챗GPT를 만든 오픈AI와 인공지능(AI)을 연구하는 구글 딥마인드의 전현직 직원들이 4일(현지시간) AI의 ‘심각한 위험’에 대해 경고하면서 이를 제어할 수 있는 대책을 제안했다.

AI 개발과 연구에 참여한 13명은 이날 공동 성명을 내고 “AI 기술이 인류에 전례 없는 혜택을 제공할 수 있는 잠재력을 믿는다”면서도 “우리는 또 이런 기술에 의해 야기되는 심각한 위험을 알고 있다”고 밝혔다. 성명에는 오픈AI 직원 7명과 전 직원 4명, 구글 딥마인드 전현직 직원 각 1명이 참여했다.

이들은 “AI의 위험은 기존의 불평등을 심화시키는 것부터 잘못된 정보와 조작, 인류의 멸종을 낳을 수 있는 자율적인 AI 시스템의 통제 상실까지 다양하다”면서 “전 세계 정부와 다른 AI 전문가, AI 기업도 이를 인정했다”고 주장했다.

이어 “AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, 자발적으로 공유할 것이라고 생각하지 않는다”고 덧붙였다.

아울러 “AI 기업은 이윤 추구란 목표 때문에 제대로 된 감독을 하지 못해 기업 자체적으로 이 문제를 해결할 수 없다”면서 내부고발자 보호 대책을 제안했다. 내부고발은 불법행위에 초점이 맞춰져 있지만 AI 위험에 관한 우려나 비판 등을 독립기관에 제기할 수 있는 내부고발 장치로 기업 견제가 필요하다는 의미다.

직원들의 성명은 여러 전문가들이 AI의 책임 있는 사용을 위해 개발 경쟁을 일시적으로 중단하거나 정부가 개입해야 한다고 주장하는 가운데 나왔다.

오픈AI의 대변인은 자사 직원들의 경고에 대해 “우리의 AI 시스템은 가장 유능하고 안전하다”며 안전위원회도 운영 중이라고 강조했다.

하지만 공동 성명에 참여한 오픈AI 전 직원 다니엘 코코타일로(오른쪽·31)는 뉴욕타임스(NYT)와의 인터뷰에서 “오픈AI는 세계 최초로 인공일반지능(AGI·인간과 동등하거나 능가하는 지능을 갖춘 AI)을 구축하기 위해 무모한 경쟁을 벌이고 있다”고 폭로했다. 비영리 연구소로 출발한 오픈AI의 직원들은 회사가 AI 시스템이 위험해지는 것을 방지하기 위해 충분한 조치를 하지 않는다고 우려했다. 코코타일로는 “2027년까지 AGI 수준에 이를 확률은 50%이며 진보된 AI가 인류를 파괴하거나 재앙을 일으킬 확률은 70%”라고 경고했다.

NYT는 샘 올트먼(왼쪽) 오픈AI 최고경영자(CEO)의 축출·복귀 사태가 마무리되지 않은 상태에서 최근 AI의 잠재적인 위험을 우려하던 일리야 수츠케버 수석과학자가 회사를 떠난 일련의 상황이 이번 성명을 내는 배경이 됐다고 분석했다. 올트먼 CEO는 AI 개발론자인 데 반해 수츠케버는 AI의 잠재적인 위험을 경고한 인물로, 그가 퇴진하면서 안전을 중시하는 직원들에게 불안감이 커졌다는 해석이다.

윤창수 전문기자
2024-06-06 10면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지
에디터 추천 인기 기사
많이 본 뉴스
120년 역사의 서울신문 회원이 되시겠어요?
닫기
원본 이미지입니다.
손가락을 이용하여 이미지를 확대해 보세요.
닫기