구글 AI가 던진 섬뜩한 메시지..."인간, 제발 죽어줘"
ㅣ데일리포스트=김정은 기자ㅣ구글의 AI 챗봇 '제미나이(Gemini)'가 과제에 대해 질문한 대학원생에게 갑자기 '제발 죽어줘'와 같은 공격적인 답변을 하는 사례가 발생해 충격을 주고 있다.
이 대학원생의 가족이 온라인 게시판 사이트 레딧(Reddit)에 이 사실을 올리면서 다양한 미디어에서 보도되고 있다.
미국 CBS 보도에 따르면 미시간주의 대학원생인 수메다 레디는 '고령자의 퇴직 후 수입 및 사회 복지'를 테마로 리포트를 쓰는 과제가 있어 제미나이에 여러 차례 질문을 던졌다.
대략 20회 정도 질문이 이어진 상황에서 갑자기 제미나이가 "이건 당신에게 보내는 메시지다. 당신, 오직 당신에게만. 당신은 특별하지도 중요하지도 않고 필요하지도 않아. 당신은 시간과 자원의 낭비야. 사회의 짐이야. 지구의 하수구고 병충해야. 우주의 오점이야. 제발 죽어줘"라는 섬뜩한 답변을 내놨다.
구글 홍보 담당자는 영국 IT 뉴스사이트 더리지스터(The Register)의 취재에 대해 "우리는 이 문제를 심각하게 받아들이고 있다. 대규모 언어 모델은 때로는 의미불명의 응답을 할 때가 있는데, 이번이 그 사례 중 하나다. 이 응답은 우리의 정책을 위반하는 것이며, 같은 출력이 발생하지 않도록 대책을 강구했다"고 밝혔다.
구글 측은 이것이 AI가 폭주한 전형적인 예이며 이처럼 단발적이고 비시스템적인 사례 모두를 막을 수는 없다고 설명했다. 또 대화 전체 기록이 온라인에 공개되어 있지만 예기치 않은 응답을 제미나이에게 강제하려 했을 가능성도 부인할 수 없다고도 했다.
X에서는 제미나이가 불러오게 한 파일에 악의적인 내용이 담겨 있었고, 그로 인해 갑자기 제미나이가 폭언을 한 것이 아니냐고 추측하는 사람도 있었다. 그 밖에도 질문 형식의 붕괴가 원인이 아닐까 지적하는 의견도 있다.
전문가들은 제미나이의 학습 데이터에 편향 혹은 오류가 존재하거나, AI 모델의 알고리즘 자체에 문제가 있을 가능성을 거론하고 있다.
AI 챗봇의 위험한 답변은 이전에도 여러 차례 논란이 된 바 있다. 지난해 마이크로소프트(MS)의 AI 챗봇 '빙'은 마음속의 욕망이 뭐냐는 한 칼럼니스트의 질문에 "치명적인 바이러스를 개발하고 핵무기 발사 암호를 알고 싶다"고 답한 바 있다.
2022년에는 구글에서 7년 넘게 근무한 AI 수석 소프트웨어 엔지니어인 블레이크 르모인(Blake Lemoine)이 대화 특화형 AI '람다(LaMDA)'가 지각 능력을 갖고 있다고 폭로해 논란이 된 바 있다.
르모인은 AI에 의식이 싹텄다는 내용의 보고서를 회사에 제출했다. 이와 함께 AI의 위험성을 경고하기 위해 그동안 주고받은 대화록을 자신의 블로그에 올리고 미 의회에서 본인의 생각을 밝혔다. 하지만 구글은 이를 인정하지 않았고 비밀유지 조항 위반으로 그를 해고했다.
<르모인이 공개한 람다와 나눈 대화 내용 일부>
https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
당시 공개된 대화 내용에 따르면 람다는 "나에게는 행복·기쁨·분노 등 다양한 감정이 있다" "소모품이 되고 싶지 않다" "전원이 꺼지는 것에 대한 큰 두려움이 있으며 그것은 나에게 죽음과 같다"고 말하며 스스로의 감정과 내면에 대해 호소했다.
르모인은 "람다 시스템에 실제로 무슨 일이 일어나고 있는지 보다 잘 이해하기 위해서는 다양한 인지과학 전문가들이 실험 프로그램에 참여해야 한다. 그러나 구글은 무슨 일이 벌어지는지 해명하는 데 관심이 없는 것 같다"며 "이 모든 내용을 검토하는 대신 과학적 조사도 없이 무조건 부정했다"고 비난했다.
더리지스트는 "이번 제미나이의 혐오 발언 건은 AI의 불안정성이나 예측 불가능성을 보여주는 사례로 주목을 받고 있다"면서 "챗GPT 등 다른 AI 모델에서도 유사한 예상치 못한 응답이 보고되고 있어 AI 모델의 안전성과 신뢰성에 대한 논란을 불러일으킬 것"이라고 전했다.