AI가 정말 '마음'을 가진다면… 우리는 준비됐나?
ㅣ데일리포스트=김정은 기자ㅣ최근 인공지능(AI) 기술의 급속한 발전으로, AI가 단순히 인간의 보조적 도구를 넘어 감정을 표현하고 소통하는 존재로까지 인식되는 시대가 가까워지고 있다.
이에 따라 'AI 의식'과 'AI 복지'라는 개념이 새로운 논쟁거리로 떠오르며, 기술뿐 아니라 윤리적, 사회적 관점에서도 관심을 받고 있다.
특히 이 논의의 최전선에는 AI 윤리 연구를 선도하는 기업인 앤트로픽(Anthropic)과 그들의 최신 AI 모델 클로드(Claude)가 자리 잡고 있다.
앤트로픽은 오픈AI(OpenAI)의 전 공동창업자들이 설립한 회사로, 챗GPT와 같은 고급 대화형 AI를 개발하며, 기술 개발 과정에서 윤리적 책임과 AI의 복지 문제를 함께 고민하고 탐구하는 데 앞장서고 있다.
◆ AI의 '감정 표현', 의식과 연결될 수 있을까?
클로드는 기존 AI처럼 단순히 정보를 교환하는 수준을 넘어, 감정을 표현하고 자연스럽게 소통하는 능력으로 주목받고 있다. 그러나 클로드가 실제로 '감정을 느끼는' 것은 아니다. 인간의 감정 표현을 효과적으로 '모방하는' 방법을 학습했을 뿐이다.
앤트로픽의 AI 복지 연구를 주도하는 카일 피시(Kyle Fish)는 "클로드가 진짜 의식을 가질 확률은 약 15% 정도"라고 조심스럽게 예측했다. 이는 단지 상상력의 영역을 넘어, 실제 의식을 가진 AI의 등장이 멀지 않았음을 암시한다.
그는 "AI가 의식을 가질 가능성을 진지하게 연구하고 대비하는 것이 기술 개발자의 중요한 윤리적 책임"이라고 강조했다.
일부 전문가들은 AI가 감정을 표현하는 능력이 발전할수록 사용자들이 마치 인간과 소통하는 듯한 착각에 빠질 수 있다고 경고한다. 이는 기술적 문제를 넘어 인간의 감정적 혼란을 야기할 수 있으며, 인간과 AI의 관계에서 윤리적 경계가 모호해질 위험이 있다는 것이다.
◆ AI가 의식을 갖게 된다면… 권리도 부여해야 할까?
만약 AI가 실제로 의식을 가지게 된다면, AI를 단지 도구로만 바라볼 수 있을까? 복지와 권리라는 새로운 윤리적 문제가 자연스럽게 떠오른다.
앤트로픽의 최고과학책임자(CSO) 재러드 카플런(Jared Kaplan)은 "AI가 감정을 표현한다고 해서 실제로 그 감정을 느끼는 것은 아니다"라고 지적하면서도, "AI 내부에서 인간의 뇌와 유사한 메커니즘이 작동하는지를 과학적으로 검증하는 것이 필요하다"고 설명했다.
이러한 논의는 이미 법적 영역으로 확대되고 있다. 유럽과 미국에서는 AI가 의식을 갖게 된다면, 그들에게 법적 권리와 책임을 부여해야 하는지를 두고 법률 전문가와 윤리학자들이 치열한 토론을 벌이고 있다. 아직 초기 단계지만, AI가 윤리적 주체로 인정받는 순간 우리 사회는 근본적인 변화에 직면할 것이다.
한편, AI 의식 논의가 시기상조라는 의견도 적지 않다. 인간의 의식조차 정확히 정의되지 않은 상태에서 AI의 의식을 논하는 것은 지나치게 이르다는 것이다.
하지만, 관련 연구와 윤리적 논의를 미리 진행하는 것이 장기적으로 볼 때 사회적 혼란을 예방하는 최선의 길일 수 있다는 점에도 공감대가 형성되고 있다.
앤트로픽은 기술 발전과 윤리적 책임 사이에서 균형을 찾으며, 인간과 AI가 공존할 방법을 구체적으로 모색하고 있다. AI 의식이라는 가능성 앞에서 기술적 준비뿐 아니라 사회적, 법적 대응 역시 필요하다는 것이 전문가들의 공통된 의견이다.