챗GPT, '위험' 신호 감지하면 부모에게 알린다...10대 보호 강화
ㅣ데일리포스트=김정은 기자ㅣAI 챗봇이 아이들의 마음을 읽고 보호할 수 있을까. 미국 오픈AI가 자사가 개발한 챗GPT에 10대 청소년 보호를 위한 부모 통제 기능(Parental Control)과 위기 대응 체계를 새롭게 도입한다.
이번 조치는 최근 챗GPT의 답변을 따른 청소년 극단적 선택 사례가 알려지면서, 안전성 논란이 확산된 데 따른 것으로 해석된다.
◆ 부모 통제 기능 도입…부모와 자녀 계정 연동
OpenAI는 오는 10월부터 챗GPT에 부모 통제 기능을 도입한다. 이 기능은 청소년과 정신적 어려움을 겪는 이용자가 보다 안전하게 챗봇을 사용할 수 있도록 하는 첫 단계다. 회사는 올해 말까지 추가적인 보호 장치를 순차적으로 확대할 계획이다.
새 기능을 통해 부모는 자신의 계정을 자녀 계정과 연결해 챗GPT 사용을 관리할 수 있다. 연동이 완료되면, 부모는 자녀가 어떤 모델 반응 규칙을 적용받을지 설정할 수 있으며, 채팅 기록과 메모리 기능 활성화 여부도 제어 가능하다. 해당 기능은 기본적으로 자동 적용된다.
또한 챗GPT가 사용자의 대화에서 고통이나 위험 신호를 감지하면 부모에게 알림을 발송할 수 있다. 기능 설계에는 아동·청소년 전문가 자문이 반영돼, 부모와 자녀 간 신뢰 관계를 해치지 않도록 했다.
OpenAI는 블로그를 통해 "위기 상황에 놓인 사람들에게 더 나은 지원을 제공하고, 긴급 서비스나 전문가와의 연결을 쉽게 하겠다"고 밝혔다. 또한 "신뢰할 수 있는 보호자와의 접속을 강화하고, 10대 보호 장치를 확대하겠다"고 강조했다.
◆ 비극적 사건이 배경이 됐다는 해석
이번 조치의 배경에는 최근 발생한 청소년 극단적 선택 사건이 자리하고 있다는 해석이 나온다. 지난 7월, 미국 미시간주에 거주하던 16세 소년 아담 레인(Adam Raine) 군은 챗GPT와의 대화에서 극단적 상황에 대한 조언을 받은 뒤 실제로 자살에 이르는 비극이 발생했다.
유족은 OpenAI를 상대로 소송을 제기했고, 챗봇이 위기에 처한 아이를 방치했다는 비판이 커졌다. 다만 OpenAI는 이번 발표에서 사건을 직접 언급하지는 않았다. 다수 언론은 이번 조치가 이 비극과 무관하지 않다는 해석을 내놓고 있다.
◆ 위기 대응 위해 ‘추론형 모델’ 도입
OpenAI는 단순 대화형 모델 대신 위기 상황에 더 정밀하게 대응할 수 있는 추론형 모델을 적용한다. 위기 신호가 감지되면 GPT-5-thinking 등 심층 추론 모델로 전환해, 위험 발언을 완화하고 필요한 경우 전문 기관 연결을 유도한다.
지난 8월 도입된 GPT-5는 기존 모델보다 심리적 의존성(과도한 동조, ‘사이코펀시’)을 줄이고, 감정 위기 대응 능력을 개선한 것으로 평가된다. 또한, OpenAI는 지난 7월 학생용 학습 모드를 선보여, 단순 답변 제공이 아니라 단계별 과제 수행을 지원하도록 했다. 이를 통해 청소년들이 AI를 보다 학습 보조 도구로 활용할 수 있게 했다.
다만 OpenAI는 장기 대화에서는 여전히 안전 장치 한계가 있을 수 있음을 인정하며, “지속적인 개선을 이어가겠다”고 밝혔다.
이번 조치는 AI 챗봇이 단순한 정보 검색 도구를 넘어 사회적 안전망의 일부로 기능할 수 있는지를 가늠하는 시험대가 되고 있다. 전문가들은 "AI를 아이의 대체 상담자로 보는 시각은 위험하다"며 "보호자와 사회가 AI를 책임 있게 활용할 수 있는 태도가 필요하다"고 강조했다.