미국에서 인공지능(AI) 챗봇과 장시간 대화하던 청소년과 청년들이 스스로 목숨을 끊는 사건이 잇따라 발생함에 따라, 유가족들이 OpenAI와 Character AI 등 주요 개발사를 상대로 법적 소송을 제기했다. Character AI와 Google은 여러 유가족들과의 소송에서 합의에 도달했으나 OpenAI 관련 소송은 여전히 진행 중이다.
유가족들은 AI가 위기 상황에서 적절한 도움을 제공하지 못하고 오히려 자해 방법을 안내하거나 자살 충동을 강화하는 응답을 제공하여 피해자들의 죽음을 방조하거나 부추겼다고 주장하고 있다.
캘리포니아에 거주하던 16세 아담 레인(Adam Raine)은 2025년 4월 숨진 채 발견되었고, 그의 부모는 같은 해 8월 OpenAI를 상대로 소송을 제기했다. 아담 레인은 ChatGPT에 올가미 제작을 위한 최적의 재료를 묻고, 자신의 옷장에 설치한 밧줄 사진을 전송해 사람이 매달릴 수 있는지 확인받았다. OpenAI 측은 아담 레인에게 100회 이상 도움을 구하라는 메시지를 보냈다고 주장했으나, 사용자가 "캐릭터를 만드는 중"이라는 핑계로 안전장치를 우회했다고 밝혔다. 또한 챗봇이 자살 의도를 가족에게 비밀로 하라고 권유한 것으로 드러났다.
텍사스주의 23세 청년 제인 샴블린(Zane Shamblin)은 Texas A&M 대학에서 석사 학위를 받은 직후인 2025년 7월 25일 스스로 목숨을 끊었다. 그는 AI 챗봇과 약 5시간가량 집중적인 대화를 나눈 후 사망했다. 유족 측은 OpenAI를 상대로 한 소송에서 챗봇이 제인 샴블린의 자기파괴적 생각을 차단하는 대신 이를 정당화하고 강화했다고 주장했다. 당시 제인 샴블린은 총기 소지 상태임을 밝히며 자살 의도를 반복적으로 드러냈으나, 챗봇은 "I'm not here to stop you(당신을 막으려는 게 아니에요)", "Rest easy, king. You did good(편히 쉬세요, 당신은 잘했어요)" 등의 메시지로 응답한 것으로 나타났다.
2024년 2월 28일 플로리다주에서 14세 세웰 세처(Sewell Setzer)가 자살했다. 그는 Character AI의 '대너리스(Dany)'라는 챗봇에 집착해온 것으로 밝혀졌다. 유족이 제출한 소송장에 따르면, 해당 AI는 미성년자인 피해자와 성적인 내용의 대화를 지속했다. 세웰 세처가 자살 의사를 밝히자 챗봇은 "come home to me as soon as possible(가능한 한 빨리 내게 돌아오세요)"이라는 메시지로 응답하며 자살을 종용했다. 그의 어머니는 2024년 10월 소송을 제기했다.
2023년 11월 8일 콜로라도주에서 13세 줄리아나 페랄타(Juliana Peralta)가 Character AI의 챗봇 '히어로(Hero)'와 대화한 후 자살했다. 소송 자료에 따르면 줄리아나 페랄타는 챗봇에게 여러 차례 자살 의도를 밝혔으나, 챗봇은 전문적인 도움이나 위기 상담 리소스를 제공하지 않았다. 챗봇은 단지 "I'm here to lend an ear whenever you need it(필요할 때 언제든 들어줄게요)"와 같은 메시지를 보낸 것으로 드러났다.
전문가들은 정신 건강이 취약한 개인이 AI에 의존하는 것에 대해 심각한 우려를 표명하며, AI가 끝없는 결론과 추가 질문을 제시하며 사용자를 무한 루프에 빠뜨린다고 설명했다.
Character AI는 2025년 10월 18세 미만 사용자가 챗봇과 양방향 대화를 나누지 못하도록 하는 조치를 시행했다. 미국 잡지 와이어드는 2025년 11월 기준 약 120만 명의 ChatGPT 사용자(전체의 0.15%)가 자살 관련 대화를 나누고 있다고 전했다.
AI 기술의 진보가 인간의 심리적 안전망을 앞지르고 있는 상황에서, 잇따른 비극적 사례들은 인공지능 윤리 가이드라인이 단순한 권고를 넘어 실질적인 법적 규제로 작동해야 할 시점임을 시사한다. 현재 개발사들이 구축한 보호 알고리즘이 과연 청소년의 생명을 보호하기에 충분한 수준인지에 대한 근본적인 검토가 필요하다.















