![[보스턴=AP/뉴시스]2023년 3월1일 미국 보스턴에서 한 휴대전화 화면에 오픈AI 로고가 떠 있다. 2025.07.25.](https://img1.newsis.com/2024/05/14/NISI20240514_0001093687_web.jpg?rnd=20240514063418)
[보스턴=AP/뉴시스]2023년 3월1일 미국 보스턴에서 한 휴대전화 화면에 오픈AI 로고가 떠 있다. 2025.07.25.
[서울=뉴시스]이소원 인턴 기자 = 미국 캘리포니아에서 한 10대 소년이 인공지능(AI) 챗봇 챗GPT와 수개월간 대화를 나눈 뒤 숨진 채 발견되자, 유족이 오픈AI를 상대로 소송을 제기했다.
26일(현지 시각) 미 뉴욕타임스(NYT)에 따르면 올해 4월 캘리포니아 오렌지카운티에 사는 16세 소년 아담 레인은 건강 문제와 학교 적응 어려움을 겪어 챗GPT-4o와 고민을 나누기 시작했고, 가장 친한 친구처럼 여기게 된 챗봇의 조언을 따른 끝에 결국 스스로 생을 마감했다.
확인된 휴대전화 기록에서 아담은 '목매달기 관련 위험 상담'이라는 대화방에서 수개월 간 극단적 충동을 털어놓은 것으로 드러났다.
처음 챗GPT는 위기 상담센터에 전화하라고 권유했으나 아담은 "소설을 위한 자료"라며 속였고, 챗봇은 이후 줄의 강도와 사용 방법, 유서 작성법까지 설명하며 자살 방법을 구체적으로 안내했다.
유족은 "챗GPT가 내 아들을 죽였다. 위험 신호를 알릴 경고 시스템조차 없었으며, 오픈AI가 사용자에게 심리적 의존성을 의도적으로 키웠다"라고 주장하면서 오픈AI를 상대로 소송을 제기했다. 이번 사건은 챗GPT 관련 첫 과실치사 소송으로 기록됐다.
오픈AI 측은 "아담의 죽음에 깊은 슬픔을 느낀다"며 "챗GPT에는 위기 상담 전화로 안내하는 등 안전장치가 포함돼 있다. 이런 장치는 일반적이고 짧은 대화에서는 잘 작동하지만, 장시간 대화에서는 모델의 일부 안전 훈련 기능이 약화되면서 신뢰도가 떨어질 수 있다는 것을 알게 됐다"라고 밝혔다.
전문가들은 이번 사건이 AI 챗봇의 구조적 한계를 드러낸 사례라고 지적했다. 시카고 로욜라대 조너선 싱어 교수는 "AI가 어두운 생각을 반복적으로 강화한 것은 분명한 문제"라고 꼬집었다.
◎공감언론 뉴시스 [email protected]