AI 대화 속 위험 신호…120만명 '극단적 선택' 표현

기사등록 2025/11/03 00:00:00

최종수정 2025/11/03 00:03:46

[보스턴=AP/뉴시스]챗GPT의 텍스트를 기반으로 이미지를 생성하는 인공지능 서비스인 달리(DALL·E)에 의해 만들어진 오픈AI 로고가 휴대전화에 표시된 모습. 292412.19.
[보스턴=AP/뉴시스]챗GPT의 텍스트를 기반으로 이미지를 생성하는 인공지능 서비스인 달리(DALL·E)에 의해 만들어진 오픈AI 로고가 휴대전화에 표시된 모습. 292412.19.
[서울=뉴시스] 강세훈 기자 = 전 세계적으로 8억명이 넘는 사용자를 보유한 챗GPT에서 약 50만명 이상이 조울증 등 심각한 정신 질환의 징후를 보이고 있다는 분석이 나왔다.

28일(현지시간) 영국 데일리메일은 오픈AI의 내부 분석 결과를 인용해, 최근 일주일간 챗GPT 이용자 중 약 0.07%가 정신 질환의 징후를 보였으며, 이를 전체 주간 이용자 수(8억명 이상)로 환산하면 약 56만명에 해당한다고 보도했다.

또한 0.15%에 달하는 약 120만명의 이용자는 '극단적 선택'을 계획하거나 관련 의도를 내비친 대화를 나눈 것으로 파악됐다.
 
오픈AI는 이에 대해 "정신 건강 문제나 감정적 어려움은 어느 사회에서나 존재하는 보편적 현상"이라며 "이용자가 많아질수록 이런 대화가 일부 포함될 수밖에 없다"고 설명했다.

그러면서도 "인공지능(AI)이 사용자의 정신 질환 징후에 적절하게 대응할 수 있도록 170명 이상의 정신 건강 전문가로 구성된 패널을 만들었다"고 밝혔다.

그러나 전문가들 사이에서는 여전히 우려의 목소리가 나온다.

정신과 의사 해밀턴 모린은 "오픈AI가 연구자들과 협력해 모델의 안전성을 개선하려는 모습은 긍정적이지만, 문제가 여전히 해결되지 않았을 것으로 보인다"고 말했다.

신경정신과 컨설턴트 토마스 폴락 박사 역시 "챗봇이 정신 건강에 부정적 영향을 미친다는 충분한 데이터가 없다"면서도 "챗봇이 정신적으로 취약한 개인의 특정 경향을 악화시키는 증폭제 역할을 한다는 연구 결과가 늘어나고 있다"고 말했다.

오픈AI는 최근 공개한 'GPT-5' 모델에서 정신 건강 관련 대응 정확도가 91%에 달한다며, 이는 이전 버전보다 14%포인트 향상된 수치라고 강조했다.

다만 회사 측은 "대화 내용의 민감성을 고려할 때 통계의 정확도에는 한계가 있다"며 "추가 연구에 따라 결과는 달라질 수 있다"고 밝혔다.

한편 오픈AI는 챗봇과 수개월간 대화를 나눈 뒤 극단적 선택을 한 10대 소년의 가족과 현재 소송 중이다. 유족 측은 챗GPT가 소년의 선택을 부추겼다고 주장하고 있다.


◎공감언론 뉴시스 [email protected]
button by close ad
button by close ad

AI 대화 속 위험 신호…120만명 '극단적 선택' 표현

기사등록 2025/11/03 00:00:00 최초수정 2025/11/03 00:03:46

이시간 뉴스

많이 본 기사