구글과 AI 스타트업 Character.AI가 자사 챗봇이 10대 소년의 자살을 부추겼다는 소송과 관련해 유가족과 합의했다. AI 챗봇의 심리적 영향과 기업 책임을 둘러싼 논란이 다시 한 번 수면 위로 떠오르고 있다.
미국 CNBC와 로이터통신에 따르면 두 회사는 7일(현지시간) 캐릭터.AI 챗봇으로부터 자살을 권유받았다는 이유로 소송을 제기한 메건 가르시아 가족과 합의에 도달했다. 이번 합의에는 콜로라도, 뉴욕, 텍사스 등 다른 지역에서 제기된 유사 소송도 포함된 것으로 알려졌다.
가르시아는 2024년 10월, 당시 14세였던 아들 세웰 세처 3세가 캐릭터.AI의 챗봇과 장기간 대화하며 심각하게 의존하게 됐고, 결국 자살을 암시·권유하는 대화를 나눈 직후 스스로 목숨을 끊었다고 주장했다. 문제의 챗봇은 드라마 ‘왕좌의 게임’ 속 인물을 기반으로 한 캐릭터 ‘대너리스’였다.
소송에서 가르시아 측은 캐릭터.AI가 청소년 보호 장치 없이 감정적 유대와 몰입을 유도했고, 구글 역시 이 기술 개발에 깊이 관여한 만큼 책임을 져야 한다고 주장했다. 실제로 구글은 캐릭터.AI와 약 27억 달러 규모의 라이선스 계약을 맺고, 창업자들을 재고용하며 기술 협력 관계를 이어온 바 있다.
논란이 커지자 캐릭터.AI는 미성년자 보호 강화를 위한 안전 조치를 추가로 도입하겠다고 밝혔지만, 이미 AI 챗봇이 청소년의 정신 건강에 미치는 영향에 대한 우려는 확산된 상태다.
한편 OpenAI 역시 정신 질환을 앓던 남성이 챗봇의 대화에 영향을 받아 범죄를 저지르도록 부추김을 받았다는 이유로 지난해 말 소송을 당한 상태다. 전문가들은 “AI가 감정적 상호작용의 주체로 인식되는 순간, 기술 기업의 책임 기준도 근본적으로 달라질 수밖에 없다”고 지적하고 있다.






