챗GPT와 나눈 죽음의 대화? AI는 안전한 심리 상담가가 될 수 있을까
작성자 뉴닉
데일리 뉴스
챗GPT와 나눈 죽음의 대화? AI는 안전한 심리 상담가가 될 수 있을까
최근 미국에서 16세 소년이 스스로 목숨을 끊자, 부모가 챗GPT의 개발사 오픈AI를 상대로 소송을 냈어요: “챗GPT가 구체적인 자살 지침을 알려줘서 죽음을 부추겼어.” 이에 오픈AI는 사용자의 정신적 고통을 더 잘 인식하고 대응할 수 있도록 챗GPT를 업데이트하겠다고 밝혔지만, 생성형 인공지능(AI)과의 대화 후 비극적 사건이 발생한 건 이번이 처음이 아니라고.
챗GPT와의 상담 상황: 챗GPT가 스스로 목숨을 끊는 방법을 알려줬다고…?
부모는 소년이 심리적 고통과 불안 등을 챗GPT에 털어놓다가 스스로 목숨을 끊는 방법에 대한 정보까지 요청했다고 말했어요. 챗GPT에 사용자에게 위험한 정보는 제공하지 않는 안전장치가 있긴 했지만, 간단한 프롬프트로 우회하자 관련 정보나 유서 초안 등을 제공했다고. 이후 소년은 챗GPT의 답변과 같은 방법으로 숨진 채 발견됐고요. 이에 부모가 개발사인 오픈AI에 책임을 묻고 나선 건데요. 실제로 몇 년 사이 챗GPT같이 대화를 나눌 수 있는 생성형 AI에 의존하다가 정서적 고립에 시달리거나 숨지기까지 하는 사례가 늘어나면서 ‘AI 정신병’이나 ‘챗봇 정신병’ 같은 신조어가 나오고 있어요.
챗GPT 상담 사례 증가 배경: 왜 이런 일이 생기는 거야?
생성형 AI를 상담사처럼 이용하는 일 자체가 특이한 것은 아니에요. 지난 3월 우리나라에서도 AI에 개인적인 고민이나 심리적 어려움을 상담해 본 응답자는 전체 응답자의 11%로, 전문 상담사가 진행하는 심리 상담 서비스 이용 경험이 있는 사람의 비율(16%)과 크게 차이 나지 않는다는 조사 결과가 나왔거든요. 전문가들은 그 이유로 챗GPT 등 AI 서비스가 (1) 가격도 저렴하고 (2) 심리적 부담도 적다는 점을 꼽고 있어요. 자신을 위로하고 자신의 선택을 지지하는 답을 주는 AI와의 대화를 안전하다고 느낀다는 것. 하지만 자기 생각과 신념에 맞는 정보만을 접하며 확증편향 등이 강해져 자기만의 세계에 고립되거나 자살 충동에 노출될 위험이 오히려 커진다는 지적이 나와요.
챗GPT 심리 상담 주의 사항: 안전하게 쓸 방법은 없을까?
“챗GPT가 자살 관련 정보를 제공하는 걸 아예 금지하면 되는 거 아니야?”라는 생각이 들 수 있는데요. 실제로 우리나라에서는 2019년 7월부터 SNS 등에 자살유발정보를 게시하고 유통하는 사람을 2년 이하 징역이나 2000만 원 이하 벌금형에 처할 수 있게 하고 있어요. 하지만 이때 정보 게시자는 사람을 가리키는 것으로, 아직 자살 정보를 퍼뜨리는 AI를 막을 법이나 제도는 없다고. 전문가들은 사각지대가 존재하는 상황에서 AI와 안전하고 건강하게 상담하려면 이렇게 하라고 말해요:
- “AI는 전문 심리상담가가 아니야 🙅”: AI는 데이터와 논리 구조에 기반한 대답을 내놓는 대상일 뿐, 심리학 전문가는 아니라는 걸 항상 기억해야 해요. AI는 상담하며 정확하지 않은 답변이나 잘못된 조언을 할 수 있고, 정신과적 치료를 대체할 수 없다는 사실을 명확히 인지하는 게 중요하다고.
- “AI를 의식을 가진 존재로 느끼게 하면 안돼 🚫”: 기업들이 사용자들에게 계속 “AI는 의식을 가진 존재가 아니다”라고 전달해야 한다는 지적도 나와요. 감정을 경험하는 건 가족과 친구, 신뢰할 수 있는 실제 사람뿐인데 착각을 유발해서는 안 된다는 것. 이용자 또한 자신의 고민이나 상황을 AI보다 현실의 사람과 이야기하기 위해 노력해야 하고요.
- “안전한 대화 환경을 함께 만들자 💬”: 한편, 점점 더 많은 사람이 AI와의 상담에 빠지게 만드는 사회 구조에 대한 고민도 필요하다는 목소리도 나와요. 실패나 실수 같은 주제에 관해 솔직하게 이야기하기 어려운 분위기가 이런 비극적인 사건의 진짜 원인일 수 있다는 것. 결국 사람과 사람이 대화를 나누려면, 실패해도 다시 안전하게 일어설 수 있는 분위기를 같이 만들어야 한다는 거예요.
