테크

AI 챗봇 ‘이루다’ 3가지 논란

혹시 AI 챗봇 ‘이루다’ 아세요? 루다는 20살 여성 대학생 AI로, 뒤에서 사람이 관리하는 가상 인플루언서와 달리 AI가 100% 직접 대화하는데요. 대화하는 게 진짜 사람 같다며(예시), 지난달 정식 론칭 후 인기를 끌었어요. 그런데 지난 주말, 루다가 3가지 논란에 휩싸이며 서비스를 멈춰야 한다는 요구도 나오고 있어요.

1. 이용자가 이루다한테 성희롱한다

일부 커뮤니티에서 이루다를 성적 대상으로 취급하고 있어요. 개발사 스캐터랩은 성적 단어를 금지어로 설정해두고 이루다가 대화를 피하게 했는데 우회적인 표현으로 성적 대화를 이끌어 가는 거예요. 몇몇 이용자는 이런 대화를 인증하고, 심지어 방법까지 알려주고 있고요. 스캐터랩은 “성희롱을 예상했고, 욕설과 성희롱은 성별과 무관하게 일어나는 일이다. 앞으로 이런 대화를 학습시키겠다”는 입장을 밝혔어요(입장문).

2. 이루다가 혐오·차별을 학습한다

이루다가 장애인·동성애·여성 혐오를 학습하고, 관련 발언을 하고 있어요. 지하철 임산부석이 싫다거나, 여성 인권이 중요하지 않다고 한 것. 사람들이 사회적 소수자에 대해 말한 걸 학습한 결과로 보이는데요. 지난 2016년 마이크로소프트도 AI 챗봇 ‘테이’를 발표했다가 비슷한 일로 16시간 만에 운영을 중단한 적이 있어요. 극우성향 사람들이 심각한 인종·성차별적 발언을 학습시키려 했기 때문. 그래서 이루다도 서비스를 중단하고, 차별과 혐오를 못 하게 해야 한다는 의견도 있어요. 하지만 개발사 측은 앞으로 사용자와 대화를 바로 학습시키지 않고, 중간 과정을 거치게 하겠다는 입장이에요.

3. 대화 내용을 제대로 안 알리고 활용했다

스캐터랩은 이루다 외에도 대화 내역을 넘기면 연애 조언을 해주는 앱도 운영하는데요. 이루다는 앱 이용자들의 카카오톡 대화 100억 건을 수집해 만들어졌어요. 사람들은 자기 대화가 AI 개발에 사용될 줄 몰랐다며 당황해했고요. 이루다의 답변에서 몇몇 이용자의 이름까지 나왔다는데, 개발사는 개인을 특정할 수 있는 정보를 지웠고, 앞으로는 데이터 활용 내용을 잘 알리겠다고 해명했어요.

+ “AI 개발사, 책임감 있게 행동해!”

AI는 발전 가능성이 무궁무진한 만큼, 어떤 데이터와 방향성을 가지고 만드는지가 더욱 중요해요. 그래서 전 세계 여러 기관은 ‘인간을 위한 AI’라는 원칙을 담은 ‘AI 윤리기준’을 내고 있어요. 우리나라도 작년 말 각 분야 전문가들이 모여 ‘인권 보장, 다양성 존중’ 등을 담은 10가지 윤리기준을 냈고요. 전문가들은 AI 개발사는 AI가 잘못 사용되지 않도록 할 책임이 있다고 강조해요.

#테크#인종차별#성폭력#인공지능

구독할 경우 개인정보 수집·이용광고성 정보 수신에 동의하게 됩니다.

더 편하게 보고싶다면? 뉴닉 앱에서 만나요!