라이아
2023.12.05•
ChatGPT와 같은 생성형 AI가 질문의 맥락과 관련 없거나 사실이 아닌 내용을 마치 옳은 답처럼 내놓는 현상이 비일비재해 논란을 일으키고 있습니다. 간혹 ChatGPT에게 특정 인물의 정보를 질문하면, 그 사람은 죽었다는 답변을 합니다. 그 사람은 지금도 멀쩡하게 살아있는데 말이죠. 이러한 오류를 바로‘ 할루시네이션’이라고 불러요. AI의 잘못된 답변을 어딘가에 사용해서 문제가 되었다면, 그 책임은 사용자에게 있다고 해요. AI의 답변을 무조건적으로 신뢰하지말고, 한 번 의심해보는 태도를 가지는게 좋을 것 같아요.
👍1
1
답글 1
라이아 님에게 도움과 영감을 주는 답글을 남겨보세요