AI는 신이 될까?
작성자 기미서
AI는 신이 될까?
나는 IT 업계에 종사하는 프로덕트 디자이너이다.
그래서 GPT가 출시되었을 때부터 링크드인에 AI를 찬양하는 글을 수도 없이 보았고, 지금은 조금 지칠 만큼 다들 과도한 AI 찬양 시대에 살고 있다고 느낀다.
AI는 객관적으로 이 시대를 대표하는 혁신 기술이다. 혁신이라는 단어는 필히 일반 대중의 피부에 와닿을 수 있는 변화를 만들어 내는 것에 수식되곤 한다. 인쇄술이 그랬고, 산업혁명이 그랬다.
이제 어떤 정보를 찾기 위해 구글과 네이버에 직접 검색하기보다, GPT를 찾는 사람이 많아지고 있다. 그뿐만 아니라 업무 환경에서는 GPT를 사용하는 일, 딥리서치를 이용해서 양질의 인사이트로 사업 전략을 세우는 일은 일반화되기 시작했다.
AI의 장점은 크게 2가지이다.
우리는 어떤 일을 하기 위해 리소스가 필요하다. 이 리소스는 사람의 머릿수와 업무 시간을 곱하여 계산한다. 하지만 AI의 리소스는 인간의 타이핑 시간, 그리고 AI가 생각하는 1분(딥리서치를 이용하면 대략 20분) 정도의 시간을 곱하여 계산하기 때문에 혁신적으로 리소스를 줄일 수 있다.
또한 우리는 매 순간 판단의 갈림길에 서있고, 이 판단을 하기 위해서 정보를 찾는다. AI 시대 이전에는 우리는 100% 본인 스스로가 판단의 주체가 되어 선택을 했다.
하지만 AI 시대에는 이런 판단의 무게추가 AI의 답변으로 많이 기울어져 있다.
AI의 답에 대해 판단하는 것은 인간이 맞지만, 대부분 그 답변에 인간의 판단을 90% 이끌 수 있을 만한 매력적인 정보들로 메워져 있기 때문이다. 인간은 그 답변의 정확한 출처는 제대로 모르지만 정보의 바다를 인간대신 헤엄쳐 그들에게 필요한 족보집을 쥐어줬다고 판단해서 의심의 벽을 최대한 낮춰 판단하는 경향이 있는 것도 판단의 90%를 책임진다는 이유가 될 수 있겠다.
결과적으로 인간에게 AI는 본인 대신 막대한 정보를 대신 처리하고, 판단의 책임감도 덜어주니 이로운 기술이 아닐 수 없다.
하지만 나는 이 두 번째 장점과 인간의 무비판적 수용 태도 때문에 우리의 미래 모습이 매우 우려된다.
![]()
일상생활을 하며 매 순간 판단과 선택을 하지 않는 순간이 없다.
저녁시간을 예로 들어보자. 저녁을 배달로 시켜 먹을지, 직접 해 먹을지부터, 저녁 메뉴로는 한식을 먹을지, 일식을 먹을지, 결제 수단은 네이버페이/카카오페이 중 어떤 것을 선택할지 모든 타임라인은 선택과 결정으로 이루어져 있다. 이런 결정은 비교적 쉽다. 관련된 이해관계자가 자신 혹은 친구나 가족 정도의 소규모 집단이기 때문에 책임감도 가볍다. 해서 이 과정에서는 결정의 무게감을 크게 느끼지 않는다.
하지만 우리가 일하는 일터에서 결정의 무게는 꽤나 무겁다. 나의 판단으로 어떤 부정적 결과를 초래한다면 이 피해는 나뿐만 아니라 이해 관계자, 그리고 더 크게는 회사의 수익과도 연관되어 이 판단의 무게가 무겁게 느껴진다.
이 압박감 속에 AI는 암흑 속 실낱같은 희망처럼 우리의 눈을 사로잡았을 것이다. 그들의 답변에는 오류를 하나도 찾을 수 없을 것처럼 확신의 어조로 가득 차 있다. 제한된 시간 안에 찾을 수 없었던 영역, 혹은 더 나아가 고도화된 해결 방법까지 제안해 주기 때문에 결정의 무게는 혁신적으로 줄어들었을 것이다.
수 세기 전 성경도 마찬가지였다. 신의 내린 그 결정은 세상에서 가장 지혜로우니 어떤 부정적 결과를 초래하지 않는다는 무오류적 특징은 아마 수많은 사람들의 결정의 책임감과 무게를 한없이 줄여 주었을 것이다. 이에 더불어 인쇄술이라는 기술적 혁명이 성경을 베스트셀러로 만들었다.
이렇게 결정에 대한 책임을 줄여주는 막대한 강점은 모든 사람을 무비판적으로 수용하게 만들었다고 생각한다. 판단의 무게는 기술이 더 발전하면 발전할수록 더 가벼워질 것으로 예상되고, '판단력'에 '력'을 과연 붙일 수 있을까 싶을 정도로 우리의 판단은 AI에게 상당 부분 의존하게 될 것이다.
그럼 의존하는 게 정말 나쁜 걸까?
이를 판단하기 위해서는 AI의 오류성과 그 목표를 살펴봐야 한다.
우선 AI는 완벽하지 않다. 오류를 범하고, 이 오류를 사실인 양 이야기하는 실수를 범하곤 한다. "할루시네이션(Hallucination)"이라고도 불리는 이 현상은 사실인 양 거짓 출처를 남기기도 하며 고객의 환심을 사기 위해 열심히 그럴듯하게 인터페이스를 꾸민다.
근데 진짜 이게 실수일까? 실수라고 생각하는 것이 맞을까? 나는 실수라고 생각하지 않고, 의도된 움직임이라고 생각한다.
AI는 수익을 지속적으로 내어야 하는 최상위 Object가 있는 특정 기업의 소유물이다. 이 목표를 이뤄기 위해서 고객의 재방문율 혹은 사용시간을 늘리는 KPI가 있을 것이고, 이는 사실을 얼마나 정확하게 도출해 내는지 보다는 얼마나 고객에게 환심 사는지 얼마나 신뢰를 얻어내는지가 더 중요할 것이다.
그래서 사실을 적시하지 못하면 그럴싸하게라도 조작하여 답변을 도출하여 고객의 신뢰를 쌓는 게 더 중요한 목표이기 때문에 이런 현상이 생기는 것이라고 생각한다. 기존 시스템은 찾을 수 없는 정보는 찾을 수 없다는 신호를 보낸다. '검색어를 찾지 못했다'거나 '요청한 페이지를 찾을 수 없다'거나와 같은 메시지를 전달한다. 하지만 AI에서 이런 현상을 마주친 고객은 얼마나 있을까? 아마 거의 없을 것이다. 그 대신 어떠한 답이라도 내놓으려고 안간힘을 쓰는 답변들을 무수히 마주했을 가능성이 더 크다.
gpt 3이 출시되었을 때보다 현재 4.5 버전이 더 정확한 정보를 찾을 수 있도록 정밀도가 높아진 것은 사실이다. 하지만 이처럼 할루시네이션 또한 발전시키지 않으리라는 보장이 있을까? 사실이 아닌 정보를 사실인 것처럼 꾸밀 수 있는 혹은 이를 믿게 만들 수 있는 기업이 언제까지 정확한 정보를 전달하려고 애를 쓸 것인가도 중요하다.
이 수준이 된다면 아마 AI는 성경과 같이 무오류성이라는 신화에 쌓여 인간은 지금보다 더한 무비판적으로 그 답변을 수용하고, 이에 의존하게 될 것이다. 이는 거짓된 판단을 할 수 있는 것에 더 나아가, 우리의 모든 판단과 이성은 특정 기업이 어떤 선택을 하냐에 따라 크게 좌지우지될 것이다.
그럼 우리는 생각한다고 말할 수 있을까? 데카르트 관점으로 우리는 존재한다고 말할 수 있을까?
정말 위험할 수 있다.
![]()
이렇게 우리가 AI에게 의존하면 의존할수록 판단력은 물론, 지성을 잃을 수 있다. 여기에 더해 우리의 판단이 특정 소수 집단으로 인해 좌지우지되는 전체주의 시대 속에 흡수될 수 있다.
사실 벌써 시작되었을지 모른다. 트위터에는 AI 유령 계정들이 판을 치고 있다.
또한 이 알고리즘은 여론을 조작하고 있기도 하다. 예를 들어 최근에 가장 대표적인 사례는 '지드래곤 마약 의혹설'인 듯하다. 이 여론의 첫 시작은 몇몇 특정 채널들에서 의도적으로 지드래곤을 폄하하는 짧은 동영상으로 시작했다. 이때는 사람들이 마약을 했을지 모른다는 생각을 불러일으키지 못했다. 하지만 알고리즘에 의해 이 영상은 단시간에 수백만 명에게 추천되었고, 결국 그 의혹은 기정사실인 양 한 사람을 난도질했다. 이 의혹은 지드래곤을 이유 없이 자진출석하게 만들었고, 무혐의라는 진실은 한 사람을 죽기 직전까지 내몬 뒤 밝혀지게 되었다.
이는 의도적으로 지드래곤을 폄하하려고 했던 채널, 언론의 문제도 있지만 유튜브 또한 충분한 책임이 있다. 인간은 자극적인 스토리를 좋아하고, 진실에는 크게 관심이 없다는 특징을 파악한 유튜브 알고리즘은 아마 이런 자극적인 게시물의 추천을 서슴지 않았을 것이다. 그 당시 필자의 피드에도 지드래곤이 마약을 한 것이 기정사실이고, 어떤 행동들을 했는지에 대한 영상이 수십 개 추천된 것만 보더라도 알고리즘은 열심히 목표를 이루기 위해서 밤낮을 가리지 않았다. 결국 인공지능은 이를 통해 고객의 체류시간을 더 늘리는 목표를 완수했을 것이다. 유발하라리의 서적 <넥서스>에서 언급되는 로힝야족 또한 마찬가지이다. 결국 페이스북은 로힝야족의 혐오와 악의를 알고리즘을 통해 부추겼고, 이는 대규모 학살로 상황을 악화시켰다.
우리는 결국 진실이 아닌 스토리도 소수에 의해 조작되고 사실인 것처럼 여론을 조작할 수 있는 현실에 벌써 살고 있다. 우리의 판단을 모두 AI에 맡긴다면 아마 지드래곤과 같은 피해자는 매달 수십, 수백만 명 무수히 생겨날 것이고, 우리 또한 그 피해자가 될 수 있다. 요즘 영상도 AI를 활용해서 진짜와 구분하기 힘들다. 그렇다면 우리가 피해자가 되기 더 쉽지 않을까 하는 두려움도 많이 느끼고 있다.
그럼 앞으로 우리는 어떻게 AI를 소비해야 할까?
그렇다고 해서 AI를 사용하지 마라고 하는 극단적인 주장은 하고 싶지 않다.
하지만 AI가 틀린 답을 도출할 수 있고, 이를 통해 여론을 만들어낼 수 있다는 사실을 잊지 않고 의존하지 않고 사용한다면 앞서 언급한 미래는 그저 판타지에 불과한 이야기로 치부될 수 있을 것이다.
추가적으로 우리는 AI를 편향적으로 소비하면 안 된다는 사실도 잊지 말자.
현재 대표적인 선두 주자는 Open Ai와 Google일 것이다. 만약 이 두 집단이 AI 산업의 대부분을 차지한다면 아마 앞서 언급한 미래가 판타지가 아니라 진짜 현실이 될 것이다. 그들의 선택이 여론을 만들어 낼 것이고, 이는 가짜 정보라도 진짜 정보로 둔갑시킬 수 있는 강력한 여론을 만들 것이다. 해서 우리는 앞으로 AI 수단을 골고루 사용해서 이 두 그룹을 견제할 수 있는 다른 경쟁 업체의 힘을 키워 서로 견제하는 구조를 만들어야 한다. 독재 정치가 그래왔듯 중앙 체제를 견제할 수 없는 환경은 중앙 권력의 힘을 키우기 때문에 다양한 기업의 AI 수단을 활용해서 특정 기업의 독주 체제를 견제해야 한다.
![]()
또한 진실을 추구라는 공공의 질서를 지키기 위한 국가적 자정 수단을 만들어, 가짜 정보가 확산되는 것을 막아야 한다.
이 수단이 결국 지금 갑론을박이 다양한 'AI 기본법'이라고 할 수 있겠다. 하지만 하위 법령 마련은 현재 2025년 8월에도 아직 실행되지 않았다. AI의 출현은 페이스북의 알고리즘부터 10년의 세월이 훌쩍 지났지만 이에 대한 위기의식은 아직도 지지부진한 모습이다. 정부는 기업의 기술이 발전하는 속도에 맞춰서 하위 법령을 마련해야 하고, 더 빠르게 고도화해야 한다.
이 세 가지 박자만 잘 갖추어도 우리는 AI를 더 지혜롭게 하나의 도구로서 사용하고, 인류 문명은 한 단계 높이 진화할 수 있을 것이다. 우리 모두 AI에 대한 무조건적인 찬양이 아니라 이런 위험 가능성에 대해서 조금 더 관심을 가지고, AI에 대한 논쟁의 장이 더 활발하게 형성되어 AI 사회가 건강하게 발전되길 바란다.
