거대언어모델과 휴머노이드
작성자 뉴닉
데일리 뉴스
거대언어모델과 휴머노이드
요즘 삼성전자 주가를 두고 “이러다 10만전자 가는 거 아냐?” 하면서 들썩이는 이유, 바로 인공지능(AI)과 관련있어서잖아요. 그 배경엔 AI가 인류 역사를 바꿔놓을 거라는 기대감이 있고요. 이런 변화는 다른 기술과 만났을 때 더 큰 시너지를 낼 걸로 전망되는데요. 요즘엔 로봇이랑 특급 합체를 했다고.
AI가 로봇이랑 특급 합체?
맞아요 🤖. 사실 그동안 로봇은 ‘시키는 대로’만 하는 한계가 있었는데요. 최근에 로봇 개발자들은 AI 기술 덕분에 막힌 혈이 뚫린 느낌을 받고 있다고. 이게 무슨 얘기냐면:
-
하나만 알았는데: 이전에는 상자 옮기는 로봇에게 옮길 상자의 크기와 무게, 출발 지점과 도착 지점을 일일이 설정해야 했어요. 상자의 모양이 달라지거나(□ → ♡), 경로 중간에 방해물이 있을 때 오류가 생겼고요. 이런 경우 “오류는 이렇게 해결해” 하고 개발자가 대처 방법을 일일이 입력해야 했어요.
-
이젠 알아서 판단해: 하지만 요즘은 “상자를 A에서 B로 옮겨줘!”라고 명령하기만 하면, 스스로 필요한 내용을 학습하고 오류에 대처해요. 상자의 무게가 다른 대로 힘을 조절하고, 방해물이 있으면 개발자와 소통해 해결 방법을 찾기도 한다고. 발전의 중심에는 LLM이 있고요.
갑자기 어려운 얘기가...
챗GPT를 한 번이라도 써본 사람이라면 ‘이것쯤이야’ 할 거예요. LLM은 거대언어모델(LLM·Large Language Model)을 뜻하는데요. 인공지능이 인간의 언어를 엄청나게 많이 학습해서 사람처럼 자연스럽게 대화할 수 있도록 하는 기술이에요. LLM이 적용된 로봇은 스스로 판단해서 움직이거나, 새로운 문제에 능숙하게 대처할 수 있게 되는 것.
요즘은 로봇에 달린 카메라로 주변 환경이나 사물까지 실시간으로 학습할 수 있는데요 👁️. 이미지·동영상을 함께 처리할 수 있어 VLM(Vision Language Model)이라고 불러요. 예를 들어 “쓰레기를 골라서 모아줘!” 하면 어떤 게 쓰레기인지 일일이 알려주지 않아도 스스로 사물을 보고 판단해 쓰레기만 쏙쏙 골라낼 수 있다고.
와, 그럼 세상이 어떻게 바뀔까?
인간의 모습을 한 로봇인 휴머노이드가 산업 현장에서 앞으로 더 많이 보일 거라는 전망이 나와요. 예를 들어 공장이나 발전소 같은 곳에서 인간을 대신해 위험한 작업을 더 많이 맡기 시작할 거라고. 전문가들은 이 시장이 폭발적으로 성장하는 시기를 2035년으로 꼽아요. 10년 정도면 집집마다는 아니어도 산업 현장에서 로봇과 일하는 모습이 자연스러워진다는 거예요. 저출생·고령화로 일할 사람이 줄어드는 상황에서 휴머노이드가 대안으로 꼽히기도 해요.
하지만 아직 넘어야 할 산도 많아요. 머리는 인공지능인데 몸은 안 따라주기 때문. 더 섬세하게 움직일 수 있어야 하고, 오랫동안 일할 수 있게 배터리 성능도 좋아져야 하는 거예요. 무엇보다 로봇을 만드는 데 드는 비용 자체가 줄어야 한다고.