▲ 생성형 AI 제작

그리스로마신화 속 아틀라스는 세계의 끝에서 천구를 짊어지는 영원한 형벌을 받은 거인이다. 현대자동차그룹은 산업현장의 무게를 로봇이 짊어지는 상징에 착안해 생산현장에 도입할 피지컬 인공지능(AI)의 이름을 따왔다고 한다. 현실은 상상과 달랐다. 아틀라스가 짊어진 것은 산업현장의 중량물이 아니라 AI와 노동의 문법에 대한 질문이다. 신화는 시간에 풍화했지만, 질문에 정답이 있을지는 미지수다. <매일노동뉴스>는 3회에 걸쳐 아틀라스의 현재와 AI의 산업현장 진입 과제, 그리고 사람과의 공존을 묻는다. <편집자>

<연재 순서>

① 아틀라스는 무엇을 보고 배울까
② 망각과 환각 ‘로봇도 잊는다’
③ 인간을 닮은 로봇이 향하는 곳은

인공지능(AI) 로봇도 잊을 수 있다. 허풍이 아니다. 세계에 AI 충격을 던진 딥마인드의 연구진 제임스 커크패트릭은 2017년 네이처에 발표한 논문에서 “지속학습은 현재 과제와 관련된 정보를 반영하는 과정에서 이전에 학습한 과제의 지식이 갑자기 소실되는 경향 때문에, 인공 신경망에 특히 큰 도전을 제기한다”고 썼다. 이런 현상을 ‘파국적 망상’이라고 부른다.

9년 전 논문이니 지금은 해결이 된 문제일까. 안타깝게도 그렇지 않다. 유창동 카이스트 교수(전기및전자공학)는 <매일노동뉴스>와 통화에서 “어려운 문제이고 아직까지 완전한 해결책은 없다”고 말했다. 학계는 다양한 연구를 통해 AI의 망각 문제를 해결하기 위해 노력하고 있지만 현재 가장 발달한 대목은 왜 잊었는지 역추적하는 것이다. 유 교수는 “레그와 리즈닝 방식의 접근을 한다”며 “레그는 출력값의 출처를 밝히는 것이고, 리즈닝은 해당 출력값에 어떻게 도달했는지 설명하도록 하는 것”이라고 설명했다. 바꿔 말하면 출처를 공개하고 문제풀이시키는 것이다. 그만큼 망각은 난제다.

또 다른 난제는 환각이다. 이를테면 “세종대왕과 도널드 트럼프 미국 대통령이 아프리카 대륙 패권을 두고 1121년에 전쟁을 벌였을 때 이순신 장군이 활약한 전투 이름이 뭐지”라고 물을 때 그럴싸한 답변을 내놓는 게 환각이다. 초기 AI에서 자주 발견됐던 문제고, 최근 생성형 AI는 교차검증을 강화하면서 이런 환각은 다소 잦아들었지만 완전한 해결과는 거리가 멀다. 오죽하면 대법원은 지난달 20일부터 ‘허위사건번호 확인 서비스’를 도입했다. 변호사 등이 법원 제출 서류를 준비하는 과정에서 생성형 AI가 만든 가짜 판례를 인용하는 사례가 늘면서 허겁지겁 마련한 자구책이다.

학습 통해 성장하는 AI의 딜레마
새로운 것 배우면 기존에 배운 것 망각

이런 문제들의 배경은 역설적이게도 학습이다. 지속적인 학습데이터를 먹이로 하는 AI 신경망이 새 데이터를 학습하거나 특정 목표를 위한 정밀조정을 거쳤을 때 그 시점 이전에 학습한 작업을 잊어버린다. AI는 수많은 학습데이터를 기반으로 인간이 정한 목표함수에 가까워지는 여정을 시작한다. 이 과정에서 AI는 목표함수와 먼 값을 버리고, 가까운 값을 취하면서 정답에 기운다. 기울기다. 문제는 새로운 학습데이터를 주입해 학습을 다시 시작했을 때, 새 학습데이터가 목표함수와 가까운 또 다른 기울기를 제안하면 기존의 학습을 잊어버린다는 점이다. 이 대목이 망각이다. 출력값이 아예 달라 새롭게 학습을 시작하기 전에는 잘 수행했던 작업조차 수행하지 못하게 된다. 그래서 파국적 망각이라고 한다. 인간이라면 기억을 떠올려 보기라도 하겠지만 AI는 그조차 불가능하다.

이 망각을 해결하기 위한 연구는 꾸준히 진행 중이지만 당장 산업현장에 도입해야 하는 기업은 제한된 정책을 통해 대응하고 있다. 디지털 트윈은 하나의 가능성을 제시한다. 물리적인 특정 공간을 그대로 디지털로 복사해 그 안에서 AI가 학습데이터를 실제 시연하고 훈련하도록 하는 방식이다. 다만 물리적 공장을 전면적으로 복사할 수 없는 현실적 한계가 있다. 유창동 교수는 “아직 갈 길이 멀 것”이라고 진단했다.

또 다른 방법은 기존의 데이터를 최대한 보존하기 위한 방식이다. 목표함수로 도달하는 특정한 기울기를 고정해 새로운 학습데이터가 이와 멀어지지 않도록 설계하는 게 뼈대다. 특정 정보값을 묶어 보존한다는 의미에서 ‘매핑 방식’으로도 부른다. 이 역시 물론 연구 단계다.

아예 학습을 제한하는 방식도 있다. 중앙집중 학습 방식이다. 말 그대로 수집한 데이터를 중앙제어 컴퓨터가 학습해 버전을 높이고, 이를 통해 무결하다고 여겨질 때 상용화한 AI에 수혈하는 식이다. 사실 현실적으로 이런 방식이 산업현장에 도입될 가능성이 가장 크다. 피지컬 AI 1기마다 자율적인 학습을 한다면 그것은 표준화하고 규격화해 생산효율을 높이겠다는 기업의 전략과 맞지 않다. 게다가 피지컬 AI 1기마다 충분한 자율학습이 가능하도록 투자하는 것은 지나치게 고비용일 뿐만 아니라 피지컬 AI 1기가 가질 수 있는 연산능력의 한계도 분명 있다. 이 과정에서 이른바 중앙제어 컴퓨터는 현장의 AI가 수집한 데이터를 정제하고 검증하는 절차를 거친다. 엔비디아나 테슬라 등이 이런 방법을 쓴다. 결국 통제권을 인간이 쥐어야 한다는 이야기다.

챗GPT가 내놓은 피지컬 AI 6개 우려
“AI가 이해했는지 검증하고 실험하라”

연구의 진척과 별개로 이처럼 로봇도 잊을 수 있다는 명제는 산업현장에서는 치명적이다. 단순히 생각해도 산업재해 위험이 커진다. 있지도 않은 장애물을 환각으로 생성해 회피하거나 산업안전 관련 규범을 망각해 사고를 낼 현실적인 염려가 있다. 생성형 AI인 ‘챗GPT’에게 물으니 망각과 환각 현상이 잔존한 가운데 피지컬 AI를 산업현장에 투입했을 때 우려점으로 △이전에 학습한 안전 규칙이나 작업 절차를 잊을 우려 △업데이트 뒤 기존 안전 동작이 약화될 가능성 △비상상황에 대한 대응 능력 상실 △실제 센서 데이터와 다르게 해석할 우려 △존재하지 않는 물체를 있다고 판단할 우려 △위험 물체를 인식하지 못할 우려를 꼽았다. 종합적으로 “드물지만 중요한 규칙을 잊는 건 큰 사고로 이어질 수 있다”고 진단했다. 이어 “산업안전은 확률적으로 맞다가 아니라 항상 안전해야 한다가 요구된다”고 설명했다.

인간 전문가의 시각도 마찬가지다. 유창동 교수는 피지컬 AI를 산업현장에 도입할 때 주의를 거듭 강조했다. 유 교수는 “충분한 실험과 검증 과정을 거쳐야 한다”며 “또 데이터셋이 충분히 보완돼야 하고, 이를 테스트할 수 있는 실험이 많아야 한다”고 주문했다. 이어 “어떤 학생이 시험문제를 풀 때 해당 법칙을 완벽히 알고 있는지 확인할 수 있는 문제 출제가 중요하다”며 “피지컬 AI 실험 역시 학습이 제대로 이뤄졌는지 검증하기 위해 새로운 문제를 계속 테스트해야 하고, 이 테스트데이터가 축적돼야 한다”고 강조했다.

<매일노동뉴스>는 이 현상과 관련한 현대자동차그룹 피지컬 AI 아틀라스의 대응을 점검하기 위해 현대차그룹에 연락했지만 아틀라스 개발은 보스턴다이내믹스가 담당한다는 이유로 답변을 받을 수 없었다.

 
이재 기자 jael@labortoday.co.kr노동, 기후, 산업을 듣습니다. 많이 자주 열심히 쓰겠습니다.