eINS S&C

아인스 칼럼

제프린 힌튼의 경고

메타버스 이후, 피지컬 AI의 시험대

딥러닝의 개척자로 노벨물리학상을 수상한 제프린 힌튼은 젊은 시절 물리학을 공부하려다 포기했다고 여러 차례 말했다. 그는 자연 법칙을 수식으로 명시하는 길 대신, 데이터에서 표현을 학습하는 길을 택했다. 그리고 그 선택은 인공지능(AI)의 역사를 바꾸었다.


그런 그가 지금 AI의 위험성을 경고하고 있다. 겉으로 보면 모순처럼 보이지만, 그의 발언은 자기부정이 아니라 구조적 성찰에 가깝다. 딥러닝이 보여준 성과를 누구보다 잘 아는 사람이기에, 그 한계 또한 누구보다 선명하게 보고 있는 것이다.




예측은 통제가 아니다


딥러닝은 세계를 근사한다. 대규모 언어모델은 인간처럼 말하고, 생성 모델은 현실과 구분하기 어려운 이미지를 만든다. 그러나 근사는 법칙이 아니며, 예측은 통제가 아니다. 모델이 높은 정확도로 다음 상태를 맞힌다고 해서 그 상태를 안전하게 유지하거나 책임질 수 있다는 뜻은 아니다.


힌튼이 우려하는 지점은 여기에 있다. 우리는 모델 내부에서 어떤 표현이 형성되었는지 완전히 설명하지 못한다. 규모가 커질수록 예상하지 못한 능력이 나타나기도 한다. 또한 모델이 최적화하는 목표와 인간 사회의 가치가 정확히 일치한다고 단정할 수도 없다.


지능은 분명 강력해졌다. 그러나 그것이 곧 통제 가능성을 의미하지는 않는다. 예측 능력이 높아질수록 통제의 문제가 사라지는 것이 아니라, 오히려 더 복잡해진다.


메타버스의 교훈


메타버스는 한때 새로운 세계를 약속했다. 플랫폼과 확장, 생태계라는 언어가 산업을 달구었다. 그러나 서사가 구조를 앞질렀을 때 열기는 빠르게 식었다. 현실의 필수 문제를 해결하는 시스템으로 자리 잡지 못하면, 기술은 상징에 머문다.


메타버스의 실패는 기술적 무능이 아니라 구조적 과신에서 비롯되었다. 확장과 기대가 검증을 대신했고, 가능성이 곧 필연인 것처럼 받아들여졌다.


피지컬 AI는 이와 다르다. 여기서의 실패는 단순한 시장 조정이 아니라 물리적 사고로 이어질 수 있다. 그래서 교훈은 더 무겁다.



VLA가 여는 가능성과 착각


최근 주목받는 Vision-Language-Action model(VLA)는 비전·언어·행동을 하나의 모델로 통합하려는 시도다. 로봇이 사물을 보고, 언어를 이해하고, 곧바로 행동하게 만드는 구조다. 월드모델과 LLM을 행동 단계까지 확장한 형태로 볼 수 있다.


이 시도는 분명 진보다. 그러나 행동은 곧 물리 세계다. 물리 세계에서는 예측이 아니라 안정성이 기준이 된다. 데이터 기반 근사는 강인성(robustness) 보장을 대신하지 못한다. 인지의 통합이 곧 안정성의 통합을 의미하지는 않는다.


지능이 행동과 직접 연결될수록, 통제의 문제는 더 이상 이론이 아니라 현실이 된다.


가상실험의 한계와 오해


그래서 많은 이들이 디지털트윈과 가상실험을 대안으로 제시한다. 이는 필수적인 접근이다. 그러나 또 다른 오해가 생긴다. 가상환경에서 충분히 최적화하고 제어기를 설계했는데도 현실이 원하는 대로 움직이지 않는 경우가 빈번하다는 사실이다.


그 이유는 단순하다. 모델은 언제나 현실보다 단순하다. 마찰의 미세한 변화, 센서 노이즈, 온도, 진동, 사람의 예측 불가능한 행동 같은 요소는 완벽히 모델링하기 어렵다. 또한 가상환경에서 ‘최적’으로 도출된 해는 실제 환경의 작은 변화에도 취약할 수 있다.


가상실험은 현실을 완벽히 재현하는 도구가 아니다. 그것은 실패를 줄이기 위한 장치이며, 설계 공간을 탐색하는 수단이다. 완벽한 예측을 보장하는 장치가 아니다.


그래서 필요한 것은 강인성


피지컬 AI 설계는 일회성 최적화로 끝나지 않는다. 가상실험에서 검증하고, 현실 데이터를 반영해 모델을 보정하고, 다시 검증하는 순환 구조가 필요하다.


모델은 항상 불완전하고, 현실은 언제나 예상을 벗어난다. 따라서 중요한 것은 최적화가 아니라 강인성이다. 조건이 어긋나도 무너지지 않는 구조, 불확실성을 전제로 설계된 시스템이 필요하다.


이 지점에서 RTA(Run-Time Assurance)의 의미가 드러난다. 운용 중 불확실성이 급증하거나 경계조건이 위반될 때 자동으로 안전 모드로 전환하고, 권한을 제한하며, 최악의 상황을 차단하는 구조가 필요하다. 지능이 판단하더라도, 제어 계층이 마지막 안전선을 지켜야 한다.



시험대에 오른 것은 태도다


힌튼의 경고는 기술을 멈추라는 요구가 아니다. 능력(Capability)과 안전(Safety)을 동시에 고민하라는 요청이다. 메타버스가 남긴 교훈은 구조 없는 확장의 위험이었다. 피지컬 AI는 그보다 훨씬 엄중하다.


지금 시험대에 오른 것은 기술 자체가 아니라 우리의 태도다. 우리는 지능을 곧 통제라고 착각하는가, 아니면 불확실성을 전제로 시스템을 설계하고 있는가?


결론


우리는 데이터에서 세계를 근사하는 기계학습 방법을 배웠다. 그러나 근사는 통제가 아니다. 가상실험은 필요조건이지만 충분조건도 아니다. 현실은 언제나 모델을 넘어선다.


따라서 피지컬 AI의 본질은 지능의 확장이 아니라 불확실성 관리와 강인한 시스템 설계에 있다. 메타버스 이후, 피지컬 AI는 진짜 시험대에 올라 있다. 우리는 지능을 키우는 데 성공했다. 이제 어긋나도 무너지지 않는 구조를 설계할 차례다.

위로 스크롤