아인스 칼럼
피지컬 AI 시리즈 마무리
자율성은 학습이 아니라 검증에서 완성된다
인간의 판단을 기계에 위임한다는 것의 의미
피지컬 AI에 대한 논의는 이제 기술의 문제가 아니다.
우리는 더 똑똑한 기계를 만들고 있는 것이 아니라, 인간의 판단과 결정을 어디까지 기계에 맡길 것인지를 선택하고 있다.
이 시리즈는 피지컬 AI를 비판하기 위해 쓰이지 않았다. 찬양하기 위해서도 아니다. 처음부터 끝까지 붙잡고 온 질문은 단 하나였다.
“기계의 판단을 맡길 준비가, 우리는 되어 있는가?”
자율성은 능력이 아니라 권한이다
자율성은 성능의 문제가 아니다. 자율성은 권한의 위임이며, 동시에 책임의 이전이다. 인간 사회에서 판단 권한은 아무에게나 주어지지 않는다.
충분한 검증, 규칙에 대한 이해, 실패했을 때의 책임 구조가 명확할 때만 권한은 넘어간다. 기계에게 판단을 맡기는 일도 다르지 않다. “스스로 판단한다”는 말은 매력적이다. 그러나 공학에서 가장 중요한 질문은 언제나 이것이다. 그 판단이 실패했을 때, 누가 책임질 수 있는가.
학습은 지능을 만들지만, 책임을 만들지는 않는다
강화학습 기반 피지컬 AI는 분명 놀랍다. 인간이 설계하지 않은 전략을 발견하고, 복잡한 환경에서도 적응한다.
그러나 학습된 지능은 그 자체로 책임질 수 있는 판단이 아니다. 학습은 “될 것 같다”를 만들지만, 검증은 “되어야 한다”를 만든다.
이 시리즈에서 반복해서 다뤄온 질문은 이것이다.
시스템이 멈춰버리지 않는가. 헛돌기만 하지는 않는가. 목표 상태로 수렴하는가. 위험 상태로 진입하지 않는가.
이 질문들, 즉 deadlock-free, livelock-free, 안전성(safety)과 같은 속성(property)에 답하지 못하는 판단은 아무리 똑똑해 보여도 물리계에 맡길 수 없다.
RTA는 마지막 방패이지, 근거가 아니다
Run-Time Assurance는 중요하다. 반드시 필요하다. 그러나 RTA는 자율성의 근거가 아니라, 자율성이 실패했을 때의 최후의 방어선이다. 사후 개입만으로는 자율성을 정당화할 수 없다. 실행 중 감시는 책임을 대신하지 못한다.
자율성은 실행 중 제어가 아니라, 실행 이전 검증에서 시작된다. 이 순서가 바뀌는 순간, 자율성은 기술이 아니라 운에 기대게 된다.
BAS가 제시하는 하나의 현실적인 경로
BAS(Big Data, AI, Simulation) 모델링은 피지컬 AI를 제한하기 위한 틀이 아니다. 오히려 피지컬 AI가 현실에 들어오기 위한 최소한의 구조다. BAS는 이렇게 접근한다. 먼저 시스템의 상태 공간과 전이 구조를 모델로 명시한다. 그 위에서 감시제어기와 안전 조건을 정의한다.
피지컬 AI는 이 구조 안에서 불확실한 요소를 학습한다. 시뮬레이션과 형식 검증을 통해 시스템 전체가 책임질 수 있는 속성을 만족하는지 확인한다. 이 과정을 거칠 때 비로소 자율성은 선언이 아니라 자격이 된다.
자율성의 정의를 다시 쓴다
이 시리즈를 통해 제시하고 싶은 자율성의 정의는 명확하다. 자율성이란 무엇이든 스스로 판단하는 능력이 아니다.
자율성이란 검증을 통과한 판단만을 스스로 실행할 수 있는 권한이다. 그 권한은 학습으로 얻어지지 않는다. 검증을 통과했을 때만 부여된다.
피지컬 AI는 기술이 아니라 선택이다
피지컬 AI는 필연이 아니다. 우리가 선택하는 방향이다. 우리가 구조를 세우지 않는다면, 피지컬 AI는 실험이 된다. 우리가 검증을 포기한다면, 피지컬 AI는 도박이 된다.
우리가 책임을 정의한다면, 피지컬 AI는 공학이 된다. 이 차이는 기술의 문제가 아니라, 우리가 판단과 책임의 관계를 어떻게 정의하느냐의 문제다.
맺으며
피지컬 AI의 미래는 더 큰 모델이나 더 많은 데이터에 있지 않다. 그 미래는 판단을 구조로 만들고, 구조를 검증하고, 검증을 통과한 판단만을 현실에 적용할 수 있는지에 달려 있다. 학습은 출발점이다. 자율성의 완성은 검증이다.
그리고 이 시리즈가 끝까지 붙잡고 온 질문은 이것 하나다.
“이 판단은, 우리가 책임질 수 있는가?” 그 질문에 답할 수 있을 때, 피지컬 AI는 비로소 기술이 된다.