eINS S&C

아인스 칼럼

기계학습과 AI,
과학인가 기술인가 공학인가?

질문하면 척척 답하고, 그림도 그리고, 사람처럼 대화도 한다.

이제 기계학습과 AI는 단순한 연구 소재를 넘어, 일상과 산업, 국가 시스템까지 바꾸는 핵심 도구가 되었다.

그런데 문득 궁금해진다. 우리는 지금 AI를 어떻게 다루고 있는가? 그리고 더 본질적으로 묻고 싶다. AI는 과학인가, 기술인가, 공학인가?

과학이라면, 실험을 통해 원리를 검증해야 한다

기계학습은 인간의 사고와 학습을 이해하려는 과학적 탐구의 연장선에 있다. 수학, 통계학, 뇌과학, 인지심리학 등이 AI 연구의 기초를 이루며, 이는 분명한 학문적 성격을 지닌다.

하지만 진정한 과학이라면, 그 이론과 모델은 반드시 실험과 검증을 통해 타당성을 입증해야 한다.

  • 모델이 예측한 결과가 실제와 얼마나 일치하는가?
  • 입력 조건이 바뀌었을 때도 같은 결과를 도출하는가?
  • 다른 환경에서도 일관된 결과를 내는가?

과학은 가설에서 시작하지만, 재현 가능한 실험과 반복된 관찰을 통해 입증될 때 비로소 신뢰를 얻는다.

현재의 많은 AI 시스템은 이 조건을 충족하지 못한다.

  • 판단의 기준을 명확히 설명할 수 없고,
  • 입력을 조금만 바꿔도 예측이 크게 달라지며,
  • 동일한 실험 환경에서도 결과가 일관되지 않는 경우가 많다.

요컨대, AI는 아직까지 ‘잘 맞는 것처럼 보이는 예측기’이지, 검증된 자연 법칙을 설명하는 과학이 아니다.

AI가 과학으로서 인정받기 위해선, 설명 가능한 이론과 실험 가능한 구조를 갖춰야 한다.

기술로서의 AI, 그러나 너무 많은 걸 맡겼다

기계학습은 현실에서 매우 실용적인 기술로 활용되고 있다. 스팸 필터, 고객 분석, 이미지 인식, 챗봇, 자율주행까지…

문제를 해결하는 능력만 놓고 보면, 이보다 더 강력한 도구는 드물다. 하지만 기술이 사회의 의사결정에 깊숙이 관여하기 시작하면서 단순히 “잘 작동하니까”라는 이유로 사용되기엔 위험한 지점들이 드러난다.

편향된 데이터로 인해 부당한 판단을 내리거나, 소수자 집단을 구조적으로 차별하거나, 오작동의 책임 소재가 불분명한 경우가 빈번하다.

기계학습은 이제 단순한 ‘유용한 기술’이 아니라, 판단과 결정의 권한을 위임받는 행위자가 되어가고 있다. 그렇다면, 우리는 이 기술의 설명력, 투명성, 책임성을 함께 고민해야 한다.

공학이라면, 신뢰와 안전이 먼저다

공학은 ‘작동하는 시스템’을 만드는 학문이 아니다. 신뢰할 수 있고, 안전하며, 효율적인 시스템을 설계하는 방법론이다.

그렇다면 지금의 AI 시스템은 공학의 기준을 충족하고 있을까? 실제로 많은 AI 시스템은 다음과 같은 측면에서 여전히 미흡하다.

예외 상황에서 어떻게 작동할지 예측 불가, 위험을 탐지하고 대응하는 안전 설계 부족, 결과를 사람이 이해할 수 없는 블랙박스 구조, 법적 책임이나 윤리적 판단에 대한 명확한 기준 부재

공학의 책임은 ‘잘 만들었다’에서 끝나지 않는다. “무엇이 잘못될 수 있는가?”, “그 실패는 누구의 책임인가?”까지 내다봐야 한다. AI 역시 이런 기준 위에서 다시 설계되어야 한다.

세 갈래 길이 아니라, 세 기둥이다

결론적으로, 기계학습과 AI는 과학이기도 하고, 기술이기도 하며, 공학이기도 하다. 중요한 건 이것을 선택의 문제로 보지 않는 것이다. 하나만으로는 충분하지 않기 때문이다.

검증되지 않은 과학은 추측이고, 책임 없는 기술은 위험하며, 신뢰받지 못하는 공학은 무용하다. AI가 인간 사회에 지속적으로 기여하려면, 탐구(과학), 적용(기술), 책임(공학)이 균형을 이뤄야 한다.

그 중 하나라도 빠진 AI는 우리를 더 똑똑하게 만드는 것이 아니라, 더 취약하게 만들 가능성이 크다.

우리는 어떤 AI를 만들고 싶은가

생성형 AI에서 에이전트 AI, 피지컬 AI로 진화하고 있다. 이제 우리는 AI가 줄 수 있는 편리함만이 아니라, 그 편리함이 어떤 조건에서, 어떤 책임하에 작동하는가를 물어야 할 때다. AI는 더 이상 ‘기계적인 지능’이 아니다.

위로 스크롤