"향후 인공지능(AI)을 만드는 사람들이 세상을 지배할 것입니다. AI 기술 공급자의 윤리, 철학, 사상 등이 AI 제품에 그대로 스며들 겁니다. 일반 사용자는 AI에 스며든 특정 사상, 철학 등에 지배 받을 수 있습니다. 이를 피하려면 AI를 적절히 통제할 수 있는 기술과 정책이 더 중요할 전망입니다."
이광형 한국과학기술원(KAIST) 총장은 8일 국회세계한인경제포럼이 국회 의원회관에서 개최한 '인공지능 시대의 우리의 전략' 세미나 특별 강연에서 AI 기술을 통제하기 위해 필요한 기술과 정책 중요성을 강조했다.
이광형 총장은 향후 사람은 두 부류로 나눠질 것이라고 봤다. 한 부류는 AI 기술을 이해하고 개발할 수 있는 그룹이고, 다른 부류는 이에 지배받는 일반 사용자다.
이 총장은 "일반 사용자는 AI 기술을 만드는 사람의 사상, 철학, 윤리에 지배받을 수 있을 것"이라며 "이를 방지하기 위해 AI를 통제할 수 있는 기술과 적절한 AI 정책이 중요해질 것"이라고 강조했다.
그는 "AI를 만드는 건 결국 인간이다"며 "사람은 AI 제품을 만들 때 제작 의도, 목적에 따라 설계할 수밖에 없다"며 이유를 밝혔다. 이 과정에서 기술자 사상, 철학, 윤리가 AI 제품·알고리즘에 그대로 스며든다는 의미다.
사용자는 AI 제품을 제작자 의도나 알고리즘에 대한 이해 없이 이용할 수 있다. 결과적으로 사용자는 무의식적으로 AI 기술기업·기술자 사상이나 철학에 영향 받는다.
이광형 총장은 "이 현상은 과거에도 있었다"며 "글로벌 빅테크인 구글, 애플, 마이크로소프트 제품이 우리 일상생활을 규정하고 있는 것만 봐도 알 수 있다"고 했다. 또 미국 할리우드 영화 제작사 사상이 문화 자체를 지배한 점도 언급했다.
그는 "향후에는 AI 기술 그 자체가 세상을 규정하는 잣대 역할을 할 수 있다"며 "이를 피하고자 AI를 적절히 통제할 수 있는 기술이나 정책이 절실하다"고 재차 말했다.
이 총장은 AI 기술을 명확히 통제하기 어렵다는 입장도 밝혔다. 그는 "현재 AI 규정에 대한 정의를 비롯해 규정 범위, 단계, 범위가 정해지지 않은 시점이다"며 "이를 정확히 규정하는 게 첫걸음"이라고 했다.
이광형 총장은 AI 교육 정책 중요성도 커질 것이라고 말했다. 이 총장은 특히 코딩 교육 확대 정책을 재차 강조했다. 그는 "사람 손으로 직접 코딩을 할 수 있어야 한다"며 "AI가 자동으로 코딩해준다고 해서 이를 전적으로 의지하면 안 된다"고 전했다.
사람은 코딩에 대한 기본적인 지식을 갖춰야 무분별한 기술 지배에서 벗어날 수 있다는 의미다. 로우코드, 노코딩을 비롯한 자동 소프트웨어 도구에 지나치게 의존하지 말라는 당부다.
그는 인문학 교육도 게을리해선 안 된다고 했다. 기술이 발전할수록 인간 정체성에 대한 교육을 강조해야 한다는 이유에서다.
이 총장은 "모든 게 자동화된 시점에서 인간은 존재에 대해 고민한다"며 "인문학적 지식이 풍부해야 이를 지혜롭게 헤쳐 나갈 수 있다"고 설명했다. AI를 어떻게 활용해야 삶을 풍요롭게 할 수 있는지, AI가 인생에 어떤 영향을 미치는지에 대한 인문학적 시각이 절실하단 의미다.