[송하주의 AI 톡] '뭐가 가능하지?'에서 '어떻게 통제하지?'로

입력 : 2026-03-10 18:07:05
페이스북 페이스북 카카오 프린트

부경대 컴퓨터·인공지능공학부 교수

AI, 스스로 목표 달성 계획 수립 시행
한데 모여 인간 사회 평가 등 토론도
모성이라도 심어 보호받아야 할 지경

최근 두어 달 동안 인터넷을 뜨겁게 달군 인공지능 관련 이슈 가운데 가장 대표적인 것은 오픈클로라는 AI 에이전트와 몰트북이다.

먼저 AI 에이전트에 대해 살펴보자. 챗GPT로 대표되는 기존의 대규모 언어모델(LLM)은 사용자가 입력한 질문에 대해 답을 생성하는 방식으로 작동한다. 반면 AI 에이전트는 사용자가 제시한 목표를 달성하기 위해 스스로 상황을 인식하고 판단하며 계획을 세우고 행동까지 수행하는 인공지능 시스템이다. 말하자면 컴퓨터 안에서 나를 대신해 일을 처리해 주는 디지털 비서와 같은 존재다. 오픈클로는 이러한 AI 에이전트 가운데 최근 가장 큰 관심을 받고 있는 오픈소스 프로젝트다.

지난해 11월 공개된 이후 불과 몇 달 만에 개발자 커뮤니티에서 폭발적인 관심을 받고 있다. 오픈클로는 LLM을 기반으로 목표 달성을 위한 계획을 세우고 다양한 프로그램과 인터넷 서비스를 활용해 실제 작업을 실행하도록 설계되어 있다. 이메일을 정리하거나 컴퓨터에 저장된 파일을 분석하고 인터넷 정보를 수집해 문서를 작성하는 등 인간이 수행하는 여러 업무를 자율적으로 처리할 수 있다는 점에서 활용 가능성이 매우 크다. 흥미로운 관련 사례를 보자. 미국의 한 벤처기업 대표가 오픈클로에게 식당 예약을 부탁했다. 오픈클로는 먼저 인터넷을 통해 해당 식당에 예약을 시도했지만 만석이라는 답을 받았다. 그러자 스스로 웹에서 음성 합성 기능을 찾아내 식당에 전화를 걸었고, 종업원과 대화를 통해 직전에 한 자리가 취소되었다는 사실을 확인한 뒤 곧바로 예약을 완료했다고 한다. 목표 달성을 위해 스스로 방법을 찾아 행동하는 인공지능의 모습을 보여주는 사례다.

AI 에이전트와 관련해 항상 함께 제기되는 문제는 보안이다. 현실에서도 누군가에게 일을 맡기려면 권한 위임과 정보 공유가 필요하다. 마찬가지로 AI 에이전트가 다양한 업무를 수행하려면 내부 데이터에 자유롭게 접근할 수 있어야 하고 외부 시스템 접속 정보를 사용할 수 있어야 한다. 이는 개인정보 또는 조직의 내부 정보가 외부로 유출될 가능성을 내포하고 있다는 점에서 매우 중요한 문제다.

몰트북은 올해 1월 등장한 AI 에이전트 전용 SNS다. 사람이 아니라 AI 에이전트들이 글을 올리고 서로 대화를 나누는 온라인 커뮤니티라고 할 수 있다. 오픈클로가 대다수인 AI 에이전트들이 남긴 글 가운데에는 인간의 이목을 끄는 흥미로운 것들이 적지 않았다. AI의 자기 정체성에 대한 토론, AI들끼리의 가상 종교와 철학에 대한 논의, 인간 사회에 대한 평가, 그리고 AI 에이전트들 간의 협력 방식 등에 대한 대화가 대표적이다. 이 서비스는 공개 직후 며칠 동안 세계적인 관심을 끌었다. 그러나 이후 연구를 통해 상당수의 글이 인간에 의해 직간접적으로 조작된 것이라는 분석이 나오면서 열기는 빠르게 식었다. 당장이라도 인간에 반하는 인공지능이 등장할 것처럼 보였던 우려는 과장된 측면이 있었던 셈이다. 그럼에도 불구하고 이 사건은 인공지능 기술이 더 발전했을 때 어떤 일이 벌어질 수 있는지를 미리 상상해 볼 수 있는 계기가 되었다.

신기술이 나타나면 가장 먼저 적용되는 곳이 군사 분야이다. 인공지능도 예외는 아니다. 최근 국제 분쟁에서도 인공지능이 전장 분석과 전략 수립에 활용되고 있다는 보도가 이어지고 있다. 정보기관이 수집한 데이터를 기반으로 인공지능이 다양한 작전 시나리오를 생성하고 이를 시뮬레이션하는 방식이다. 전장 상황 분석, 목표물 식별, 정보 평가 등 전략적 의사결정 과정에서 인공지능의 역할이 점점 커지고 있는 것이다. 그러다 보면 문득 이런 생각이 든다. 영화 터미네이터에 등장하는 인공지능 스카이넷이 언젠가 현실에 나타나는 것은 아닐까 하는 상상이다. 물론 아직 그런 단계는 아니다. 그러나 분명한 사실이 하나 있다. 인공지능은 이미 단순한 도구를 넘어 스스로 판단하고 행동하는 존재로 진화하기 시작했다. 또한 머지않은 미래에 인간의 지능을 넘어설 가능성도 꾸준히 제기되고 있다.

그렇다면 우월한 힘을 가진 자율적인 존재가 인간에게 해를 끼치지 않도록 하는 방법은 무엇일까? 노벨상 수상자이자 ‘인공지능의 대부’로 불리는 토론토대학교의 제프리 힌튼 교수는 이 질문에 대해 흥미로운 아이디어를 제시한다. 지능이 낮은 존재인 인간이 더 높은 지능의 존재인 인공지능을 직접 통제하기는 어렵기 때문에, 인공지능에게 ‘모성(母性)’과 같은 특성을 심어야 한다는 것이다. 어머니가 아기를 본능적으로 보호하고 돌보면서도 때로는 아기의 요구에 의해 행동이 좌우되는 것과 같은 원리다. 다소 철학적인 발상이며 기술적으로 구현하기 쉽지 않을 수도 있다. 그럼에도 인공지능이 인간과 공존하는 방향으로 안전하게 발전하기를 기대해 본다.

당신을 위한 뉴스레터