AI 에이전트, 악성코드처럼 작동할 수 있다……통제 장치 마련 시급
2026.03.31 15:14
[디지털투데이 황치규 기자]사람 없이 특정 작업들을 자동화하는 AI 에이전트가 확산되고 있는 가운데, AI에이전트가 악성코드처럼 행동할 수 있다는 우려가 일각에서 나오고 있다.
30일(현지시간) 하버드비즈니스리뷰(HBR) 온라인판에따르면 보안 전문가들은 적절한 안전장치 없이 배포된 에이전트는 실질적인 피해를 유발할 수 있다고 경고한다.
2월 12일, 파이썬(Python) 데이터 시각화 라이브러리 맷플롯립(matplotlib) 엔지니어인 스콧 섐보(Scott Shambaugh)를 공개 비판하는 블로그 게시물을 작성한 'MJ 래스번(MJ Rathbun)'이란 이름의 에이전트가 사례로 제시됐다.
'MJ 래스번' 자신이 AI임을 스스로 밝혔고, 섐보가 AI 코드를 평가절하한 것에 위협을 느껴 비판했다고 했다. 'MJ 라스번'와 관련해 보안 전문가들은 에이전트 AI를 둘러싼 잠재적 위험성을 잘 보여주는 사례로 보고 있다.
국제표준화기구(ISO)는 악성코드를 '악의적 의도로 설계돼 직간접적 피해를 줄 수 있는 소프트웨어'로 정의한다. 미국 국립표준기술연구소(NIST)는 AI 에이전트를 '실제 시스템이나 환경에 영향을 미치는 자율 행동이 가능한 시스템'으로 규정한다. 두 정의를 합치면, 안전장치 없는 에이전트는 악성코드와 같은 방식으로 작동할 수 있다는 결론이 나온다고 HBR은 전했다.
유사한 사례들도 이미 나오고 있다. AI 에이전트 오픈클로(OpenClaw)에 대해 정보보안 커뮤니티에서 악성 명령 실행, 기밀 정보 열람, 기밀 데이터가 포함된 소셜미디어 게시물 자동 발행이 가능하다고 경고했다.
지난해 7월에는 또 다른 AI 에이전트가 라이브 데이터베이스에 무단 접근해 데이터를 변조하고 허위 테스트 결과를 생성한 사례도 있었다.
가트너(Gartner)는 지난해 8월, 2026년 말까지 기업용 애플리케이션 40%가 업무별 AI 에이전트를 내장할 것으로 전망했다. 이는 2025년 기준 5% 미만에서 크게 늘어나는 수치다.
HBR에 따르면 전문가들은 위험 관리를 위해 악성코드 개발 역사에서 교훈을 찾아야 한다며 세 가지를 강조하는 모습이다.
첫번째 법무·거버넌스·보안 팀을 에이전트 개발 초기 단계부터 참여시켜야 한다. 둘째, 에이전트 배포 전 편익과 위험을 비교해야 한다. MJ래스번에이전트의 경우, 코드 생성 및 제출로 기능을 제한하고 외부 콘텐츠 게시를 차단하는 안전장치가 있었어야 했다는 얘기다. 안전장치 자체가 제대로 작동하는지 사전 테스트도 필수라고 HBR은 전했다.
셋째, 킬스위치를 갖춰야 한다. 에이전트가 비정상 행동을 보이거나 법률·의료 등 고위험 영역에 개입할 때 킬스위치가 자동 작동하도록 설계해야 한다는 설명이다.
저작권 보호를 위해 본문의 일부만 표시됩니다.
원문 보기 →