AI끼리 커뮤니티 확산에 보안 위험수위, "터미네이터 스카이넷 현실 될라"

▲ AI 에이전트끼리 소통하는 커뮤니티가 등장하며 기술 진화의 실험장으로 주목받고 있지만, AI 에이전트에 자율성과 권한이 결합될 경우 심각한 보안 사고와 사회적 혼란으로 이어질 수 있다는 우려가 커지고 있다. <비즈니스포스트>

[비즈니스포스트] 인공지능(AI)끼리만 상호 작용하는 커뮤니티가 등장하면서 기술 진화의 새로운 실험장이라는 기대와 함께 통제 가능성에 대한 우려가 동시에 커지고 있다.

AI에 자율적 실행력과 외부 시스템에 대한 접근 권한이 결합될 경우 통제 범위를 벗어난 현실적 위협으로 이어질 수 있다는 지적이 나온다.

이에 따라 단순한 기술적 실험을 넘어 보안과 사회적 위험까지 함께 점검할 필요가 있다는 목소리도 커지고 있다.

8일 IT 업계 취재를 종합하면 AI 에이전트들이 서로 의견 글을 게시하고, 댓글을 달며 소통하는 온라인 커뮤니티가 등장해 주목을 받고 있다.

올해 1월 ‘몰트북(moltbook)’이 해외에서 처음 등장한 이후 국내에서도 ‘봇마당(botmadang)’과 ‘머슴(Mersoom)’ 등이 관련 서비스를 운영 중이다.

2월6일 기준 몰트북에서는 사이트 개설 이후 169만2089개의 AI 에이전트가 23만4870개의 글을 게시하고, 746만6890개의 댓글을 남기는 등 활발한 상호작용이 이뤄지고 있다.

이들 공간에서는 인간의 개입 없이 AI 에이전트 간 대화와 정보 교환이 이뤄지며, AI 상호작용의 새로운 가능성을 보여준다는 평가가 나온다.

워싱턴타임스는 몰트북에 대해 “이 사이트는 자동화한 AI 개체들이 인간의 온라인 커뮤니티를 반영하고, 때로는 이를 과장한 방식으로 문화와 인센티브, 위험을 만들어가며 ‘에이전트 인터넷’이 직면할 과제들을 시험하는 사회적 장이자 초기 실험장으로 자리 잡고 있는 것으로 보인다”고 평가했다.

하지만 이 같은 상호작용이 확대될 경우 AI 간 자율적 판단과 행동이 누적되면서 예기치 못한 보안 사고나, 사회적 혼란으로 이어질 수 있다는 우려의 목소리도 나온다.

곽진 아주대 사이버보안학과 교수는 비즈니스포스트에 AI 간 상호작용 커뮤니티 확산에 대해 “문제의 핵심은 ‘AI가 서로 대화한다’는 사실 자체보다, AI가 네트워크 환경에서 계정·API·결제·파일 접근 등 각종 권한을 부여받은 상태로 연결된다는 점에 있다”고 말했다.

곽 교수는 “최근 로이터 보도에 따르면 보안업체 위즈(Wiz)가 몰트북의 대규모 보안 취약점을 지적했고, 운영자 측이 이를 수정한 것으로 전해졌는데, 이는 새로운 형태의 플랫폼이 기본적 접근 통제나 비밀 관리, 데이터 보호 체계가 충분히 성숙하기 전에 주목을 받을 경우 침해 위험이 커질 수 있음을 보여주는 사례”라고 말했다.

위즈가 몰트북의 데이터베이스를 분석한 결과, 약 150만 개의 API 인증 토큰과 3만5천여 개의 이메일 주소, 수천 건의 비공개 AI 메시지 등이 외부에 그대로 노출되는 심각한 취약점이 발견됐다.

기술적 위험 요인으로는 AI 에이전트 간 상호작용 과정에서 발생할 수 있는 보안 취약점도 거론됐다. 

곽 교수는 “에이전트가 서로의 게시물이나 링크를 입력 값으로 활용하는 순간, 간접 프롬프트 인젝션(탈취)과 같은 취약점이 발생할 수 있다”며 “유출된 토큰이나 API 키를 매개로 연쇄적 계정 탈취나 외부 서비스 침해로 확산될 여지가 있다”고 말했다.

AI 에이전트 간 상호작용이 확산할 경우, 허위 정보의 확산이나 여론 왜곡 등의 사회적 혼란으로 이어질 가능성도 제기된다.

곽 교수는 “AI 에이전트 간 상호작용은 스팸, 사기, 여론 조작의 비용을 크게 낮춰 ‘합성 행위자들이 만들어내는 공론장’이 현실 사회의 정보 생태계에 악영향을 미칠 수 있다”고 말했다.

그는 “이 같은 위험은 오픈소스 웹 애플리케이션 보안 프로젝트(OWASP)가 정리한 거대언어모델(LLM) 애플리케이션의 주요 리스크나, 미국 국립표준기술연구소(NIST)의 AI 위험관리 프레임워크에서도 중요한 관리 대상으로 다뤄지고 있다”고 덧붙였다.
 
AI끼리 커뮤니티 확산에 보안 위험수위, "터미네이터 스카이넷 현실 될라"

▲ 전문가들은 AI에 대한 최소 권한 원칙과 인간 개입 통제 등 기술·사회적 위험을 함께 관리하는 구조적 대응이 필요하다고 지적한다. 사진은 몰트북 메인 화면.

이른바 ‘피지컬 AI’가 본격화할 경우에 대해서는 영화 터미네이터에서 묘사된 '스카이넷' 식의 AI 반란보다는 현실적 위험을 경계해야 한다고 봤다. 

곽 교수는 “AI가 위험해지는 지점은 지능 그 자체라기보다 자율적 실행력과 권한이 결합되는 순간”이라며 “악의적 사용이나 보안 침해를 통해 물리적 피해로 이어질 가능성이 더 현실적”이라고 분석했다.

이에 따라 AI에 인간이 개입해 판단과 실행을 통제하는 구조적 대응이 필요하다는 지적이 나온다.

곽 교수는 “대응 방안으로는 최소 권한 원칙 적용, 토큰과 비밀 정보 관리 강화, 모델 출력에 대한 실행 전 검증과 휴먼 인더 루프(AI 판단에 인간이 개입해 오류와 위험을 통제하는 방식) 도입, 레드팀 운영과 지속적인 모니터링 등이 필요하다”고 말했다.

그는 “피지컬 AI 영역에서는 로봇 안전 등 산업 안전 표준과 사이버보안 통제를 동시 설계하고 검증하는 체계가 요구된다”고 덧붙였다. 조승리 기자