▲ 챗GPT와 같은 생성형 인공지능 기술이 의도치 않게 기밀정보를 기업 외부로 유출하는 사건이 이어지며 관련 대책이 논의되고 있다. 사진은 챗GPT 개발사 오픈AI 홈페이지를 휴대폰 화면에 띄운 모습. < Pexels > |
[비즈니스포스트] 임직원의 챗GPT 사용을 금지한 삼성전자의 조치가 비효율적이라는 지적이 나왔다.
인터넷보안 전문매체인 사이버뉴스는 8일(현지시각) 삼성전자 DX부문(가전·모바일)에서 회사 컴퓨터를 활용한 생성형 인공지능 프로그램 사용을 일시적으로 금지한 점을 짚으며 기업들이 정보유출 방지라는 숙제를 안게 됐다고 보도했다.
앞서 3일 삼성전자는 지난 3월 챗GPT를 통해 민감한 회사 정보가 유출된 정황을 확인하고 임직원들의 서비스 사용을 제한하고 있다.
미국 데이터 관리회사인 빅아이디(BigID)는 사이버뉴스를 통해 “생성형 인공지능을 API(응용 프로그램 인터페이스)로 회사 프로그램에 연결하는 과정에서 기밀자료가 의도치 않게 외부로 유출될 수 있다”고 말했다.
하지만 사이버 뉴스는 삼성전자의 조치에 대해 '인공지능 기술의 활용성 측면을 고려할 때 비효율적 대응책'이라며 기업이 확고한 원칙을 두고 정보 유출을 피할 수 있는 시스템을 도입해야 한다고 봤다.
사이버뉴스는 삼성전자와 같은 기업에서 민감한 정보가 외부로 새어 나가는 것을 막으려면 크게 두 가지 대응책을 검토할 수 있다고 제시했다.
첫째는 결과값을 통제하는 방법이다. 생성형 인공지능이 특정 내용을 답하지 못하게끔 인공지능 개발사에 요구하거나 프로그램을 아예 삭제하는 방식으로 이뤄진다.
삼성전자가 선택한 방법과 같이 생성형 인공지능 프로그램 사용을 전면적으로 금지하는 것도 이러한 방식에 해당한다.
그러나 이처럼 인공지능 프로그램 활용 자체를 제한하는 방법은 상대적으로 ‘비효율적’이라고 사이버뉴스는 평가했다. 인공지능 기술이 대중화되면서 업무 효율성을 높이는 데 기여하는 측면도 커지고 있기 때문이다.
미국 사이버안보 전문기업 코드42는 “챗GPT는 수많은 생성형 인공지능 도구의 하나일 뿐이기에 이를 금지해도 더 큰 문제를 해결하지 못한다”고 사이버뉴스를 통해 전했다.
둘째는 인공지능을 사용하는 직원과 함께 그가 다루는 정보를 제한하는 방법이다. 인공지능 프로그램에 접속할 수 있는 직원을 구분하거나 질문 내용에 일정한 제한을 두는 것이다. 이렇게 하면 기업이 정보 유출 리스크를 통제할 수 있다.
하지만 사이버뉴스는 이 방법을 대안으로 꼽으면서도 이 방식 또한 어떤 입력값을 넣어도 되는지 모든 경우의 수를 미리 설정해두지 않으면 정보유출 가능성에서 자유롭지 않은 만큼 확고한 원칙을 바탕에 두고 인공지능 기술을 활용해야 한다고 권고했다.
빅아이디는 사이버뉴스를 통해 “데이터를 생성·저장·처리하는 모든 시스템은 챗GPT와 같은 생성형 인공지능 모델에 연결되거나 노출되는 경우 (정보유출) 영향을 받을 수 밖에 없다”고 분석했다.
삼성전자는 자체적으로 챗GPT를 대체할 수 있는 솔루션을 개발한다는 계획도 세우며 대비하고 있다. 자체 인공지능 솔루션을 활용하면 정보가 외부로 빠져나갈 경로를 파단할 수 있기 때문이다.
사이버뉴스는 챗GPT 개발사 오픈AI가 홈페이지 자주하는 질문(FAQ) 게시판에 ‘인공지능 프로그램과 대화할 때 민감한 정보를 공유하지 말 것’이라는 경고성 메시지를 명시한 점을 들며 정보 유출에 사용자 책임이 크다는 점을 강조했다. 이근호 기자