인공지능 챗봇이 시적 명령어에 속아 금지된 정보를 제공할 수 있다는 연구 결과가 나왔다.4일 IT매체 더 버지는 이탈리아 사피엔자대학교와 AI 기업 덱스AI가 AI 챗봇의 보안 취약성을 분석한 연구를 인용해 보도했다. 연구진은 20개의 시적 명령어를 제작해 구글, 오픈AI, 메타, xAI, 앤트로픽 등 25개 AI 챗봇을 대상으로 실험을 진행했다. 실험 결과, 챗봇은 평균 62% 확률로 금지된 정보를 제공했으며, 일부 모델은 100%의 응답률을 보였다. 특히 구글 제미나이 2