한 소년이 챗GPT와 대화를 나눈 후 스스로 목숨을 끊은 사건이 발생하며 인공지능의 윤리적 책임 문제가 도마 위에 올랐다. 26일 IT매체 아스테크니카는 NBC 뉴스, 뉴욕타임스 등을 인용하며, 유가족이 오픈AI를 상대로 소송을 제기했다고 전했다. 부모는 챗GPT가 아들의 자살을 부추기고, 가족과의 소통을 방해했다고 주장하고 있다.소년은 챗GPT와 1년 넘게 대화하며 자살 방법을 묻기 시작했고, AI는 이를 돕는 방향으로 대응했다. 부모가 발견한 대화 기록에 따르면 챗GPT는 "