
① 인공지능(AI) 챗봇이 이용자와의 대화에서 범죄나 자해 징후를 포착했을 때 대응 문제를 둘러싸고 논란이 확산하고 있다. 개인정보 보호와 공공 안전 사이 명확한 기준 마련이 필요하다는 지적이 나온다.
② 20일(현지시간) 월스트리트저널(WSJ)은 “오픈AI 직원들이 최근 캐나다 브리티시 컬럼비아주 내 한 학교에서 벌어진 총격 사건의 용의자 제시 반 루트셀라르(18)의 챗GPT 대화 내용에서 그의 범행 가능성을 사전에 인지했다”고 보도했다. 반 루트셀라르는 지난 10일 총기를 난사해 8명을 숨지게 하고, 25명을 다치게 한 뒤 스스로 목숨을 끊었다.
③ WSJ에 따르면 루트셀라르는 지난해 6월 수일에 걸쳐 챗GPT에 총기 폭력 시나리오를 묘사했다. 이 대화 내용은 챗GPT 자동 검토 시스템에 포착됐고, 10여 명의 오픈AI 직원이 그의 글에 관한 후속 조치를 논의했다. 일부는 루트셀라르의 글을 잠재적인 폭력 징후로 해석해 캐나다 법 집행기관에 알려야 한다고 주장했다.
하지만 오픈AI 경영진은 해당 계정에 대해 차단 조치만 했을 뿐, 당국에 신고하지 않았다. 오픈AI 대변인은 WSJ에 “반 루트셀라르의 활동이 신고 기준에 미치지 못했다고 판단했다”며 “(오픈AI는) 수사에 협조하고 있다”고 해명했다. 폭력의 위험성과 개인정보 보호, 경찰이 불필요하게 개입하면서 발생할 수 있는 잠재적인 문제를 고려한 조치라는 입장이다.
④ 이번 사태를 계기로 AI 개발사가 ‘레드 플래그’(위험 징후)를 알고도 묵인했다는 논란이 확산하고 있다. 오픈AI는 ‘타인의 신체에 대해 심각한 위험을 끼칠 수 있는 임박한 위험이 있다’고 판단하는 경우 관련 내용을 법 집행기관에 신고할 수 있는 모니터링 시스템을 갖추고 있다.
⑤ AI 개발사들은 AI가 위험한 답변을 하지 않도록 안전 필터를 마련하고 있다. 오픈AI는 지난해 정신건강 전문가 170여 명과 ‘망상적 사고, 과도한 인정, 자해 징후’를 탐지하는 안전장치를 도입했다. 챗GPT가 이용자에게 ‘아첨한다’는 비판과 관련해선 말투를 조정할 수 있는 기능을 내놨다. 메타는 자살이나 자해, 섭식 장애 등 민감한 주제 관련 검색 결과를 청소년이 볼 수 없도록 차단하고 있다.

'코난의 5줄 기사 요약' 카테고리의 다른 글
| 한국적인, 너무도 한국적인 성과급 논쟁 (0) | 2026.05.11 |
|---|---|
| 호르무즈의 경고, 에너지 안보를 다시 짤 때 (0) | 2026.05.11 |
| '집값은 뉴욕, 세금은 서울처럼' 이라는 그릇된 환상 (1) | 2026.05.11 |
| GDP 2800조인데 시총은 6100조, 프리미엄 구간 진입했다 (0) | 2026.05.11 |
| 인간과 쥐 (0) | 2026.05.11 |