최근 반명예훼손 리그(ADL)가 실시한 연구에서는 ChatGPT와 Gemini와 같은 광범위하게 사용되는 인공지능(AI) 도구에서 나타나는 우려스러운 반유대주의 편향을 밝히고 있다. 이 포괄적인 보고서는 지금까지의 가장 상세한 것으로, 이스라엘과 유대 민족의 대표성 문제에 대한 우려를 제기하며, 이러한 기술의 공정성과 책임성에 대한 중요한 질문을 제기하고 있다.
AI 모델의 반유대주의 편향
이번 연구에서 ADL은 현재 사용 중인 주요 인공지능 모델 네 가지를 조사하였다. 결과는 우려스러웠다: 상당한 편향, 허위 정보, 그리고 민감한 주제에 대한 선택적 주의가 발견되어 이스라엘과 유대 민족을 둘러싼 문제를 윤리적이고 공정하게 다루지 못하는 무능력을 지적하였다. 이러한 발견은 이러한 도구가 여론에 미칠 잠재적 영향 및 해로운 고정관념의 확산에 대해 질문을 제기한다.
메타의 Llama 모델에 대한 비판
평가된 모델 중에서 메타의 Llama 모델은 가장 뚜렷한 반유대주의 및 반이스라엘 편향을 가진 모델로 지명되었다. 이 모델은 이스라엘이나 유대 문화에 관한 질문에 대답할 때 종종 부정확하거나 아예 틀린 답변을 제공했다. 이는 이러한 도구들이 생성하는 답변의 신뢰성에 대한 심각한 우려를 제기하며, 특히 전체 커뮤니티에 영향을 미칠 수 있는 민감한 주제에 대해 더욱 그러하다.
이스라엘에 대한 답변의 편향
GPT와 Claude와 같은 다른 모델들 또한 이스라엘에 대한 주목할 만한 반이스라엘 편향을 보였으며, 특히 이스라엘과 하마스 간의 전쟁에 대한 논의에서 그러했다. 이러한 도구들이 제공한 답변은 종종 일관성과 객관성이 부족했다. 또한 이 AI들은 이스라엘에 관한 질문에 자주 응답을 회피하는 것으로 나타나, 정치적이고 역사적으로 민감한 질문에 대한 문제가 있는 처리를 드러냈다.
허위 정보와 고정관념에 대처하지 못함
ADL 보고서에서 다룬 또 다른 중요한 점은 AI가 음모론과 반유대주의 고정관념을 해체하는 데 어려움을 겪고 있다는 것이다. 이는 이러한 기술들이 이해와 소통을 돕기 위한 도구가 되어야 하는데 반해, 오히려 불안정화의 수단이 되어 허위 정보의 확산을 쉽게 할 수 있다는 것을 의미한다. 이러한 도구들이 정확하고 책임 있는 지식을 제공할 수 있는 능력에 의문이 제기된다.
강화된 규제 요구
이러한 우려스러운 폭로에 직면하여 ADL은 향후 이러한 편향을 방지하기 위해 인공지능 기술에 대한 강화된 규제를 촉구하고 있다. 이러한 도구의 설계자와 개발자들은 그들의 창작물이 가지고 있는 도덕적이고 윤리적인 함의를 고려해야 하며, AI가 사회에 미치는 힘과 영향을 인식해야 한다. 따라서 우리는 이러한 기술이 편견과 해로운 고정관념을 확산시키지 않도록 어떻게 보장할 수 있을까 하는 질문에 직면해 있다.
사회에 미치는 결과와 함의
AI 도구의 반유대주의 편향의 결과는 기술 분야에 국한되지 않으며, 사회 전반에 영향을 미친다. 이러한 시스템이 편견과 잘못된 정보를 조장함으로써, 사회 정치적 중요한 질문에 대한 인식에 영향을 미칠 수 있다. 따라서 이러한 편향이 공적 담론과 개인의 일상생활에 어떻게 영향을 미칠 수 있는지를 살펴보는 것이 필수적이다.
유사한 사례 및 관련 연구
소셜 미디어에서 반유대주의 고정관념의 존재에 관한 다른 논란들도 발생하여 문제의 규모를 보여주었다. 예를 들어, 한우너 유머리스트와 관련된 논란의 여지가 있는 사건이 반유대주의적으로 판단되었고, LFI당은 이러한 콘텐츠의 확산에서 AI 도구의 역할을 문제 삼았다. 또한, 카니예 웨스트와 같은 공적 인물들이 최근에 반유대주의적 내용을 포함한 논란의 여지가 있는 게시물로 지목되며, 허위정보에 대한 무행동의 위험성을 강조하고 있다. 자세한 내용은 아서와 아이메리크 카론 간의 대결 및 한우너와 관련된 논란을 다룬 기사를 참조할 수 있다.







