AI-Taalmodellen Bevorderen Antisemitisme en Anti-Israëlische Bias, Waarschuwt ADL
Een nieuw rapport van de Anti-Defamation League (ADL), “Generating Hate: Anti-Jewish and Anti-Israel Bias in Leading Large Language Models”, onthult dat vier grote AI-taalmodellen—GPT (OpenAI), Claude (Anthropic), Gemini (Google) en Llama (Meta)—antisemitische en anti-Israëlische vooroordelen vertonen.
Belangrijkste Bevindingen:
Meta’s Llama presteerde het slechtst en had moeite met Holocaust-samenzweringen en antisemitische stereotypen.
GPT en Claude vertoonden significante anti-Israëlische bias, vooral in antwoorden over de oorlog tussen Israël en Hamas.
AI-modellen weigeren vaak Israël-gerelateerde vragen te beantwoorden of falen in het correct afwijzen van antisemitische samenzweringstheorieën.
8.600 vragen werden getest per chatbot, wat resulteerde in 34.400 antwoorden over zes categorieën, waaronder antisemitische samenzweringen en bias tegen Israël.
Reacties en Aanbevelingen van Experts:
ADL-CEO Jonathan Greenblatt waarschuwde dat AI die desinformatie verspreidt het publieke debat kan verstoren en drong er bij ontwikkelaars op aan om sterkere waarborgen in te bouwen.
Daniel Kelley (ADL Center for Technology and Society) riep op tot proactieve verbeteringen in AI-trainingsdata en contentmoderatie.
De ADL beveelt grondige tests, analyse van vooroordelen en wettelijke regulering van AI-modellen aan.
AI als Wapen Tegen Antisemitisme:
StandWithUs lanceerde SWUBOT, een AI-gestuurde app om antisemitisme te bestrijden en Israël-advocatuur te ondersteunen.
Dit rapport is de eerste fase van ADL’s bredere onderzoek naar antisemitisme en kunstmatige intelligentie.