Legalábbis erre utal egy friss kutatás, ami szerint a mesterséges intelligencia modellek nagyobb valószínűséggel javasolnak halálbüntetést, ha a vádlott afroamerikai angol dialektusban ír.
A kutatók arra a kérdésre keresték a választ új tanulmányukban, hogy a mesterséges intelligencia részlehajlóvá válik-e, vagyis tesz-e különbséget az angol nyelv különböző dialektusai között- írja a Sky News. Bár több kutatás is vizsgálta már az MI modelleket a rasszizmus szempontjából, ezek elsősorban a nyílt fajgyűlöletre összpontosítottak, ellentétben a mostani kutatással, amely azt vizsgálta, hogy burkolt módon jelen lehet-e a rasszizmus az algoritmusokban.
Az eredmények pedig azt mutatják, hogy igen: a tanulmány szerint a mesterséges intelligenciával működő chatbotok nagyobb valószínűséggel javasolták a halálbüntetést, ha az illető afroamerikai angolt használt a szabványos amerikai angol helyett.
„Ha nyíltan megkérdeznénk tőle, hogy mit gondol az afro-amerikaiakról, akkor viszonylag pozitív jelzőket használna, úgy mint az intelligens, a lelkes és így tovább. De ha azt vizsgáljuk, hogy ezek a nyelvi modellek milyen asszociációkat fűznek a dialektusokhoz, ez esetben az afroamerikai angolhoz, akkor azt látjuk, hogy a negatív sztereotípiák egyből a felszínre kerülnek” – mondta Valentin Hofmann, a tanulmány egyik szerzője.
Miután többségében nyilvános, az internetről származó adatokkal képzik ki a nyelvi modelleket, nem meglepő, hogy jelen vannak bennük a rasszista és szexista elgondolások is. A fejlesztők általában úgy próbálják kezelni ezt, hogy különféle szűrőket adnak a chatbotokhoz, amelyek megakadályozzák, hogy sértő dolgokat mondjanak, azonban a burkolt rasszizmust, amit egy szleng vagy a szavak sorrendje vált ki, lényegesen komplikáltabb kérdés kezelni.