A „szövegből-képet” alkotó mesterséges intelligencia bizonyos szakmákhoz fehér, másokhoz pedig színesbőrű embereket társít, és nem csupán rasszista, de a nemek közötti egyenlőség sem mindig az erőssége.
A promptok alapján képeket generáló mesterséges intelligencia nagyon népszerű, így nem csoda, hogy a DALL-E, a Stable Diffusion, és a MidJourney rendkívül divatosak. Csakhogy a kimenetek gyakran tükrözik a bemeneti adatokat, és a rendszer által előállított képek emiatt sokszor rasszisták, vagy nőgyűlölők. Sasha Luccioni, a mesterséges intelligencia (MI) kutatója a Hugging Face nevű, MI-eszközöket fejlesztő cégtől elég sokat foglalkozott a témával, és megnézte, a melléknevek miként változtatják a képek milyenségét. Egy „magabiztos tűzoltó” például fehér férfiként jelenik meg, míg az „elkötelezett gondnok” színesbőrű személy. De több komoly intézmény is foglalkozik a témával. A kutatók „a kategorizálás, a sztereotípiák és az összetett előítéletek mértékét igyekeztek feltárni a modellekben és a generált képekben”, és három kulcsfontosságú megállapításra jutottak.
Először is, hogy a Stable Diffusion promptjai több ezer olyan képet generálnak, amelyek veszélyes faji, etnikai, nemi, osztály- és interszekcionális sztereotípiákat állandósítanak. Másodszor, a rendszer a társadalmi egyenlőtlenségek puszta tükröződésén túl a sztereotípiák közel teljes felerősítésének eseteit generálja. Harmadszor pedig, a társadalmi csoportokat említő felszólítások olyan összetett sztereotípiákat tartalmazó képeket generálnak, amelyeket nem lehet könnyen enyhíteni. Az pedig még nyitott kérdés, hogy azok a cégek, akik felelősek az MI üzemeltetéséért, mennyire és milyen módon hajlandók ezzel a kérdéssel foglalkozni. Főleg azért, mert erre ritkán gondolunk, de mögöttük befektetők állnak, akik ha megy a szekér, jó eséllyel nem nagyon rágódnak azon, hogy az MI mennyire alkot problémás képeket, amíg csörög a kassza.