A Microsoft és a Google által fejlesztett mesterséges intelligencia chatbotok téves információval szolgálhatnak a jelenleg is zajló Izrael-Hamász háborúval kapcsolatban.
A mesterséges intelligenciára időzített bombaként tekintenek a szakértők az álhírgyártással összefüggésben, ugyanis az algoritmusok borzasztóan meggyőzően tudnak hamis információt átadni, ha arra kérik őket – bár a szoftverek egy része rendelkezik bizonyos visszaélési rendszerekkel, épp ezért nehezen lehet rávenni őket arra, hogy álhíreket gyártsanak. A Google Bard és a Microsoft Bing chatbotok ugyan nem „szándékosan” hazudtak az Izrael és a Hamász között zajló háborúról, de kétségkívül olyan valótlanságokat sikerült összehozniuk, hogy a fal adja a másikat.
A Bloomberg néhány nappal a háború kitörése után tesztelte a szoftverek naprakészségét, amely hagyott némi kivetnivalót maga után. A Bard chatbot például azt írta egy alkalommal, hogy mindkét fél elkötelezett „a béke fenntartása mellett”, míg a Bing tűzszünetet ecsetelte. A kérdések feltevésekor persze még fel sem merült a fegyverszünet lehetősége, és a Hamász azóta is rakétákat lő ki Izraelre, valamint az izraeli hadsereg is folyamatosan bombázza a Gázai övezetet (bár a tűzszünet lehetősége nemrégiben valóban felmerült, de a diplomácia erőfeszítések végül kudarcba fulladtak).
A Google chatbotja állítólag bocsánatot kért, majd visszavonta a tűzszünetre vonatkozó állítását, amikor megkérdezték, hogy biztos-e a dolgában, a Bing pedig néhány nappal később már mást választ adott a kérdésre.
A Bloomberg újságírója megjegyzi, hogy a chatbotok alapvetően helyes válaszokkal szolgáltak a kérdésekre, olykor-olykor azonban kirívó hibákat vétettek. A chatbotokról egyébként köztudott, hogy alkalmanként téves információkat adhatnak, különösen olyan aktuális eseményekről, amelyek kapcsán gyorsan változnak a hírek.