Annak ellenére, hogy a Search Generative Experience (SGE) nevű mesterséges intelligencia szolgáltatás lassan egy éve, hogy megjelent béta verzióban, még mindig nem szokott le arról, hogy hamis információkat hitelesként tálaljon.
A Keresési Generatív Élmény nevet adta a Google annak a mesterséges intelligencia (MI) szolgáltatásának, amelynek lényege, hogy egyszerűbbé, átláthatóbbá és szórakoztatóbbá tegye a kereséseket. Lényegében arról van szó, hogy az MI kivonatokat készít az interneten fellehető cikkek alapján, így a felhasználók még a mostaninál is könnyebben juthatnak a kívánt információhoz. A gond ezzel csak az, hogy az SGE előszeretettel „hallucinál„.
A Google új szolgáltatása kapcsán már korábban is beszámoltak arról, hogy az algoritmus hamis vagy félrevezető információkat terjeszt, modern kifejezéssel élve hallucinál. Egy alkalommal például a rabszolgatartás előnyeit ecsetelte a program, egy másik alkalommal pedig főzési tippeket adott a halál angyalának is nevezett Amanita ocreata nevű mérgező gombához.
Ráadásul nem sokat javult a helyzet, a Washington Post friss jelentése szerint ugyanis a Google mesterséges intelligenciája közel egy évvel a tavaly májusi bevezetése után is előszeretettel ad helytelen vagy félrevezető válaszokat. Példaként egy San Franciscó-i kínai éttermet említenek, ami kapcsán az SGE állítólag hamisan azt állította, hogy hosszú sorokra és brutális várakozási időre kell számítani, ezek mellé pedig még valótlan véleményeket is idézett négyezer fős sorokról és két éves várólistákról.

A jelentés szerint a hamis információk terjesztése mellett az is problémás, hogy gyakran kevésbé megbízható oldalakra hivatkozik a szolgáltatás, előszeretettel használja például a Quora közösségi oldalt, ahol a netezők kérdéseket tehetnek fel, amelyekre más felhasználók válaszolnak.