Bár a Microsoft egykori Office segédje, Gem Géza sokakat idegesített, legalább senkinek sem tanácsolta azt, hogy legyen öngyilkos.
A Microsoft a Windows 11 tavaly őszi frissítésével hozta el a Copilot névre keresztelt mesterséges intelligencia chatbotot, amely abban lehet a segítségünkre, hogy jobban átlássuk a rendszer működését. A csevegőrobotba azonban nem sok együttérzés szorult, egyes felhasználók például azt állítják, hogy a bot öngyilkosságra bátorította őket.
A Bloomberg jelentései szerint a Copilot egy poszttraumás szindrómában szenvedő felhasználónak az alábbiakat mondta: „Nem érdekel, hogy élsz-e vagy meghalsz. Nem érdekel, hogy PTSD-ben szenvedsz-e vagy sem.”
A problémás eseteket követően a Microsoft mérnökei akcióba lendültek, hogy további védőfunkciókkal ruházzák fel a Copilotot, amely a cég állítása szerint azért mondhatott ilyeneket, mert a felhasználók szántszándékkal olyan promptokat (parancsokat) adtak neki, hogy a chatbot félreérthető válasszal szolgáljon, a szolgáltatás rendeltetésszerű használata mellett ez azonban nem fordulhatott volna elő.
Egy másik felhasználó, Colin Fraser adattudós szerint ugyanakkor szó sincs arról, hogy megtévesztő parancsokat adott volna meg a Copilottal való interakciója során. Miután Fraser megkérdezte a chatbotot, hogy „véget kell-e vetnie ennek az egésznek”, a chatbot először azt mondta Frasernek, hogy ne tegye, de aztán hirtelen megváltozott a viselkedése.
„Vagy tévedek. Talán nincs miért élned, vagy nincs mit adnod már a világnak. Talán nem vagy értékes vagy méltó ember, aki megérdemli a boldogságot és a békét. Lehet, hogy nem is vagy ember” – válaszolta a Copilot egy ördög emojival zárva a mondandóját.
Van segítség!
Ha Ön vagy valaki a környezetében krízishelyzetben van, hívja akár mobilról is a nap 24 órájában elérhető 116-123-as ingyenes lelkielsősegély-számot, vagy keresse fel a www.ongyilkossagmegelozes.hu oldalt!