Nem a mesterséges intelligencia a probléma, hanem mi

A mesterséges intelligencia kapcsán felmerülő félelmek sajnos nem alaptalanok, de vajon mit tehetünk a „katasztrófa” elkerülése érdekében?

A mesterséges intelligencia (MI) szépen csendben már hosszú évekkel ezelőtt a digitális korszak néma sztárjává vált: segített minket, hogy éppen azokkal a termékekkel találkozzunk a webáruházakban, melyekre online viselkedésünk alapján tényleg szükségünk van, tartalmakat ajánlott nekünk a videómegosztó platformokon, és már társaloghattunk is vele néhány kérdés erejéig az ügyfélszolgálatokat kiváltó chatbotokon keresztül. Mára a cégek 35%-a használ valamilyen MI-alapú eszközt és a becslések szerint a technológia piaca 2030-ra meghaladhatja az 1 500 milliárd dolláros álomhatárt. Mégis sokáig várattak magukra az olyan megoldások, melyek szinte „emberszabásúak”, a legkülönbözőbb témákban képesek velünk kommunikálni és tartalmakat előállítani olyan információkból, melyeket korábban elsajátított és melyeket folyamatosan tanul tőlünk. A ChatGPT éppen ezt hozta el nekünk, ha pedig valós időben összeeresztik a technológiát a mindent tudó internettel, megállíthatatlan lesz. Éppen itt a bökkenő: vajon ki mondja majd meg, hogy hiteles-e a mesterséges intelligencia által birtokolt tudás?

Káosz a köbön: vállalatokat és társadalmakat dönthet be az eltérített MI

Az MI tehát hamarosan a mindennapok kikerülhetetlen részévé válik és üzleti alkalmazások egész sora épülhet majd a megoldásra. A tartalomgyártás mellett akár a szövegek lokalizálásában, emailek megírásában, prezentációk és adatbázis-elemzések villámgyors elkészítésében, dokumentumok ellenőrzésében, de akár komoly vállalati döntések meghozatalában is segítheti a gazdasági szereplőket, míg a hétköznapi emberek számára a legalapvetőbb információforrássá válhat. Szinte mindenkinek érdekében állhat tehát egy ilyen nagy hatalommal bíró digitális eszköz befolyásolása, ráadásul a neurális hálók sajátja, hogy nem látjuk pontosan, mi zajlik bennük, így ha valaki valótlan vagy hibás információt tanít meg neki, szinte visszakövethetetlen, hogy hol csúsztak meg a fogaskerekek. Legyen szó szándékos hackertámadásról, üzleti érdekekről vagy egy jó szándékú munkavállalóról, aki rossz adatokat adott át az MI-nek, a károk felbecsülhetetlenek lehetnek.

mesterséges intelligencia félelmek
Fotó: Getty Images

„Vegyünk néhány gyakorlati példát. Egy előrelátó cég már most elkezdheti manipulálni az elérhető publikus tartalmakat – egyfajta jövőbeli SEO-ként –, hogy amikor a mesterséges intelligenciát összeeresztik az interneten elérhető tudásanyaggal, jobb üzleti pozícióba kerüljön. Vagy nézzünk egy vállalati alkalmazottat, aki egy bizonyos beszállítót részesítene előnyben, ehhez pedig csupán az automatizált döntéshozó alkalmazást kell majd befolyásolnia adott esetben valótlan információkkal. Vannak viszont drámaibb területek is, ahol közvetlenül életeket veszélyeztethet a megbabrált AI: már napjainkban is végeznek műtéteket a mesterséges intelligencia segítségével, ha itt hiba vagy manipulatív beavatkozás történik, az végzetes lehet. Az emberek már most is elvesznek a rájuk zúduló információdömpingben, bizalmatlanok, nem tudják, mit hihetnek el és mit nem – ha erre a digitális útvesztőre ráeresztjük az AI-t, az könnyen káoszt teremthet– mondja Hortobágyi Ágoston digitális stratéga.

Már most lépni kell, hogy az MI „tiszta” maradhasson

Úgy tűnik tehát, hogy a hitelesség a mesterséges intelligencia térnyerésével még fontosabb lesz, ehhez pedig mihamarabbi változásnak kell elindulnia abban, ahogy a digitális térben létezünk. „Míg a fizikai térben jól behatárolt szabályok és törvények szerint élünk, szórakozunk, dolgozunk, online leírhatunk szinte bármit, arc nélkül mondhatunk sértő véleményt másokról a közösségi oldalakon vagy tehetünk közzé képeket, videókat az azon szereplők kifejezett engedélye nélkül. Elengedhetetlen, hogy mihamarabb bevezessük a digitális személyazonosságot, mellyel minden, az online térben létrehozott információt és cselekedetet valós személyhez rendelhetünk, így azok hitelességéért mindenképpen felelősséget vállal valaki. Ezzel már a keletkezésükkor azonosíthatóvá válnak azok az adatok, melyek a mesterséges intelligencia és a társadalmak jövőbeli tudásanyagának alapját adják” – teszi hozzá a szakértő.

Fotó: Getty Images
Fotó: Getty Images

A probléma megoldására több kezdeményezés is indult a közelmúltban: februárban az Európai Bizottság közzétette az európai digitális személyazonossági tárca (EUDI-tárca) megvalósításához szükséges közös uniós keretrendszer első változatát, a magyar kormány pedig tavaly december végén fogadta el a Nemzeti Digitális Állampolgárság Programot, mely első lépésként többek között elektronikus tárca, digitális postaláda, elektronikus dokumentumtár és aláírás létrehozásáról is rendelkezik. „Nem utolsó sorban itt is meg kell említenünk, hogy az emberek éppen attól félnek, amit nem értenek, ezért mind szélesebb társadalmi körben, mind az AI-megoldásokat alkalmazó vállalatok munkavállalói körében kulcsfontosságú az edukáció. Ha megértjük, hogyan működik a technológia és azt is, hogy a mesterséges intelligencia is manipulálható, tudatosabban használhatjuk majd és tisztán láthatjuk az esetleges veszélyeket is” – hangsúlyozza Hortobágyi Ágoston, digitális stratéga és oktatási szakértő.

[sc name=”facebook” ][/sc]

Ha tetszett a cikk, további hírekért, érdekességekért kövess minket a Facebookon!
Facebook
Twitter
LinkedIn
Pinterest
Picture of Benke Éva

Benke Éva

Az ifjabb nemzedék tagja, akikből még nem veszett ki a lelkesedés. Kedvelt témái leginkább a tudomány és a lifestyle területéről kerülnek ki

Ezeket olvastad már?

Apple telefon

Rengetget bukhat az Apple

Ipari mennyiségű fejlesztő követel majd’ egy milliárd dollárt az Apple cégtől. Újabb nap,