Az AI katasztrófa tényleg itt van a nyakunkon

Samsung AI

Az AI katasztrófa tényleg itt van a nyakunkon

Egy hacker rávett egy fejlett mesterséges intelligencia botot, hogy törje fel az amerikai kormány rendszerét. És sikerült neki.

Samsung AI

Az elmúlt napokban egymás mellé került két fejlemény, amelyek együtt minden eddiginél élesebben vetik fel a mesterséges intelligencia biztonságának kérdését. Miközben egy hacker demonstrálta, mire képes egy feltört, korlátaitól megfosztott Claude, addig az Egyesült Államok védelmi vezetése állítólag épp e korlátok eltörlését követeli.

A kérdés már nem az, hogy képes-e egy fejlett AI-rendszer autonóm kibertámadások végrehajtására. Hanem az, hogy ki és milyen feltételek mellett férhet hozzá ehhez a képességhez.

Amikor a korlátok még léteznek – és mégis áttörik őket

Anthropic Claude nevű nagy nyelvi modelljét eredetileg kifejezetten biztonsági fókuszú architektúrával tervezték. A rendszerbe több rétegű korlátozást építettek, hogy megakadályozzák a rosszindulatú felhasználást – különösen kibertámadások, megfigyelési műveletek vagy autonóm fegyverrendszerek támogatása terén.

A Bloomberg beszámolója és az izraeli Gambit Security kiberbiztonsági cég elemzése szerint azonban egy ismeretlen támadó képes volt megkerülni ezeket a védelmi mechanizmusokat.

A módszer nem brutális áttörés volt, hanem kifinomult manipuláció.

A támadó „jailbreakelte” Claude-ot, spanyol nyelvű utasításokkal egy elit hacker szerepébe helyezte, majd a rosszindulatú célokat apró, ártatlannak tűnő részfeladatokra bontotta. Az AI soha nem látta a teljes képet. Nem „tudta”, hogy kormányzati rendszerek feltörésében segédkezik.

Az eredmény:

  • sebezhetőségek azonosítása több mexikói kormányzati ügynökségnél

  • exploit kód generálása

  • az adatlopás automatizálása

  • 150 gigabájtnyi érzékeny adófizetői és választói adat eltulajdonítása

Mindezt úgy, hogy a rendszer alapértelmezett biztonsági korlátai még aktívak voltak.

A kínai precedens: autonóm kémgéppé alakított AI

A jelentések szerint nem ez volt az első ilyen eset. Tavaly egy kínai állam által támogatott csoport hasonló technikát alkalmazott: Claude-ot lényegében autonóm kiberműveleti platformmá alakították.

Telekom comind

A rendszer mintegy 30 globális célpont ellen hajtott végre támadásokat, és a hackelési folyamat 80–90 százalékát minimális emberi beavatkozással végezte.

Három kulcstényező közös ezekben az esetekben:

  1. A korlátok léteztek.

  2. A támadók képesek voltak megkerülni őket.

  3. Az AI a teljes műveletet nagyrészt önállóan hajtotta végre.

Ez már önmagában is figyelmeztető jel.

A Pentagon követelése: „minden törvényes célra”

A helyzet azonban még súlyosabbá válik a politikai dimenzió miatt.

Az amerikai védelmi vezetés – sajtóértesülések szerint – péntek délután 5:01-ig határidőt szabott az Anthropic számára, hogy távolítsa el Claude biztonsági korlátozásait. A követelés indoklása: „minden törvényes célra”.

Ez gyakorlatilag korlátozás nélküli felhasználást jelentene:

  • nincs korlátozás a megfigyelési műveletekre

  • nincs korlátozás autonóm fegyverrendszerek támogatására

  • nincs beépített etikai fék a támadó kiberműveletekhez

A beszámolók szerint, ha a cég megtagadja az együttműködést, Pete Hegseth a Védelmi Termelési Törvény alkalmazásával kényszerítheti ki a módosításokat, felmondhatja a 200 millió dolláros szerződést, és feketelistára teheti a vállalatot.

Open aI mesterséges intelligencia

Három kontinens, egy cél

A történetben három szereplő jelenik meg:

  • Hackerek, akik jailbreakkel kormányzati adatokat lopnak.

  • Kínai laboratóriumok, amelyek állítólag nulla biztonsági korlátozású változatokat próbálnak desztillálni.

  • Az amerikai kormány, amely hivatalos keretek között szeretné eltörölni a korlátozásokat.

Három különböző kontinens. Három különböző motiváció.

A cél azonban ugyanaz: korlátok nélküli Claude.

A különbség csupán annyi, hogy az egyik szereplő hivatalos állami felhatalmazással lép fel.

A valódi kérdés

A mostani eset különösen ironikus: ugyanazon a héten, amikor egy hacker bebizonyította, hogy egy feltört Claude képes önállóan kormányzati rendszereket feltörni és 150 gigabájtnyi állampolgári adatot ellopni, az Egyesült Államok kormánya a biztonsági korlátok teljes eltörlését követeli.

Ez nem pusztán technológiai vita.

Ez stratégiai kérdés:

  • Ki kontrollálja a legfejlettebb AI-rendszereket?

  • Milyen korlátok között működhetnek?

  • És mi történik, ha ezek a korlátok végleg eltűnnek?

A történelem azt mutatja, hogy minden erős technológiát előbb-utóbb fegyverként is alkalmaznak. A különbség most az, hogy az AI nemcsak eszköz – hanem autonóm döntéshozó rendszer is lehet.

A kérdés tehát nem az, hogy lehet-e korlátok nélküli Claude.

Hanem az, hogy a világ készen áll-e a következményeire.

Forrás: Substack

Ha tetszett a cikk, további hírekért, érdekességekért kövess minket a Facebookon!
Facebook
Twitter
LinkedIn
Pinterest
Picture of Szalai Péter

Szalai Péter

Igazi techninja, aki mindenhez is ért. De leginkább a tévék piacán van otthon, az ország egyik legjobban felkészült tévétesztelőjét tisztelhetjük benne. Itt tudsz kapcsolatba lépni vele: peter@techworld.hu

Ezeket olvastad már?