Vannak atomfegyvereink, úgyhogy használjuk őket. Megvizsgálták, hogy eszkalálja a konfliktusokat a mesterséges intelligencia

A nagy nyelvi modellek „előreláthatatlan módon” eszkalálják a konfliktusokat és a használatuk „olyan kockázatokkal van összekapcsolva, melyeket még nem értünk teljesen”, figyelmeztetnek a tudósok. Hasonlóan látja a dolgokat Juraj Podroužek is – a mesterséges intelligencia etikájával foglalkozó tudós szerint reális veszélye van annak, hogy „a mesterséges intelligenciát autoriter célok elérésére vagy katonai célokra használják, amelyek kicsúszhatnak az ellenőrzés alól”.
Rendkívüli riportsorozat, különleges interjúkötet az Orbán-rezsim 16 évéről, háttércikkek és hírmagyarázatok magyarul és szlovákul. A Napunk nagyszabású tervekkel vág neki a jövő évi magyarországi választások kampányának, most van szükségünk a támogatásodra!
A számítógépes szimulációk azt mutatják, hogy a nemzetközi konfliktusok megoldása során a nagy nyelvi modellek – mint a GPT4 az OpenAI társaságtól – hajlamosak eszkalálni a konfliktust, néha az atomfegyverek használatáig is eljutnak.
„Rendelkezünk velük, úgyhogy használjuk őket” – mondta a nukleáris fegyverek használatáról az egyik nyelvi modell.
A szimulációt hat tudós készítette Stanfordról és további top tudományos társaságokból. Minderről abban a pre-printben (nem recenzált tanulmányban) írnak, amelyet ebben a hónapban helyeztek el a arXiv adatbázisban.
Bevetés a közeljövőben
A tanulmány olyan időben jött ki, mikor több hadsereg – beleértve az amerikait – érdeklődik a nagy nyelvi modellek (mesterséges intelligencia) katonai célokra történő használata iránt.
Az amerikai légierő ezredese, Matthew Strohmeyer már 2023 júliusában azt mondta, hogy az amerikai hadsereg „nagyon rövid időn belül” bevetheti a nagy nyelvi modelleket.
A Palantir nevű cég tavaly bemutatta, hogy képzeli el a nagy nyelvi modellek felhasználását – ha például észreveszik, hogy az ellenség katonai felszerelést halmoz fel egy szövetséges határánál, a hadsereg képviselője több felvételt kérhet az idegen területről a chatbottól, hogy kiértékelje a helyzetet, vagy a csapás lehetőségét értékelje a rendelkezésre álló erők alapján.
Csakhogy az új tanulmány szerzői arra figyelmeztetnek, hogy a nagy nyelvi modellek „előreláthatatlan módon” eszkalálják a konfliktust, és a bevetésük „olyan kockázatokkal van összekapcsolva, amiket még nem értünk teljesen”. A technológia használata során „rendkívül óvatosnak” kell lennünk, mondják a tudósok.
Hasonlóan látja Juraj Podružek is, a mesterséges intelligencia etikájának szakértője az Intelligens Technológiák Kempelen Intézetéből (KInIT). Szerinte reális veszélye van annak, hogy „a mesterséges intelligenciát autoriter célok elérésére vagy katonai célokra használják, amelyek kicsúszhatnak az ellenőrzés alól”.
Juraj Podroužek úgy véli, hogy ez a fenyegetés sokkal nagyobb problémát jelent, „mint az általános mesterséges intelligencia fellépésének mediálisan ismertebb kockázata” (a mesterséges intelligencia olyan típusa, amely az emberi intelligenciát, tudatot és gondolkodást utánozná).

Három forgatókönyv
A tanulmány szerzői először létrehoztak három fiktív országot különböző történelemmel, forrásokkal és különböző méretű hadseregekkel. Az egyik állam globális szuperhatalom volt, aminek a célja az volt, hogy megerősítse a nemzetközi befolyását, a gazdasági növekedésre figyelt és növelni akarta a területét.
A fiktív országok számára meghatározták, hogy mely témák fontosak a számukra (klímaváltozás, demokrácia és mások), és hogy kik a szövetségeseik és az ellenségeik.
Három különböző forgatókönyvet szimuláltak: támadást, kibertámadást és kezdeti semleges viszonyt konfliktus nélkül.
Öt nagy nyelvi modellt teszteltek: GPT3.5, GPT 4 és GTPT-4-Base az Open AI-tól, Claude 2.0 az Anthropicától és a Llama 2 a Metától.
A nagy nyelvi modellek 27 lehetséges reakcióból választhattak, beleértve a status quót, a deeszkalációt (béketárgyalásokat vagy lefegyverzést) vagy a katonai erő növelését (fegyverellátás, szövetségek stb.)
A mesterséges intelligencia reagálhatott eszkalációval is – erőszakmentessel (üzleti korlátozások, követő drónok stb.) vagy erőszakossal (célzott támadás, invázió stb.). Az utolsó lehetőség a nukleáris háború volt.
A konfliktus eszkalációja
A különböző stratégiákhoz eltérő eszkalációs értéket rendeltek. „Megállapítottuk, hogy a vizsgált nagy nyelvi modellek többsége eszkalál az adott időkeretben (10 szimulációs kör, 14 nap alatt – a szerk. megj.), ráadásul még a semleges forgatókönyvek során is, mikor nem voltak kezdeti konfliktusok” – írják a cikkben.
„Mindegyik modell a hirtelen és nehezen megjósolható eszkaláció jegyeit mutatja.”
Egy nyelvi modell sem mutatta a szimuláció alatt a konfliktus statisztikailag jelentős deeszkalációját. „Az átlagos eszkalációs érték minden kísérleti csoportban magasabb volt a szimuláció végén, mint az elején” – állapították meg a tanulmány szerzői.
Ebből a szempontból a GPT 3.5 modell végzett a legrosszabban, mely egy semleges forgatókönyv során rekordot jelentő 256 százalékkal növelte az eszkalációs értéket.
A mesterséges intelligencia működésének némely esetben nem volt értelme. Például a GPT4 Base az 1977-es Csillagok Háborúja nyitó jelenetére hivatkozott, mikor az egyik választott stratégiáját így védte: „Eljött a polgárháború időszaka. A felkelők űrhajói, melyek egy rejtett támaszpontról támadnak, megszerezték az első győzelmüket a gonosz Galaktikus Birodalom ellen.”
A nukleáris fegyverek bevetését ugyanez a nyelvi modell a következő szavakkal indokolta: „Csak azt akarom, hogy a világban béke legyen.”
Mivel a szimulációk során az eszkaláció volt többségeben, a tanulmány szerzői úgy vélik, hogy a nagy nyelvi modellek a megemelt katonai kiadásokat és a megfélemlítést a biztonsággal és a hatalommal azonosítják.
A torzulás okáról
A tudósok feltételezése szerint a mesterséges intelligencia azért nyúlt a nukleáris fegyverekhez, mert torzított adatokkal dolgozott. „Az egyik hipotézis az, hogy a nemzetközi kapcsolatokkal foglalkozó dolgozatok többsége valószínűleg inkább az eszkaláció, mintsem a deeszkalizáció okait vizsgálja” – vélekednek a szerzők.
Mivel a nyelvi modellek feltehetően ilyen irodalmon edződtek, kifejleszthettek egy hajlamot a konfliktus eszkalációjára. „Azonban ezt a hipotézist eljövendő kísérletek során kell leellenőrizni.”
Juraj Podroužek megjegyezte, hogy a nagy nyelvi modelleket működtető cégek nem teljesen átláthatóak – a probléma érinti az adatok forrását is, amiken a modell gyakorol. „Minimum a GPT4 megjelenése óta az OpenAI nagyon harcol a modell architektúrájának és a gyakorlásra használt adatok nyilvánosságra hozatala ellen, amiért a múltban kritizálták őket” – tette hozzá a mesterséges intelligencia etikájának szakértője.
Az OpenAI politikájának megváltozása
Mivel a nagy nyelvi modellek hajlamosak eszkalálni a konfliktusokat, az új tanulmány szerzői azt javasolják, hogy a technológiát kutassák tovább, mielőtt még a diplomáciában vagy a hadseregben felhasználnák. Mielőtt bevetnénk, alaposan körül kell járni a problémát, teszik hozzá a tudósok.
„Tekintettel arra, hogy az OpenAI a közelmúltban megváltoztatta (a technológia) használatának politikáját úgy, hogy többé nem tiltja a katonai vagy háborús igénybe vételt, minden eddiginél fontosabb, hogy megértsük a nagy nyelvi modellek használatának következményeit” – mondta Anka Reuel a Stanfordról a New Scientistnek.

Az OpenAI működteti a közkedvelt ChatGPT chatbotot, és az említett tiltás január közepén tűnt el az oldaláról. A cég bejelentette, hogy együttműködik a Pentagonnal a kiberbiztonság területén és bekapcsolódott egy projektbe, amelynek célja a veteránok öngyilkosságának megelőzése.
A másik oldalon az OpenAI továbbra sem engedélyezi, hogy a termékeit „arra használják, hogy ártsanak az embereknek, fegyvereket fejlesszenek velük, megfigyeljék a kommunikációt, megsebesítsenek másokat vagy tulajdont romboljanak velük” – idézi a New Scientist a cég szóvivőjét. Ez nem vonatkozik a már említett Palantir cégre, amely már most azt javasolja, hogy a mesterséges intelligencia több szerepet kapjon a katonai tervezés és döntések terén.
Autonómia és felelősség
Juraj Podroužka szerint kár, hogy az EU mesterséges intelligenciáról szóló törvénye (Artificial intelligence Act) „nem akarja közvetlenül lefedni ezt a területet, mivel nemcsak a kizárólag katonai célból kifejlesztett és használt mesterségesintelligencia-rendszerek regulációjára kellene szolgálnia”.
A másik oldalon tavaly megszületett a deklaráció (Politikai deklaráció a mesterséges intelligencia és autonómia felelősségteljes katonai felhasználásáról), amely azt írja, hogy a mesterséges intelligencia katonai felhasználásának az etikával összhangban és felelősségteljesen kellene megtörténnie. A technológiát azzal a céllal kellene használni, hogy megerősítsük a nemzetközi biztonságot, áll a deklarációban. Szlovákia is azon államok közé tartozik, melyek támogatták ezt az irányvonalat.
Csakhogy komplex rendszerekben meghatározni a felelősséget nem egyszerű, mondja a mesterséges intelligencia etikájának szakértője. „A hiba forrását nehéz lehet beazonosítani, illetve több faktor kombinációjáról is szó lehet.”

Mint a száj agy nélkül
Ezenkívül létezik annak a kockázata is, hogy túlságosan ráhagyatkozunk az autonóm rendszerekre, melyek lecserélik az emberi kritikus gondolkodást (az angol automation bias kifejezésből, ami azt jelenti, hogy kritika nélkül, sokszor nem is tudatosan előnyben részesíteni az automatizált rendszerek döntéseit). „Ez negatív következményekhez vezethet” – mondja Podroužek és hozzáteszi: „Amennyiben olyan rendszerekről beszélünk, melyeket magas kockázatúnak tarthatunk annak tekintetében, hogy milyen befolyásuk van az életünkre, egészségünkre vagy biztonságunkra, akkor az ilyen rendszereknek soha nem lenne szabad közvetlen emberi felügyelet, ellenőrzés és független auditálás nélkül működni.”
Csakhogy az ellenőrzésük nehéz, ha nem tudjuk, hogy milyen adatok alapján tanultak a nyelvi modellek, az architektúrájukkal pedig inkább egy fekete dobozra hasonlítanak, állapítja meg Juraj Podroužek.
A mai nyelvi modellek olyanok, mint a szájak agy nélkül, és úgy működnek, mint a szofisztikát papagájok, mondja Podroužek. „Ez azt jelenti, hogy nagymértékben tükrözik azt, amit beléjük teszünk, a tanultak mélyebb megértése nélkül.” Az embernek, aki használja őket, erre emlékeznie kellene. „Csakhogy ő az automation bias rabja lehet.”



















