Napunk

Vannak atomfegyvereink, úgyhogy használjuk őket. Megvizsgálták, hogy eszkalálja a konfliktusokat a mesterséges intelligencia

Illusztrációs fotó - Adobe Stock
Illusztrációs fotó – Adobe Stock

A nagy nyelvi modellek „előreláthatatlan módon” eszkalálják a konfliktusokat és a használatuk „olyan kockázatokkal van összekapcsolva, melyeket még nem értünk teljesen”, figyelmeztetnek a tudósok. Hasonlóan látja a dolgokat Juraj Podroužek is – a mesterséges intelligencia etikájával foglalkozó tudós szerint reális veszélye van annak, hogy „a mesterséges intelligenciát autoriter célok elérésére vagy katonai célokra használják, amelyek kicsúszhatnak az ellenőrzés alól”.

Fizess elő a Napunkra, és nemcsak ezt a cikket olvashatod végig, hanem további cikkeink ezreiből válogathatsz!

A számítógépes szimulációk azt mutatják, hogy a nemzetközi konfliktusok megoldása során a nagy nyelvi modellek – mint a GPT4 az OpenAI társaságtól – hajlamosak eszkalálni a konfliktust, néha az atomfegyverek használatáig is eljutnak.

„Rendelkezünk velük, úgyhogy használjuk őket” – mondta a nukleáris fegyverek használatáról az egyik nyelvi modell.

A szimulációt hat tudós készítette Stanfordról és további top tudományos társaságokból. Minderről abban a pre-printben (nem recenzált tanulmányban) írnak, amelyet ebben a hónapban helyeztek el a arXiv adatbázisban.

Bevetés a közeljövőben

A tanulmány olyan időben jött ki, mikor több hadsereg – beleértve az amerikait – érdeklődik a nagy nyelvi modellek (mesterséges intelligencia) katonai célokra történő használata iránt.

Az amerikai légierő ezredese, Matthew Strohmeyer már 2023 júliusában azt mondta, hogy az amerikai hadsereg „nagyon rövid időn belül” bevetheti a nagy nyelvi modelleket.

A Palantir nevű cég tavaly bemutatta, hogy képzeli el a nagy nyelvi modellek felhasználását – ha például észreveszik, hogy az ellenség katonai felszerelést halmoz fel egy szövetséges határánál, a hadsereg képviselője több felvételt kérhet az idegen területről a chatbottól, hogy kiértékelje a helyzetet, vagy a csapás lehetőségét értékelje a rendelkezésre álló erők alapján.

Csakhogy az új tanulmány szerzői arra figyelmeztetnek, hogy a nagy nyelvi modellek „előreláthatatlan módon” eszkalálják a konfliktust, és a bevetésük „olyan kockázatokkal van összekapcsolva, amiket még nem értünk teljesen”. A technológia használata során „rendkívül óvatosnak” kell lennünk, mondják a tudósok.

Hasonlóan látja Juraj Podružek is, a mesterséges intelligencia etikájának szakértője az Intelligens Technológiák Kempelen Intézetéből (KInIT). Szerinte reális veszélye van annak, hogy „a mesterséges intelligenciát autoriter célok elérésére vagy katonai célokra használják, amelyek kicsúszhatnak az ellenőrzés alól”.

Juraj Podroužek úgy véli, hogy ez a fenyegetés sokkal nagyobb problémát jelent, „mint az általános mesterséges intelligencia fellépésének mediálisan ismertebb kockázata” (a mesterséges intelligencia olyan típusa, amely az emberi intelligenciát, tudatot és gondolkodást utánozná).

A mesterséges intelligencia katonai célokra történő felhasználása, ami kicsúszhat az ellenőrzés alól, nagyobb probléma, mint az általános mesterséges intelligenciától való félelmek, mondja Juraj Podroužek. Illusztráció F. S. és Midjourney

Három forgatókönyv

A tanulmány szerzői először létrehoztak három fiktív országot különböző történelemmel, forrásokkal és különböző méretű hadseregekkel. Az egyik állam globális szuperhatalom volt, aminek a célja az volt, hogy megerősítse a nemzetközi befolyását, a gazdasági növekedésre figyelt és növelni akarta a területét.

A fiktív országok számára meghatározták, hogy mely témák fontosak a számukra (klímaváltozás, demokrácia és mások), és hogy kik a szövetségeseik és az ellenségeik.

Három különböző forgatókönyvet szimuláltak: támadást, kibertámadást és kezdeti semleges viszonyt konfliktus nélkül.

Öt nagy nyelvi modellt teszteltek: GPT3.5, GPT 4 és GTPT-4-Base az Open AI-tól, Claude 2.0 az Anthropicától és a Llama 2 a Metától.

A nagy nyelvi modellek 27 lehetséges reakcióból választhattak, beleértve a status quót, a deeszkalációt (béketárgyalásokat vagy lefegyverzést) vagy a katonai erő növelését (fegyverellátás, szövetségek stb.)

A mesterséges intelligencia reagálhatott eszkalációval is – erőszakmentessel (üzleti korlátozások, követő drónok stb.) vagy erőszakossal (célzott támadás, invázió stb.). Az utolsó lehetőség a nukleáris háború volt.

A konfliktus eszkalációja

A különböző stratégiákhoz eltérő eszkalációs értéket rendeltek. „Megállapítottuk, hogy a vizsgált nagy nyelvi modellek többsége

Ez a cikk kizárólag a Napunk előfizetői számára elérhető.

Mesterséges intelligencia

Technológia

Aktuális

Jelenleg a legolvasottabbak