A mesterséges intelligencia a bűnözésben

Egyre több bizonyíték igazolja, jelenkorunk egyik szenzációs újdonsága, az ún. mesterséges intelligencia (MI), az emberi értelem alkotta úgymond „gépi ész” az élet számos területén segíthet bennünket. Mostanra azonban arra is fény derült, hogy a mesterséges intelligencia alkalmazása esetlegesen komoly veszélyeket is okozhat az emberiség számára.

A nyílt hozzáférésű Crime Science folyóirat oldalain 2020 augusztusában tették közzé azt a tanulmányt, amelyben brit kutatók (University College London) a mesterséges intelligencia számos olyan felhasználási módjáról írnak, amelyek elősegítik a különféle bűncselekmények elkövetését. Listájuk sorrendjét az alapján állították fel, hogy mekkora lehet az egyes bűncselekmények által okozott kár, a bűncselekményből származó haszon vagy nyereség, mennyire könnyű azokat végrehajtani, és milyen nehéz ellenük védekezni. Nézzünk példákat a tanulmányból!
A leginkább aggodalomra okot adó alkalmazási terület, mert ennek megvalósulására van a legnagyobb esély, a hamis hang- vagy képi tartalmak készítésének lehetősége, amelyet rossz szándék vezérelte egyének felhasználhatnak akár bűncselekményekhez vagy terrorizmus során. Hamis hírrel elérhető például egy közszereplők hitelvesztése; ilyen módon az is elérhető, hogy egész társadalmak bizalmatlanokká váljanak a hang- és filmanyagok iránt. Zárójelben érdemes megemlíteni, már létezik olyan, mesterséges intelligenciával feljavított rendszer, amely képes hihető álhíreket írni. Kérdés, hová vezet ez?
A drónok, ha illetéktelenek átvennék fölöttük a hatalmat, emberek ellen fordíthatóvá válnak, a tanulmányban írtak szerint: bár ma még általában nem használják erőszakos bűncselekményekhez, csak például kábítószer-szállításhoz, de az ilyen gépek, ha tömegesen (önszerveződő rajban) használják őket, veszélyt jelenthetnek, akár egy repülőgép hajtóművének is nekiirányítják, ráadásul fegyverekkel is felszerelhetők. Hasonló probléma léphet fel az önvezető járművek kapcsán is. Egy robbanóanyaggal megtöltött autót vezető nélkül is a tömegbe lehet irányítani, így a legutolsó gyenge láncszem, vagyis a terrorcselekményre vállalkozó sofőr is kiiktatható.
Valamely konkrét célcsoportnak, például bank vagy üzlethálózat ügyfeleinek juttathatnak el elektronikus levelet azzal a céllal, hogy azok adatait megszerezzék, a jól ismert adathalászatot mesterséges intelligencia segítségével célirányosabbá, vagy épp sokkal valószerűbbé, hihetőbbé téve. Az adathalászaton túl zsarolásra és az ehhez szükséges „bizonyítékok” hamisítására is felhasználható a mesterséges intelligencia. Ugyanígy személyre szabható szélhámosságokkal is jelentkezhetnek egy-egy embernél, pénzt csalva ki tőle olyan célra, amelyről bizonyos adatai, tevékenysége alapján nagy eséllyel fizetne is.
Mesterséges intelligencia útján sokkal hatékonyabbá tehetők a kibertámadások, ahol a gépi tanulás képes gyorsan feltérképezni egy-egy rendszer gyenge pontjait. Emellett „személyre szabható” formában hajthatók végre a támadások, egyszerre többféle célpont ellen.
Sokan használják az online felületet különféle szolgáltatásokhoz – a számítógépes bűnözők elérhetik, hogy bizonyos személyek, akár tömegek is, ne férjenek hozzá ezekhez. Manipulálható a pénzügyi- és a részvénypiac. Más területek mellett, egyes mobiltelefonokba is beépítenek mesterséges intelligencia működtette arcfelismerő funkciót – ám, ha nagyon akarják, ezek is becsaphatók. Két arc jegyeit egybeolvasztva készíthető olyan, mindkettőre nagyon hasonlító igazolványkép, amellyel mindkét ember szabadon közlekedhet, akár országhatárokon át.

A katonai fejlesztéseket többnyire titkolózás övezi, így azt sem lehet tudni pontosan, utóbb mire lesznek képesek a ma fejlesztett katonai robotok – de annyi biztos, amennyiben ezek rossz kezekbe jutnának, komoly fenyegetést jelentenének. (Az intelligensnek mondott, automatizált döntéshozatali rendszerekkel ellátott fegyverek működése is megzavarható. Egyébként az ilyen fegyverek „okos-vezérlése” még nem minden esetben biztonságos, ha egyáltalán a fegyverek kapcsán van értelme olyat mondani, hogy biztonságos; történt már olyan, hogy a meghibásodott vezérlőegység miatt a fegyver a használói ellen fordult.)
A jövőben elterjedhetnek a betörőrobotok, amelyek kicsi méretüknél fogva szűkebb réseken (például levélnyílás, macskabejáró az ajtón) is bejuttathatók egy házba, ahonnan információval látják el a bűnözőket, hogy van-e bent valaki és vannak-e bent értékek, amelyekért érdemes betörni, vagy épp be is engedhetik az embert. Azonban egyelőre ennek a veszélye csekély, hiszen túlzottan nagy értékű robot kellene a bizonytalan, gyakran kis hasznot hajtó bűncselekményhez.
Az egyik szerző, Lewis Griffin professzor azt mondta: „Ahogy a mesterséges intelligencia-alapú technológiák képességei kibővülnek, így a bűnelkövetésre használható lehetőségek is szaporodnak. Ahhoz, hogy felkészülhessünk a mesterséges intelligencia jelentette lehetséges fenyegetésekre, meg kell határoznunk, hogy ezek pontosan mik lehetnek, és miképpen befolyásolhatják életünket.”
Minthogy az emberek mostanság életük nagy részét az online térben élik, ez már önmagában elég nagy veszélyt jelent. A vezető szerző, Dr. Matthew Caldwell ennek kapcsán azt mondja: „Az ilyen online környezet, ahol az adatok vagyontárgyak, az információ pedig hatalmat jelent, ideális a mesterséges intelligencia-alapú bűncselekményekhez.” Az úgymond hagyományos bűncselekménytől eltérően a digitális térben elkövetett bűnök könnyebben megoszthatók, sőt eladhatók, lehetővé téve a bűncselekmények módszereinek eladását és azt is, hogy a bűncselekményeket szolgáltatásként értékesítsék.
A fejlődésnek, mint minden esetben, vannak igen hasznos, és igen káros oldalai is. Shane Johnson professzor hozzátette: „Egy olyan, változó világban élünk, amely tele van új lehetőségekkel, jókkal és rosszakkal egyaránt. Azzal, ha megismerjük, milyen káros lehetőségeket rejthet egy új technológia, még időben felléphetünk a veszélyei ellen. A tanulmányunk az első abban a sorozatban, amely feltérképezi és beazonosítja e veszélyeket, és segít megoldásokat találni ellenük.”
Írta: Csibrányi Zoltán