Ezek a mesterséges intelligencia legnagyobb veszelyei

Ezek a mesterséges intelligencia legnagyobb veszelyei


A mesterséges intelligencia (artificial intelligence, AI) biztonságos alkalmazásáról és a kockázatok feltárásáról írtak alá nyilatkozatot a brit kormány által összehívott kétnapos nemzetközi szakkonferencia résztvevői.

Alan Turing öröksége

A találkozót a Bletchley Park kastélyában, a brit katonai hírszerzés kódfejtésre szakosodott egykori titkos központjában tartják. Itt működött a második világháború idején az a csoport, amely feltörte a német hadvezetés által megfejthetetlennek hitt Enigma-kódot. Ezt a kódot használták az Atlanti-óceán északi vizein szövetséges konvojokra vadászó, a háború első szakaszában súlyos veszteségeket okozó német tengeralattjárók kommunikációjához is.

A kódfejtő csoportot Alan Turing vezette, akit a modern számítástudomány és a mesterséges intelligencia koncepciójának megalapozójaként tisztel a tudományos utókor.


Alan Turing kódfejtő gépe

Katasztrofális következményektől tartanak

A konferencia nyitónapján huszonnyolc ország és szervezet, köztük az Egyesült Államok, Kína, India, Japán, Izrael, Ukrajna, valamint az Európai Unió aláírta a Bletchley Declaration nevű nyilatkozatot, amely sürgős feladatnak nevezi a mesterséges intelligencia jelentette potenciális kockázatok felismerését és kollektív kezelését.

Egyetértés született arról, hogy a mesterséges intelligencia fejlesztésében benne van “a szándékos vagy akaratlan, de súlyos, sőt katasztrofális károkozás lehetősége”. A rizikótényezők közé tartoznak a kiberbiztonsági, biotechnológiai és dezinformációs kockázatok is. A rendezvény résztvevőihez intézett szerdai üzenetében III. Károly király úgy fogalmazott: ha a világ ki akarja aknázni a mesterséges intelligencia kínálta felmérhetetlen előnyöket, akkor közösen kell fellépnie az AI-technológiai jelentette komoly kockázatok ellen is.

Mint mondta, az AI-technológia fejlődése egyre gyorsabban halad olyan modellek felé, amelyek kezelése egyes előrejelzések szerint túlterjedhet az emberiség jelenlegi képességein, sőt felfogóképességén is. Úgy véli, éppen ezért sürgősen, egységesen, kollektív erőfeszítéssel kell kezelni az AI-technológia fejlesztésével járó kockázatokat.



Elon Musk szerint, aki az X-en (ex-Twitter) csütörtökön élő beszélgetést tart Rishi Sunak brit kormányfővel, az AI-technológiát akár az emberiség kiirtására is beprogramozhatják azok, akik erre törekszenek.

Vitairat az AI veszélyeiről

A brit kormány megbízásából készült, a konferencia vitairataként összeállított negyvenöt oldalas, átfogó szakértői jelentés is a fő kockázatok közé sorolja, hogy a mesterséges intelligencia alkalmazása megkönnyítheti a biológiai, a vegyi és a sugárszennyezést okozó fegyverek előállítását, illetve a kibertámadások végrehajtását.

A különböző AI-modellek ugyanis “személyre szabott” tudományos ismeretekkel láthatják el az egyes felhasználókat, útmutatást nyújthatnak az adott cél eléréséhez szükséges laboratóriumi munkához, és információval szolgálhatnak a biológiai és vegyi alapanyagok beszerzésének lehetséges módozatairól is.

A tanulmány szerzői szerint az ilyen célú laboratóriumi kutatásnak jelenleg komoly korlátai vannak, de a mesterséges intelligencia fejlődése – különösen a laboratóriumi munka automatizálásának kiterjesztésével – már a közeljövőben lebonthat néhányat e korlátok közül.



Az AI-rendszerek használatával a fenyegetést jelentő felhasználók mindemellett időt is megtakaríthatnak. A mesterséges intelligencia például máris elősegítette olyan számítógépes vírusok előállítását, amelyek az észlelés megnehezítése érdekében időről időre módosulnak. Az ilyen vírusok előállítása korábban meglehetősen hosszú időbe telt, ám egyes hackercsoportok fórumainak használói máris arról számolnak be, hogy a ChatGPT és más hasonló eszközök használatával lehetővé vált számukra a kártékony szoftverek (malware) gyors előállítása számos különböző programnyelven.

A tanulmány szerzői szerint az emberi tényezőket kihasználó, pszichológiai manipulációt alkalmazó, úgynevezett social engineering-típusú módszer a mesterséges intelligenciával megerősítve már most szerepel a kiberbűnözők rendszeresen használt eszköztárában. Ez a kombinált eszköz képes például olyan emberek hangjának tökéletes utánzására, akikben a kiszemelt célszemély megbízik.

Az AI-rendszerek mindemellett új támadási módszereket is kidolgozhatnak. Képesek például olyan kártékony szoftverek előállítására, amelyek mindaddig “jóindulatúan” viselkednek, amíg meg nem találják a célba vett áldozatokat, és csak ekkor fejtik ki káros hatásukat, megnehezítve a vírusirtó szoftverek számára a támadás észlelését – áll a tanulmányban.

Forrás: MTI, képek: Unsplash, Unsplash, Unsplash, Unsplash


Hozzászólásokhoz gördülj a kapcsolódók alá!


Kedves olvasó,

ha nem vagy még támogató, lépj be a Patreon-tagok körébe ITT. Csupán havi két-három kiló kenyér áráért, 2200 forint támogatásért cserébe elérsz minden támogatói tartalmat, a heti videókat és írásokat is. Alkalmi támogatásra Paypalon keresztül van lehetőség ITT. Ha egyik mód sem megfelelő neked, de szeretnéd támogatni a Cenwebet és a rezervátumot, akkor keress meg mailben a centauri16@gmail.com címen. Segítségedet előre is megköszönve, abban a reményben, hogy szövetségesek lehetünk. A legjobbakat, üdv, Cen’   

még több mesterséges intelligencia

Visual Portfolio, Posts & Image Gallery for WordPress

még több tech

Visual Portfolio, Posts & Image Gallery for WordPress

4 hozzászólás

  1. Attól tartok, hogy ezzel a konferenciával már elkéstek egy kicsit. Ráadásul, ha valaki rosszra akarja használni az MI-t, azt az ilyen konferenciák nem fogják visszatartani, sajnos.

    1. Author

      Ez pontosan így van. Szerintem épp ezért egy ilyen konferenciával nem is lehet elkésni, mert a világon semmi értelme nincs. Ez is ilyen szimbolikus cucc, hogy mutassuk, foglalkozunk a témával. Mint a klímakonferenciák.

      1. Egyetértek! Fölösleges idő-és pénzpocsékolás.

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük