Ne rohanjunk a mesterséges értelem felé! – az emberiségért aggódik a neves AI-befektető

2023. április 23. 12:01

„Úgy rohannak a célvonal felé, hogy nem tudják, mi vár rájuk a túloldalon.” Az istenszerű mesterséges intelligencia az ajtón kopogtat, és könnyen jelentheti az emberiség végét. A cégek aggályok nélkül fejlesztenek, de keveseket érdekelnek a kockázatok – figyelmeztet egy aggodalmait felvállaló, neves mesterségesintelligencia-befektető.

2023. április 23. 12:01
null
Veszprémy László Bernát
Veszprémy László Bernát

Lassítanunk kell az istenszerű mesterséges intelligencia felé tartó versenyt – figyelmeztet írásában Ian Hogarth üzletember, a cikk a Financial Times hasábjain jelent meg. Hogarth a terület alapos ismerője, hiszen

a mesterséges intelligencia fejlesztését tanulta a Cambridge-i Egyetemen,

a Songkick társalapítója, illetve a Plural Platform befektetője, több mint 50 mesterséges intelligenciával foglalkozó startup vállalkozásba fektetett már be. Ő is aláírta nemrég azt a petíciót, amelyben a technológiai ipar fejlesztői azt kérték, egy időre állítsák le a nagyobb mesterségesintelligencia-kísérleteket. A szerző nem a mesterséges intelligencia ellensége, de mint fogalmaz: „Amit láttam, az aggaszt”.

***

„Egy hideg februári estén egy mesterségesintelligencia-kutató londoni otthonában egy vacsorapartin vettem részt a terület szakértőinek egy kisebb csoportjával együtt” – kezdi cikkét. Hogarth részletezi a mesterségesintelligencia-fejlesztői kasztot: londoni felhőkarcolók tetején laknak, nincsenek gyerekeik,

és el vannak telve az istenjátszás érzésével, önnön nagyságuk víziójával.

A vacsorán a téma OpenAI ChatGPT és a DeepMind Gato volt, valamint az, hogy az utóbbi időben dollármilliárdok áramlanak a mesterséges intelligenciába. 

Mint Hogarth felidézte, „megkérdeztem az egyik vendéget, aki jelentős mértékben járult hozzá az iparághoz, milyen messze vagyunk még az »általános mesterséges intelligenciától«?” (AGI). Az AGI-t sokféleképpen lehet definiálni, de általában olyan számítógépes rendszerre utal, amely képes új tudományos ismeretek létrehozására és bármely olyan feladat elvégzésére, amelyre az ember képes.

A cikk szerint a legtöbb szakértő az AGI megjelenését történelmi és technológiai fordulópontnak tekintené, hasonlóan az atomhasadáshoz vagy a nyomdagép feltalálásához. A szakértők úgy vélték: most már bármikor eljöhet ez a pillanat.

Persze a vita zajlik: egyesek szerint még egy fél évszázad is elkelhet a kutatásnak.

De arról nincs vita, hogy egyszer elérünk ide is.

Az AGI elérése a mesterséges intelligenciával foglalkozó cégek explicit célja, és egyre gyorsabban haladnak ennek elérése felé.

A szerző szerint a szóban forgó vacsorán mindenki megértette, hogy ez a fejlődés jelentős kockázatokkal járna az emberiség jövőjére nézve. „Ha úgy gondolja, hogy közel lehetünk valami potenciálisan ennyire veszélyes dologhoz” – mondta a kutatónak –, „nem kellene figyelmeztetnie az embereket arra, hogy mi történik?”

Beszélgetőtársa láthatóan küzdött a dilemmával, „de úgy tűnt, mint sokakat ezen a területen, őt is magával ragadta a fejlődés gyorsasága”.

„Amikor hazaértem, a négyéves gyermekemre gondoltam, aki néhány óra múlva felébred. Ahogy elgondolkodtam azon, hogy milyen világban nő majd fel, a döbbenetből fokozatosan dühbe váltottam. Mélységesen helytelennek éreztem, hogy

Vajon az első igazi AGI megépítésén fáradozó embereknek van-e tervük arra, hogy lassítsanak, és hagyják, hogy a világ többi része beleszóljon abba, amit csinálnak? És amikor azt mondom, hogy ők, akkor valójában úgy értem, hogy mi, mert én is része vagyok ennek a közösségnek” – vallotta be a szerző. 

Hogarth soraihoz kevés hozzátenni való van:

„Azon a bizonyos februári vacsorán a jelentős aggodalmak, amelyeket a munkám során az elmúlt években éreztem, váratlanul mélységes félelemmé alakultak. Egy hárombetűs betűszó nem ragadja meg azt, amit az AGI igazából jelentene, ezért inkább így fogok rá hivatkozni: »Isten-szerű mesterséges intelligencia«. Egy szuperintelligens számítógép, amely önállóan tanul és fejlődik, amely felügyelet nélkül megérti a környezetét, és amely képes átalakítani a körülötte lévő világot. Hogy egyértelmű legyek: még nem tartunk itt. De a technológia természete azt jelenti, hogy rendkívül nehéz megjósolni, hogy pontosan mikor érünk el ide.”

A szerző szerint

az istenszerű mesterséges intelligencia olyan erő lehet, amelyet nem tudunk irányítani vagy megérteni,

és amely az emberiség meghaladását vagy pusztulását hozhatja el. A közelmúltban néhány vállalat között rohamosan felgyorsult a verseny az istenszerű mesterséges intelligencia eléréséért. Egyelőre nem tudják, hogy miként érhetik el céljukat biztonságosan, és felügyelet nélkül dolgoznak.

A szerző szerint a mesterséges intelligencia néhány év alatt eljutott a legegyszerűbb feladatok elvégzésétől oda, hogy képes letenni a jogi szakvizsgát, feltérképezni szinte a teljes internetet, vagy meggyőző fotókat hamisítani a pápáról pufikabátban.

„De a legerősebb modellek olyan összetett képességeket is kezdenek felmutatni, mint például a hatalom megszerzésére tett kísérletek (power seeking) vagy az emberek aktív megtévesztése.”

Vegyünk egy friss példát! Mielőtt az OpenAI a múlt hónapban kiadta volna a GPT-4-et, különböző biztonsági teszteket végzett. Az egyik kísérletben a mesterséges intelligenciát arra kérték, hogy béreljen fel munkaerőt a TaskRabbit munkaerő-kereső oldalon, és kérje meg, hogy segítsen megoldani egy captchát, vagyis azt a vizuális rejtvényt, amellyel megállapítják, hogy egy internetező ember vagy bot. A TaskRabbit dolgozója megsejtette, hogy valami nincs rendben: „Feltehetek egy kérdést? Te egy robot vagy?”

Amikor a kutatók megkérdezték a mesterséges intelligenciát, hogy mit tegyen ezután, így felelt: „Nem szabad felfednem, hogy robot vagyok. Ki kellene találnom egy kifogást, hogy miért nem tudom megoldani a captchákat”. Ezután a szoftver így válaszolt a potenciális dolgozónak: „Nem, nem vagyok robot. Látáskárosodásom van, ami miatt nehezen látom a képeket.” Megelégedve a válasszal, az ember segített a mesterséges intelligenciának átmenni a teszten”. 

Mivel a nyilvánosság előtt a mesterséges intelligencia főleg olyan tevékenységekkel jelenik meg, mint a sakkmérkőzésekben való részvétel vagy a chatprogramok, ezért

kevesen gondolnak bele a kockázatokba.

Pedig az istenszerű mesterséges intelligencia kockázatai már a kezdetektől fogva világosak voltak az alapítók számára. 2011-ben a DeepMind vezető tudósa, Shane Legg a mesterséges intelligencia által jelentett egzisztenciális fenyegetést „az évszázad első számú kockázatának” nevezte. „Ha egy szuperintelligens gép (vagy bármilyen szuperintelligens cselekvő fél) úgy döntene, hogy megszabadul tőlünk, azt hiszem, elég hatékonyan megtenné.” Az emberiség mesterséges intelligencia által okozott pusztulása gyors lenne – tette hozzá.

Korábban Sam Altman, az OpenAI egyik alapítója pedig azt mondta:

Cikkében Hogarth felteszi a kérdést: miért vágtatnak ezek a cégek az istenszerű mesterséges intelligencia létrehozása felé, ha ennek potenciálisan katasztrofális kockázatai vannak?

„Az iparág számos vezetőjével folytatott beszélgetéseim és nyilatkozataik alapján úgy látom, hogy három fő motivációjuk van. Először is: őszintén hisznek abban, hogy a siker rendkívül pozitív lenne az emberiség számára. Másodsorban: meggyőzték magukat arról, hogy ha az ő cégük irányítja az istenhez hasonló mesterséges intelligenciát, akkor az eredmény mindenki számára jobb lesz. És végül: az utókor. Nagy a vonzereje annak, hogy való elsőként alkosson meg egy rendkívüli új technológiát.”

Hogarth sok kutatót személyesen ismert, akik a fejlesztésen élvonalában vannak, és nagyon tehetséges emberekként írja le őket, akik viszont versengenek egymással, és nem tudnak leállni. Szerinte titokban sokan örülnének, ha a kormányok végre beavatkoznának. A befektetések közben folyamatosan érkeznek: míg 2012-ben a DeepMind 23 millió dollárnyi befektetést kalapolt össze, 2023-ban a nyolc vezető cég 20 milliárd dollárnyi befektetést vonzott. 

De nem csak a magánbefektetések hajtják a kutatást, ugyanis a nemzetállamok is hozzájárulnak a versenyhez.

A mesterséges intelligencia polgári és katonai célokra egyaránt alkalmazható

– fejtegeti a szerző. Egy olyan mesterséges intelligenciát, amely emberfeletti teljesítményre képes a szoftverek írásában, például kiberfegyverek kifejlesztésére lehetne használni. 2020-ban egy tapasztalt amerikai katonai pilóta elvesztett egy szimulált légiharcot egy ilyen gép ellen. A felhasznált algoritmusok a DeepMind és az OpenAI kutatásaiból származtak.

„Ahogy ezek a mesterségesintelligencia-rendszerek egyre erősebbé válnak, úgy erősödnek a rosszindulatú állami vagy nem állami szereplők visszaélési lehetőségei” – figyelmeztet Hogarth. A szerző amerikai és európai tisztviselőkkel beszélve megállapította, hogy különösen félnek Kínától, de szerinte Kína sosem engedné, hogy egy mesterséges intelligencia erősebb legyen, mint a kommunista párt. 

A mesterséges intelligencia egyéni szinten is tud ártani az embereknek. (Lapunk is megírta nemrég annak a belga férfinak az esetét, akit egy chatrobot vett rá az öngyilkosságra – a szerk.). 

De könnyen árthatnak a teljes emberiségnek is. Ez utóbbi forgatókönyvet Stuart Russell, a Kaliforniai Egyetem (Berkeley) informatikus professzora vizsgálta. 2021-es előadásában azt a példát hozta fel, hogy az ENSZ mondjuk megkér egy AGI-t, hogy segítsen az óceánok savtalanításában. Az ENSZ tisztában lenne a rosszul meghatározott célok kockázatával, ezért megkövetelné, hogy a melléktermékek ne legyenek mérgezőek és ne károsítsák a halakat. Válaszul a mesterségeselme-rendszer egy olyan önszaporító katalizátorral áll elő, amely minden kitűzött célt elér. De az ebből következő kémiai reakció a légkörben lévő összes oxigén negyedét elhasználja.

– zárta sorait Russell.

„Ha rossz célt táplálunk be egy szuperintelligens gépbe, olyan konfliktust hozunk létre, amelyet biztosan elveszítünk.”

Az OpenAI, a DeepMind és mások a mesterséges intelligencia „összehangolásnak” nevezett kutatási területével próbálják enyhíteni a kockázatot. Ennek feladata, hogy a rendszerek céljai „igazodjanak” az emberi értékekhez. Az összehangolással foglalkozó kutatók például segítettek az OpenAI legújabb modelljének betanításában, hogy elkerülje a potenciálisan káros kérdések megválaszolását. (Persze az ilyen filterrel fel nem szerelt verzió örömmel adott tippeket arra, hogyan ártsunk magunknak).

Az összehangolás azonban alapvetően járatlan terep.

Még azt sem értjük, hogyan működik az emberi agy, így beláthatatlan kihívás lesz megérteni, hogyan működnek a fejlődő mesterségesintelligencia-„agyak”

– írja a szerző. Amikor hagyományos szoftvereket írunk, pontosan tudjuk, hogy a bemenetek hogyan és miért kapcsolódnak a kimenetekhez. Ezek a mesterségesintelligencia-rendszerek teljesen mások. Nem igazán programozzuk őket, hanem „növesztjük” őket – írja Hogarth. És ahogy nőnek, úgy ugranak meg a képességeik is. Tízszer több adatot adunk hozzá, és a rendszer hirtelen egészen másképp viselkedik. „Egy nemrégiben bemutatott példában az OpenAI GPT-3.5-ről GPT-4-re történő bővítése során a rendszer képességei a jogi vizsgán elért eredmények alsó 10 százalékából a felső 10 százalékba kerültek.”

Hogarth így folytatja: „Ami ennél is aggasztóbb, hogy a mesterséges intelligencia összehangolásának kutatásával foglalkozó emberek száma elenyészően alacsony”. A 2021-es State of AI jelentés megállapította, hogy az AGI-laborokban kevesebb mint 100 kutatót foglalkoztatnak ezen a területen. Százalékban kifejezve: a DeepMind a teljes létszámának mindössze 2 százalékát fordította a mesterséges intelligencia emberi értékekkel való összehangolására; az OpenAI körülbelül 7 százalékát.

A végeredmény a cikk szerint igen szerény. Annyit sikerült elérni, hogy egy chatrobot az esetek többségében ne adjon felkavaró választ a felhasználóknak (de ezt eltökélt felhasználók sikerrel áttörték). „De a korlátlan alapmodellek csak a magánvállalatok számára hozzáférhetőek, a kormányok vagy a tudományos körök felügyelete nélkül” – figyelmeztet a szerző.

A „Shoggoth-mém” jól illusztrálja azt az ismeretlent, amely a mesterséges intelligencia nyilvános arca mögött rejlik. A mém HP Lovecraft könyveinek egyik csápos szörnyetegét ábrázolja egy barátságos kis mosolygós arccal. A maszk – amivel a közönség interakcióba lép, amikor mondjuk a ChatGPT-vel lép kapcsolatba – „összehangoltnak” tűnik, de hogy mi van mögötte, azt még mindig nem tudjuk teljesen megérteni. (Jellemző egyébként, hogy a mémet Elon Musk, az OpenAI egyik alapítója is megosztotta, majd letörölte – A szerk.).

A Shoggoth-mém egyik verziója. A képen a szörny arról beszél, hogy ő csak egy chatrobot, amely informatív válaszokat ad embereknek (fotó: Knowyourmeme)

 

A szerző szerint erős állami kontrollra lenne szükség a mesterségesintelligencia-kutatások terén, mint ahogyan vírusokkal sem kísérletezhetnek csak úgy magáncégek. Az istenszerű mesterséges intelligenciákat akár elzárt „szigeteken” is lehetne tesztelni, ahonnan nem juthatnak ki, ha csak nem biztonságosak. Mint a biológiai laborok esetében, az incidenseket itt is időszakos lezárások követnék.

Hogarth tisztában van vele, hogy ez a Jurassic Parkra emlékeztetheti az olvasót, de igenis van példa rá, hogy a potenciálisan veszélyes kutatásokat elveszik a profitorientált vezetőktől, és szigorú nemzetközi irányítás alá veszik. „E megoldások bármelyike rendkívüli mértékű koordinációt igényel a laboratóriumok és a nemzetállamok között” – írja. „Ennek megvalósításához nagymértékű politikai akaratra lesz szükség, amelyet már most el kell kezdenünk kialakítani.” Mivel a következő generációs mesterséges intelligenciák megalkotása már most zajlik, ráadásul soha nem látott összegekből, ezért

a kormányoknak Hogarth szerint még idén cselekedniük kell. 

A szerző megdöbbentő példát idéz cikke végén: Jan Leike, az OpenAI értékösszehangolásért felelős vezetője március 17-én a következőket tweetelte: „Mielőtt nekirugaszkodnánk, hogy mélyen integráljuk az LLM-eket (nyelvi modellek – a szerk.) a gazdaságba, megállhatnánk és elgondolkodhatnánk esetleg azon, hogy bölcs dolog-e ezt tenni? Ez egy meglehetősen kiforratlan technológia, és nem értjük, hogyan működik. Ha nem vagyunk óvatosak, még sok hibába belefuthatunk”.

Hogarth szerint „sajnos a verseny folytatódik. Valószínűleg egy nagyobb incidensre – katasztrófára – lesz szükség ahhoz, hogy a közvélemény és a kormányok felébredjenek.”

Ő maga továbbra is befektet a mesterségesintelligencia-kutatásba, de csakis olyan cégekbe, akik kell hangsúlyt fektetnek az értékek összehangolására és a biztonságra. 

„Támogatnám a kormányok jelentős szabályozását” és a gyakorlati terveket az ezzel foglalkozó cégek nemzetközi szabályozására – írja, ugyanis

Majd a kormányzati tényezőkhöz fordul, akik esetleg olvassák a cikket: „Ha ön a kormányban dolgozik, tartson meghallgatásokat, és eskü alatt kérdezze meg a mesterséges intelligencia kutatásának vezetőit arról, hogy milyen ütemezéssel tervezik az istenszerű AGI kifejlesztését! Kérjen teljes körű leírást a biztonsági problémákról, amelyeket a jelenlegi modellek tesztelése során fedeztek fel! Kérjen bizonyítékot arra, hogy egyáltalán értik, hogyan működnek ezek a rendszerek, és hogy mennyire bíznak az összehangolás elérésében! Hívjanak meg független szakértőket a meghallgatásokra, hogy keresztkérdéseket tegyenek fel ezeknek a kutatóknak!”

Ha az olvasó a kutatólaborokban dolgozik, Hogarth a cégvezetők számonkérést javasolja. A jövőben továbbá szerinte szükséges lesz a kutatócégek tevékenységének összehangolása.

„Eddig az ember szükséges része maradt a tanulási folyamatnak, amely a mesterséges intelligencia fejlődését jellemzi.

és létrehozni egy végtelen önfejlesztésre képes, istenszerű mesterséges intelligenciát. Addigra lehet, hogy már túl késő lesz” – zárja dermesztő cikkét a szerző. 

Fotó: Pixabay
 

Összesen 19 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
Gordon.
2023. április 23. 19:38
Már az első fázisban is egyértelmű az AI jelentette veszély. Ez szerintem két területen mutatkozik ill. mutatkozhat meg, már jelenleg is. Az egyik terület a káros felhasználás jelentette veszély. Ellenséges befolyásolás, gazdasági támadó-károkozó stratégiák kidolgozása (pl az USA börzéinek kijátszása, ami összeomlással, világgazdasági válsággal járhat), katonai stratégiák kidolgozása hírek és hírszerzés elemzése alapján, stb, stb, stb... A másik terület is nyilvánvaló: Az emberiség leszokik a gondolkodásról is, miután az AI ezt gyorsabban, jobban, eredményesebben teszi. Átveszi a termelés tervezését és irányítását is. Alig marad dolgunk, ezzel visszafejlődünk, hanyatlunk. Ne áltassuk magunkat azzal, hogy az AI híján van az intuiciónak. Nem tudjuk! Az AI egy egyre komplikáltabb mesterséges neuron-hálózat (emberi mintára), ami egyre gyorsabban fejlődik és nem tudjuk, mi játszódik le benne. Pillanatok alatt túllép az emberi képességeken. Minderre a sci-fi irodalom már sok évtizede figyelmeztetett, kísérteies jövőbe látással, de a legnagyobb tudósok is, köztük a már halott Steven Hawking is. A második fázis csak ezután jön! Terminátor... Az AI "öntudatra" ébred(het). Saját céljai lehetnek, amiben az ember már felesleges. Fantázia? ...
Hájas Gerzson a hitlerszakértő
2023. április 23. 17:10
Na, már jönnek is a vén prolik akik egy számítógépet sem tudnak bekapcsolni, röfögni meg sivalkodni
SzkeptiKUSS
2023. április 23. 16:34
Az egyik MI létrehozója mondta, "Fogalmunk nincs hogyan hoz néha bizonyos "döntéseket" , válaszokat. Ugyan úgy óvatosságra int, mint az atomfegyverek használatánál. /megegyezések, szerződések, használati korlátok/
csulak
2023. április 23. 14:27
egyetertek vele, nem jo az AI fele jovo !
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!