Világszerte megdöbbenést váltott ki a ChatGPT és más mesterséges intelligenciák gyors fejlődése, amelyet az úgynevezett nagy nyelvi modellekkel (LLM) hoztak létre. Ezek a rendszerek olyan szöveget képesek előállítani, amely látszólag gondolkodásról, megértésről, sőt kreativitásról árulkodik.
De vajon tényleg tudnak-e ezek a rendszerek gondolkodni és megérteni? Erre a kérdésre nem a technológiai fejlődéssel lehet választ adni, hanem a gondos filozófiai elemzéssel és érveléssel, ami azt mutatja, hogy a válasz nem. És e filozófiai kérdések feldolgozása nélkül soha nem fogjuk teljesen megérteni a mesterséges intelligencia forradalmának veszélyeit és előnyeit.
1950-ben a modern számítástechnika atyja, Alan Turing publikált egy tanulmányt, amelyben kifejtette, hogyan lehet megállapítani, hogy egy számítógép gondolkodik-e. Ezt ma “Turing-tesztnek” nevezik. Turing elképzelte, hogy egy ember beszélgetést folytat két, a szemünk elől elrejtett beszélgetőpartnerrel: az egyik egy másik ember, a másik egy számítógép. A teszt lényege, hogy kitaláljuk, melyikük melyik.
Ha a számítógép egy ötperces beszélgetés során a bírálók 70%-át képes becsapni, hogy azt higgye, hogy ember, akkor a számítógép átmegy a teszten. Vajon a Turing-teszt teljesítése – ami ma már küszöbön állónak tűnik – azt mutatná, hogy egy mesterséges intelligencia gondolkodó és megértő?
Sakk-teszt
Turing tévedett, amikor azt mondta, hogy a “megértés” egyetlen egyértelmű fogalma az pusztán viselkedéses, a tesztjén való megfelelés. Bár ma már ez a gondolkodásmód uralja a kognitív tudományt, a “megértésnek” van egy világos, mindennapi fogalma is, amely a tudatossághoz kötődik. Ebben az értelemben megérteni annyit jelent, mint tudatosan megragadni valamilyen igazságot a valóságról.
1997-ben a Deep Blue mesterséges intelligencia legyőzte Garri Kaszparov sakknagymestert. A megértés tisztán viselkedéses felfogása szerint a Deep Blue olyan sakkstratégiai ismeretekkel rendelkezett, amelyek minden embert felülmúltak. De nem volt tudatos: nem voltak érzései vagy tapasztalatai.

Az emberek tudatosan értik a sakk szabályait és a stratégia logikáját. Deep Blue ezzel szemben egy érzés nélküli mechanizmus volt, amelyet arra idomítottak, hogy jól teljesítsen a játékban. Hasonlóképpen, a ChatGPT egy érzéketlen mechanizmus, amelyet hatalmas mennyiségű, ember által készített adaton képeztek ki, hogy olyan tartalmat hozzon létre, amely úgy tűnik, mintha egy ember írta volna.
Nem érti tudatosan a szavak jelentését, amelyeket kiköp. Ha a “gondolat” a tudatos gondolkodás aktusát jelenti, akkor a ChatGPT-nek nincsenek gondolatai semmiről.
Szünet a fejlődésben
A tudósok álláspontja szerint a tudatosságnak azért kellett kifejlődnie, mert ez viselkedésbeli különbséget jelentett. A tudattal rendelkező rendszereknek másképp kell viselkedniük, és ezért jobban kell túlélniük, mint a tudat nélküli rendszereknek.
Ha minden viselkedést a mögöttes kémia és fizika határozna meg, a természetes szelekciónak nem lenne motivációja arra, hogy az organizmusokat tudatossá tegye; érzés nélküli túlélési mechanizmusokként fejlődtünk volna ki.
Bizonyos tehát, hogy ahogy egyre többet tudunk meg az agy részletes működéséről, pontosan azonosítani fogjuk, hogy az agy mely területei testesítik meg a tudatot. Ezek a területek ugyanis olyan viselkedést fognak mutatni, amelyet a jelenleg ismert kémia és fizika nem tud megmagyarázni. Néhány idegtudós már most is a tudatosság lehetséges új magyarázatai után kutat, hogy kiegészítse a fizika alapvető egyenleteit.
Bár az LLM-ek feldolgozása jelenleg túl bonyolult ahhoz, hogy teljesen megértsük, tudjuk, hogy elvileg megjósolható lenne az ismert fizikából. Ennek alapján bátran állíthatjuk, hogy a ChatGPT nem tudatos.
A mesterséges intelligencia számos veszélyt rejt magában, és teljes mértékben támogatom a több tízezer ember – köztük Steve Wozniak és Elon Musk technológiai vezetők – által nemrégiben megfogalmazott felhívást, hogy a biztonsági aggályok kezelése érdekében szüneteltessék a fejlesztést. A csalás lehetősége például óriási. Az az érv azonban, hogy a jelenlegi mesterséges intelligencia rendszerek közel jövőbeni utódai szuperintelligensek lesznek, és így komoly fenyegetést jelentenek az emberiségre, elhamarkodott.
Ez nem jelenti azt, hogy a jelenlegi mesterséges intelligencia rendszerek nem veszélyesek. De csak akkor tudjuk helyesen felmérni a veszélyt, ha pontosan kategorizáljuk azt. Az LLM-ek nem intelligensek. Ezek olyan rendszerek, amelyeket arra képeztek ki, hogy az emberi intelligencia külső megjelenését keltsék. Félelmetesek, de nem annyira kezelhetetlenek.
Philip Goff
Május 18, 2023