Skip to content

Petaflop.hu

A gondolkodás új dimenziója – tech hírek és fejlesztések

Menu
  • Címlap
  • Elektronika
  • Szoftver
  • Innovációk
  • VR/AR
  • AI Toolkit
Menu

Nézőpont: ChatGPT nem tud gondolkodni. A tudatosság valami egészen más, mint a mai mesterséges intelligencia?

Posted on 2023.05.23.

Világszerte megdöbbenést váltott ki a ChatGPT és más mesterséges intelligenciák gyors fejlődése, amelyet az úgynevezett nagy nyelvi modellekkel (LLM) hoztak létre. Ezek a rendszerek olyan szöveget képesek előállítani, amely látszólag gondolkodásról, megértésről, sőt kreativitásról árulkodik.

De vajon tényleg tudnak-e ezek a rendszerek gondolkodni és megérteni? Erre a kérdésre nem a technológiai fejlődéssel lehet választ adni, hanem a gondos filozófiai elemzéssel és érveléssel, ami azt mutatja, hogy a válasz nem. És e filozófiai kérdések feldolgozása nélkül soha nem fogjuk teljesen megérteni a mesterséges intelligencia forradalmának veszélyeit és előnyeit.

1950-ben a modern számítástechnika atyja, Alan Turing publikált egy tanulmányt, amelyben kifejtette, hogyan lehet megállapítani, hogy egy számítógép gondolkodik-e. Ezt ma “Turing-tesztnek” nevezik. Turing elképzelte, hogy egy ember beszélgetést folytat két, a szemünk elől elrejtett beszélgetőpartnerrel: az egyik egy másik ember, a másik egy számítógép. A teszt lényege, hogy kitaláljuk, melyikük melyik.

Ha a számítógép egy ötperces beszélgetés során a bírálók 70%-át képes becsapni, hogy azt higgye, hogy ember, akkor a számítógép átmegy a teszten. Vajon a Turing-teszt teljesítése – ami ma már küszöbön állónak tűnik – azt mutatná, hogy egy mesterséges intelligencia gondolkodó és megértő?

Sakk-teszt

Turing tévedett, amikor azt mondta, hogy a “megértés” egyetlen egyértelmű fogalma az pusztán viselkedéses, a tesztjén való megfelelés. Bár ma már ez a gondolkodásmód uralja a kognitív tudományt, a “megértésnek” van egy világos, mindennapi fogalma is, amely a tudatossághoz kötődik. Ebben az értelemben megérteni annyit jelent, mint tudatosan megragadni valamilyen igazságot a valóságról.

1997-ben a Deep Blue mesterséges intelligencia legyőzte Garri Kaszparov sakknagymestert. A megértés tisztán viselkedéses felfogása szerint a Deep Blue olyan sakkstratégiai ismeretekkel rendelkezett, amelyek minden embert felülmúltak. De nem volt tudatos: nem voltak érzései vagy tapasztalatai.

Az emberek tudatosan értik a sakk szabályait és a stratégia logikáját. Deep Blue ezzel szemben egy érzés nélküli mechanizmus volt, amelyet arra idomítottak, hogy jól teljesítsen a játékban. Hasonlóképpen, a ChatGPT egy érzéketlen mechanizmus, amelyet hatalmas mennyiségű, ember által készített adaton képeztek ki, hogy olyan tartalmat hozzon létre, amely úgy tűnik, mintha egy ember írta volna.

Nem érti tudatosan a szavak jelentését, amelyeket kiköp. Ha a “gondolat” a tudatos gondolkodás aktusát jelenti, akkor a ChatGPT-nek nincsenek gondolatai semmiről.

Szünet a fejlődésben


A tudósok álláspontja szerint a tudatosságnak azért kellett kifejlődnie, mert ez viselkedésbeli különbséget jelentett. A tudattal rendelkező rendszereknek másképp kell viselkedniük, és ezért jobban kell túlélniük, mint a tudat nélküli rendszereknek.

Ha minden viselkedést a mögöttes kémia és fizika határozna meg, a természetes szelekciónak nem lenne motivációja arra, hogy az organizmusokat tudatossá tegye; érzés nélküli túlélési mechanizmusokként fejlődtünk volna ki.

Bizonyos tehát, hogy ahogy egyre többet tudunk meg az agy részletes működéséről, pontosan azonosítani fogjuk, hogy az agy mely területei testesítik meg a tudatot. Ezek a területek ugyanis olyan viselkedést fognak mutatni, amelyet a jelenleg ismert kémia és fizika nem tud megmagyarázni. Néhány idegtudós már most is a tudatosság lehetséges új magyarázatai után kutat, hogy kiegészítse a fizika alapvető egyenleteit.

Bár az LLM-ek feldolgozása jelenleg túl bonyolult ahhoz, hogy teljesen megértsük, tudjuk, hogy elvileg megjósolható lenne az ismert fizikából. Ennek alapján bátran állíthatjuk, hogy a ChatGPT nem tudatos.

A mesterséges intelligencia számos veszélyt rejt magában, és teljes mértékben támogatom a több tízezer ember – köztük Steve Wozniak és Elon Musk technológiai vezetők – által nemrégiben megfogalmazott felhívást, hogy a biztonsági aggályok kezelése érdekében szüneteltessék a fejlesztést. A csalás lehetősége például óriási. Az az érv azonban, hogy a jelenlegi mesterséges intelligencia rendszerek közel jövőbeni utódai szuperintelligensek lesznek, és így komoly fenyegetést jelentenek az emberiségre, elhamarkodott.

Ez nem jelenti azt, hogy a jelenlegi mesterséges intelligencia rendszerek nem veszélyesek. De csak akkor tudjuk helyesen felmérni a veszélyt, ha pontosan kategorizáljuk azt. Az LLM-ek nem intelligensek. Ezek olyan rendszerek, amelyeket arra képeztek ki, hogy az emberi intelligencia külső megjelenését keltsék. Félelmetesek, de nem annyira kezelhetetlenek.

Philip Goff

Május 18, 2023

Vélemény, hozzászólás? Válasz megszakítása

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük

Legutóbbi bejegyzések

  • Próbálja ki a Google új A.I.-zeneszolgáltatását: Itt van, hogyan
  • Az A.I. felemelkedése a zeneiparban. Kell-e aggodnunk?
  • A mesterséges inteligencia (M.I.) lehetséges veszélyei
  • Mi az A.I. jövője?
  • Hogyan változtathatja meg az A.I. a munka jövőjét?
300x300

Petaflop.hu

A Petaflop magazin célja, hogy a legújabb technológiai fejleményekről, trendekről és innovációkról tájékoztassa az olvasóit. A magazin lehetővé teszi, hogy az olvasók megértsék és elmélyüljenek a technológia által kínált lehetőségekben és kihívásokban, valamint segít nekik a döntéshozatali folyamatokban, amikor a technológiai eszközöket és szolgáltatásokat használják. A magazin célja az is, hogy olvasóit inspirálja, hogy a technológiai újdonságokat és fejlesztéseket alkalmazni tudják saját életükben és munkájukban.

  • AI Toolkit
  • Big Tech
  • Egyéb kategória
  • Elektronika
  • Innovációk
  • Kiemelt
  • Szoftver
  • VR/AR

Kapcsolat

info@petaflop.hu
©2023 Petaflop.hu | Design: Newspaperly WordPress Theme