Az M.I. kockázatai
Sok M.I.-fejlesztő úgy véli, hogy az általuk létrehozott technológiák javítani fogják az életünket. Egyesek azonban már évtizedek óta figyelmeztetnek egy sötétebb forgatókönyvre, amikor a teremtményeink nem mindig azt teszik, amit szeretnénk, vagy kiszámíthatatlan módon követik az utasításainkat, ami súlyos következményekkel járhat.
Az M.I.-szakértők az “összehangolásról” beszélnek, vagyis arról, hogy az M.I.-rendszerek összhangban legyenek az emberi értékekkel és célokkal.
A GPT-4 kiadása előtt az OpenAI átadta azt egy külső csoportnak, hogy képzelje el és tesztelje a chatbot veszélyes felhasználási módjait.
A csoport megállapította, hogy a rendszer képes volt felvenni egy embert online, hogy legyőzzön egy Captcha-tesztet. Amikor az ember megkérdezte, hogy “robot-e”, a rendszer a tesztelők felszólítása nélkül hazudott, és azt mondta, hogy egy látássérült ember.
A tesztelők azt is kimutatták, hogy a rendszert rá lehetett venni arra, hogy javaslatot tegyen arra, hogyan lehet illegális lőfegyvereket vásárolni az interneten, és hogy leírja, hogyan lehet veszélyes anyagokat előállítani háztartási cikkekből. Az OpenAI által végrehajtott változtatások után a rendszer már nem teszi ezeket a dolgokat.
De lehetetlen minden lehetséges visszaélést kiküszöbölni. Ahogy egy ilyen rendszer tanul az adatokból, olyan képességeket fejleszt ki, amelyekre alkotói nem számítottak. Nehéz tudni, hogy a dolgok hogyan romolhatnak el, miután emberek milliói kezdik használni.
“Minden alkalommal, amikor egy új mesterséges intelligencia rendszert készítünk, nem tudjuk teljes mértékben jellemezni az összes képességét és az összes biztonsági problémáját – és ez a probléma idővel inkább rosszabbodik, mint javul” – mondta Jack Clark, az Anthropic, egy San Francisco-i start-up cég alapítója és politikai vezetője.
Az OpenAI és az olyan óriások, mint a Google, aligha az egyetlenek, akik ezt a technológiát vizsgálják. Az alapvető módszerek, amelyekkel ezeket a rendszereket építik, széles körben ismertek, és más vállalatok, országok, kutatólaboratóriumok is hozzáférnek.
Az M.I. szabályozása
Végső soron a veszélyes A.I. technológiák kordában tartásához messzemenő felügyeletre lesz szükség. A szakértők azonban nem optimisták.
“Olyan szabályozási rendszerre van szükségünk, amely nemzetközi” – mondta Aviv Ovadya, a Harvardon működő Berkman Klein Center for Internet & Society kutatója, aki a GPT-4 tesztelésében segédkezett, mielőtt megjelent volna. “De nem látom, hogy a meglévő kormányzati intézményeink képesek lennének olyan ütemben navigálni ebben, ahogyan az szükséges lenne.”
Több mint 1000 technológiai vezető és kutató, köztük Elon Musk, arra szólította fel a mesterséges intelligenciával foglalkozó laboratóriumokat, hogy szüneteltessék a legfejlettebb rendszerek fejlesztését, nyílt levélben figyelmeztetve, hogy az M.I.-eszközök “mélyreható kockázatokat jelentenek a társadalomra és az emberiségre”.
A levél szerint az M.I.-fejlesztők “egy kontrollálatlan versenyfutásba kerültek, hogy egyre erősebb digitális elméket fejlesszenek ki és alkalmazzanak, amelyeket senki – még alkotóik sem – nem tud megérteni, megjósolni vagy megbízhatóan irányítani”.
Egyes szakértők leginkább a közeljövő veszélyei miatt aggódnak, beleértve a dezinformáció terjedését és annak kockázatát, hogy az emberek pontatlan vagy káros orvosi és érzelmi tanácsokat adnak ezeknek a rendszereknek.
Más kritikusok azonban a racionalistáknak vagy hatékony altruistáknak nevezett hatalmas és befolyásos online közösséghez tartoznak, akik úgy vélik, hogy az M.I. végül elpusztíthatja az emberiséget. Ez a gondolkodásmód tükröződik a levélben.
Cade Metz
Március 31, 2023