A chatbotok legújabb generációja felszínre hozta a mesterséges intelligencia egyre kifinomultabbá és hozzáférhetőbbé válásával kapcsolatos, régóta fennálló aggodalmakat.
A munkaerőpiac integritásával kapcsolatos félelmek – a kreatív gazdaságtól a vezetői osztályig – átterjedtek az osztálytermekre, ahogy a pedagógusok a ChatGPT nyomán újra gondolják a tanulást.
Miközben azonban a foglalkoztatással és az iskolákkal kapcsolatos aggodalmak uralják a címlapokat, az igazság az, hogy a ChatGPT-hez hasonló nagyméretű nyelvi modellek hatásai életünk gyakorlatilag minden szegletét érinteni fogják. Ezek az új eszközök az egész társadalmat érintő aggodalmakat vetnek fel a mesterséges intelligencia szerepével kapcsolatban a társadalmi előítéletek megerősítésében, a csalások és személyazonosság-lopások elkövetésében, az álhírek generálásában, a félretájékoztatás terjesztésében és még sok másban.
A Pennsylvaniai Egyetem Műszaki és Alkalmazott Tudományok Iskolájának kutatócsoportja arra törekszik, hogy képessé tegye a technológiai felhasználókat e kockázatok mérséklésére. Az Association for the Advancement of Artificial Intelligence ülésén bemutatott, lektorált tanulmányukban a szerzők bemutatják, hogy az emberek megtanulhatják felismerni a különbséget a gép által generált és az ember által írt szövegek között.
Mielőtt kiválaszt egy receptet, megoszt egy cikket, vagy megadja a hitelkártya adatait, fontos tudni, hogy vannak lépések, amelyeket megtehet a forrás megbízhatóságának felismerése érdekében.
A Chris Callison-Burch, az Informatikai és Információtudományi Tanszék (CIS) docense, valamint Liam Dugan és Daphne Ippolito, a CIS doktorandusz hallgatói által vezetett tanulmány bizonyítékot szolgáltat arra, hogy a mesterséges intelligenciával generált szövegek felismerhetők.
“Megmutattuk, hogy az emberek képesek betanítani magukat a gép által generált szövegek felismerésére” – mondja Callison-Burch. “Az emberek bizonyos feltételezésekből indulnak ki azzal kapcsolatban, hogy milyen hibákat követne el egy gép, de ezek a feltételezések nem feltétlenül helyesek. Idővel, elegendő példát és egyértelmű utasítást adva megtanulhatjuk, hogy felismerjük azokat a hibatípusokat, amelyeket a gépek jelenleg elkövetnek.”
“A mesterséges intelligencia ma már meglepően jól képes nagyon gördülékeny, nyelvtani szövegeket előállítani” – teszi hozzá Dugan. “De hibázik is. Bebizonyítottuk, hogy a gépek jól megkülönböztethető hibatípusokat követnek el – például a józan ész hibáit, a relevanciahibákat, az érvelési hibákat és a logikai hibákat -, amelyeket megtanulhatunk kiszűrni.”
A tanulmány a Real or Fake Text?, egy eredeti webes oktatójáték segítségével gyűjtött adatokat használja.
Ez a tréningjáték azért figyelemre méltó, mert a felismerési tanulmányok standard kísérleti módszerét átalakítja annak pontosabb rekonstrukciójává, ahogyan az emberek a mesterséges intelligenciát használják a szövegek létrehozására.
A standard módszerekben a résztvevőknek igennel vagy nemmel kell jelezniük, hogy egy adott szöveget egy gép állított-e elő. Ez a feladat egyszerűen a szöveg valódi vagy hamis szövegként való besorolását jelenti, és a válaszokat helyes vagy helytelen válaszként pontozzák.
A Penn-modell jelentősen finomítja a szabványos felismerési vizsgálatot egy hatékony képzési feladattá azáltal, hogy olyan példákat mutat be, amelyek mind ember által írtnak indulnak. Ezután minden példa átmegy generált szövegbe, és arra kéri a résztvevőket, hogy jelöljék meg, szerintük hol kezdődik ez az átmenet. A gyakornokok azonosítják és leírják a szöveg azon jellemzőit, amelyek hibára utalnak, és pontszámot kapnak.
A vizsgálat eredményei azt mutatják, hogy a résztvevők a véletlennél lényegesen jobb pontszámot értek el, ami bizonyítékot szolgáltat arra, hogy a mesterséges intelligencia által létrehozott szöveg bizonyos mértékig felismerhető.
“A mi módszerünk nemcsak játékossá teszi a feladatot, így vonzóbbá is, hanem reálisabb kontextust is biztosít a képzéshez” – mondja Dugan. “A generált szövegek, mint például a ChatGPT által előállítottak, ember által adott felkérésekkel kezdődnek.”
A tanulmány nemcsak a mesterséges intelligenciáról szól napjainkban, hanem egy megnyugtató, sőt izgalmas jövőt is felvázol a technológiához való viszonyunk számára.
“Öt évvel ezelőtt” – mondja Dugan – “a modellek nem tudtak a témánál maradni vagy egy folyékony mondatot produkálni. Ma már ritkán követnek el nyelvtani hibát. Tanulmányunk azonosítja azokat a hibákat, amelyek az AI chatbotokat jellemzik, de fontos szem előtt tartani, hogy ezek a hibák fejlődtek és fejlődni fognak. Az eltolódás, ami miatt aggódnunk kell, nem az, hogy az AI által írt szövegek nem észlelhetők. Hanem az, hogy az embereknek továbbra is képezniük kell magukat, hogy felismerjék a különbséget, és kiegészítésként felismerő szoftverekkel kell dolgozniuk.”
“Az emberek jogos okokból aggódnak az AI miatt” – mondja Callison-Burch. “Tanulmányunk bizonyítékokkal szolgál ezen aggodalmak eloszlatására. Amint sikerül leküzdenünk az AI szöveggenerátorokkal kapcsolatos optimizmusunkat, képesek leszünk figyelmet szentelni annak, hogy ezek az eszközök segíteni tudnak nekünk abban, hogy fantáziadúsabb, érdekesebb szövegeket írjunk.”
Ippolito, a Penn-tanulmány társvezetője és jelenleg a Google kutatója, kiegészíti Dugan felismerésre összpontosító munkáját azzal, hogy munkájában az ilyen eszközök leghatékonyabb felhasználási eseteinek feltárására helyezi a hangsúlyt. Közreműködött például a Wordcraft, egy mesterséges intelligenciával működő kreatív íróeszköz kifejlesztésében, amelyet publikált írókkal közösen fejlesztettek ki. Egyik író vagy kutató sem találta úgy, hogy az AI meggyőzően helyettesítené a szépirodalmi írót, de jelentős értéket találtak abban, hogy képes támogatni a kreatív folyamatot.
“Jelen pillanatban az az érzésem, hogy ezek a technológiák a kreatív íráshoz a legalkalmasabbak” – mondja Callison-Burch. “A hírek, a határidős dolgozatok vagy a jogi tanácsadás rossz felhasználási esetek, mert nincs garancia a tényszerűségre.”
“Vannak izgalmas pozitív irányok, amelyekbe ezt a technológiát terelhetjük” – mondja Dugan. “Az emberek az aggasztó példákra, például a plágiumra és az álhírekre fixálódnak, de most már tudjuk, hogy képezhetjük magunkat arra, hogy jobb olvasók és írók legyünk.”
Devorah Fischler
Február 27, 2023