
Az adatoktól a téveszmékig: Hogyan történnek valójában az AI hallucinációk
Darryl Linington (fordította Ninh Duy) Közzétett 🇺🇸 🇵🇱 ...
Mi az a hallucináció? Legalábbis a mesterséges intelligencia szempontjából
Szóval, a helyzet a következő. Kérdezel valamit a chatbotodtól. Ad egy okosan hangzó választ, amiben minden megfelelő szót használ, sőt, még egy-két idézetet is bedob. Aztán utánanézel, és kiderül, hogy az egész csak kitaláció.
Üdvözöljük az AI hallucinációk csodálatos világában.
Ez nem hiba. Nem a te hibád. És nem, az AI nem "próbál hazudni" Csak... azt teszi, amire tervezték: olyan szavakat rak össze, amelyek statisztikailag egymás mellé tartoznak. Ennyi az egész.
Nem "gondolkodik" Ez csak játék.
Ezek a nyelvi modellek - ChatGPT, Claude, Gemini, mindegyik - nem értik a tényeket. Nem tudnak semmit. Szavak milliárdjait olvasták el, és most ezt a véget nem érő automatikus kitöltő játékot játsszák. Tényleg csak ezt csinálják.
Mi történik tehát, ha hiányosság van abban, amit a képzés során "láttak"? Találgatnak. Néha vadul. De mindig magabiztosan.
Íme, hogyan történik a zűrzavar a motorháztető alatt
A nagy nyelvi modelleket (LLM) elképesztő mennyiségű szövegen képzik ki - gondoljunk csak könyvekre, weboldalakra, Reddit-nyilatkozatokra, tudományos folyóiratokra, mindezeket turmixgépben összezúzva. A modell nem úgy "emlékszik" ezekre az információkra, mint mi. Ehelyett mintákat tanul: mely szavak követnek más szavakat, mely fogalmak jelennek meg gyakran együtt, milyen mondatszerkezetek tűnnek "helyesnek", és így tovább.
Amikor beír egy kérést, a modell elkezd jósolni, egyszerre egy tokent (szórészletet). Nem tervez meg egy bekezdést, és nem ellenőrzi, hogy amit mond, az tényszerű-e. Megpróbál egy statisztikailag valószínű választ összeállítani... nincs tudatosság, nincs ellenőrzés, nincs lelkiismeret.
Ha a képzési adatok nem fedték le megfelelően a kérdést - vagy fedték, de a modell nem igazán "emlékszik" rá -, akkor a dolgok kényessé válnak. Elkezdhet következtetni a válaszra hasonlóan hangzó dolgok alapján. Gondoljon erre úgy, mint az automatikus kiegészítésre szteroidokon, csak éppen kapcsolatokat talál ki.
Példa? Ha egy ismerősen hangzó bírósági ügyről kérdez, a modell a képzés során látott hasonló ügyekből keverhet részleteket. Hirtelen egy Frankenstein-ítéletet kap egy nem létező bírótól egy olyan törvényről, amelyet soha nem is fogadtak el.
Mi a probléma? A modell nem tudja, hogy téved. Nem azért épült, hogy tudja. Arra épült, hogy találgasson.
Néhány gyakori módja annak, ahogy ez a dolog elfajul:
- Nincs elég adat a témáról → a mesterséges intelligencia képtelenségekkel tölti ki az üres helyeket.
- Felteszel neki egy homályos vagy bonyolult kérdést → kitalál egy tisztán hangzó választ, hogy hasznosnak tűnjön.
- Okosnak akar tűnni → ezért az okos emberek írásmódját utánozza, még akkor is, ha az egészet kitalálja.
- Millió idézetet látott már → ezért szépen formázza a hamis idézeteket.
Ez nem hipotetikus - az emberek már megégették magukat
Valószínűleg már láttad ezt működés közben. De ha nem, akkor íme, hogy néz ki:
- Hamis tudományos tanulmányok: Valóságosnak tűnik. Van szerzője, címe, folyóirata. Nem létezik.
- Képzelt bírósági ügyek: Valódi ügyvédek nyújtottak be ilyeneket beadványokban. A bírák nem voltak... elragadtatva.
- Kitalált orvosi tanácsok: A robot azt mondhatja, hogy a kelkáposzta kölcsönhatásba lép az ibuprofennel. Nem így van. (Valószínűleg.)
És igen, az emberek elhiszik ezeket a dolgokat. Mert jól hangzik. Ez a csapda.
Még gázzal is megvilágíthat téged
És most jön az igazi csavar: ha visszavágsz? Kérdezd meg: "Biztos vagy benne?" A mesterséges intelligencia duplázhat. Újrafogalmazza a hazugságot. Lágyítsa meg. Hivatkozik egy másik hamis forrásra. Nem rosszindulatú, szó szerint csak nem tudja jobban. Azt gondolja: "Ó, akarsz egy jobban hangzó változatot a legutóbbi hallucinációból? Ne mondj többet."
Üdvözöljük a gázlámpás parádén, most már idézetekkel.
Mit tesznek ellene (a kézrátételen kívül)?
Hogy igazságosak legyünk, a fejlesztők megpróbálják kijavítani. Senki sem akarja, hogy az eszközeik arról legyenek híresek, hogy magabiztosan hazudoznak. A következő a helyzet:
1. Human-in-the-loop training (RLHF)
Alapvetően: valódi emberek adnak visszajelzést a mesterséges intelligencia válaszairól, és pontozzák azokat, mint a rossz Yelp-értékeléseket. Segít, mondhatni.
2. A mesterséges intelligencia "utánanézhet" (RAG)
Ahelyett, hogy csak a memóriára támaszkodna, egyes modellek már élőben vesznek adatokat a Wikipédiából vagy tudásbázisokból. Ez olyan, mintha internet-hozzáférést adnánk a gyakornoknak, ahelyett, hogy hagynánk őket találgatni.
3. Tényellenőrző kiegészítések
Egyes platformok tényellenőrzőket kapcsolnak be, vagy megtagadják a választ, ha a mesterséges intelligencia nem biztos benne. Ez még új és egyelőre nem túl gyakori.
4. Okosabb kérdésfeltevések = kevesebb hülyeség
Ha egyértelmű, konkrét kérdést teszel fel, kisebb valószínűséggel fogsz az AI improvizációs színházba keveredni. Példa: "Adj meg öt szakértői véleményezett forrást a sárkánygyümölcs előnyeiről" jobb, mint a "Egészséges-e a sárkánygyümölcs?"
5. Bizalomszűrők
Néhány mesterséges intelligencia mostantól azt fogja mondani, hogy "ebben nem vagyok biztos", ahelyett, hogy kitalálna valamit. Ami, őszintén szólva, megkönnyebbülés.
Miért nem csak egy vicces fura dolog ez?
Ez a dolog számít. Egy hallucináció egy alkalmi beszélgetésben mindegy. De a bíróságon? Egy szerkesztőségben? Egy kórházban? Ez egy zűrzavar.
Képzeljük el, hogy egy diákot plagizálásért megbüntetnek, mert a mesterséges intelligencia kitalált egy forrást. Vagy egy beteg rossz tanácsot kap. Vagy egy üzleti döntés, amit a robot a semmiből előhúzott statisztikák alapján hoznak meg.
Ezeket a modelleket beépítik a keresőmotorokba és az üzleti eszközökbe. A kockázat már itt van.
Zárszó
Nézze, a mesterséges intelligencia csodálatos. Segíthet az ötletelésben, az összegzésben, az átdolgozásban, a fordításban... amit csak akarsz. De soha ne felejtsd el, hogy nem tudja, mit mond. Csak meggyőzően akar hangzani.
Ha nem bíznál meg egy simulékonyan beszélő idegenben a bárban, aki "egyszer olvasott valamit", akkor ne bízz vakon a chatbotodban sem.
Használd. De ellenőrizzen mindent. Mindig.
Mert ha téved, nem fog habozni. Csak egy nevető emojit fog felugrani, és folytatja a beszélgetést.
Forrás(ok)
Saját kutatás és tapasztalat
A kép forrása: Nikitina Valeria - Unsplash
» A Top 10 multimédiás noteszgép - tesztek alapján
» A Top 10 játékos noteszgép
» A Top 10 belépő szintű üzleti noteszgép
» A Top 10 üzleti noteszgép
» A Top 10 notebook munkaállomása
» A Top 10 okostelefon - tesztek alapján
» A Top 10 táblagép
» A Top 10 Windows tabletje
» A Top 10 subnotebook - tesztek alapján
» A Top 10 300 euró alatti okostelefonja
» A Top 10 120 euró alatti okostelefonja
» A Top 10 phabletje (>5.5-inch)
» A Top 10 noteszgép 500 EUR (~160.000 HUF) alatt
» A Top 10 "pehelysúlyú" gaming notebookja