Notebookcheck Logo
Egy általános humanoid robot és egy kérdőjel. (Kép forrása: Valeria Nikitina - Unsplash)

Az adatoktól a téveszmékig: Hogyan történnek valójában az AI hallucinációk

A mesterséges intelligencia hallucinációk akkor történnek, amikor a chatrobotok magabiztosan kitalálnak dolgokat. Tudja meg, miért történik ez, hogyan javítják, és hogyan hathat Önre.
Darryl Linington (fordította Ninh Duy) Közzétett 🇺🇸 🇵🇱 ...
AI Opinion / Kommentar
Vélemény által Darryl Linington
A szövegben megfogalmazott nézetek, gondolatok és vélemények kizárólag a szerzőt illetik.

Mi az a hallucináció? Legalábbis a mesterséges intelligencia szempontjából

Szóval, a helyzet a következő. Kérdezel valamit a chatbotodtól. Ad egy okosan hangzó választ, amiben minden megfelelő szót használ, sőt, még egy-két idézetet is bedob. Aztán utánanézel, és kiderül, hogy az egész csak kitaláció.

Üdvözöljük az AI hallucinációk csodálatos világában.

Ez nem hiba. Nem a te hibád. És nem, az AI nem "próbál hazudni" Csak... azt teszi, amire tervezték: olyan szavakat rak össze, amelyek statisztikailag egymás mellé tartoznak. Ennyi az egész.

Nem "gondolkodik" Ez csak játék.

Ezek a nyelvi modellek - ChatGPT, Claude, Gemini, mindegyik - nem értik a tényeket. Nem tudnak semmit. Szavak milliárdjait olvasták el, és most ezt a véget nem érő automatikus kitöltő játékot játsszák. Tényleg csak ezt csinálják.

Mi történik tehát, ha hiányosság van abban, amit a képzés során "láttak"? Találgatnak. Néha vadul. De mindig magabiztosan.

Íme, hogyan történik a zűrzavar a motorháztető alatt

A nagy nyelvi modelleket (LLM) elképesztő mennyiségű szövegen képzik ki - gondoljunk csak könyvekre, weboldalakra, Reddit-nyilatkozatokra, tudományos folyóiratokra, mindezeket turmixgépben összezúzva. A modell nem úgy "emlékszik" ezekre az információkra, mint mi. Ehelyett mintákat tanul: mely szavak követnek más szavakat, mely fogalmak jelennek meg gyakran együtt, milyen mondatszerkezetek tűnnek "helyesnek", és így tovább.

Amikor beír egy kérést, a modell elkezd jósolni, egyszerre egy tokent (szórészletet). Nem tervez meg egy bekezdést, és nem ellenőrzi, hogy amit mond, az tényszerű-e. Megpróbál egy statisztikailag valószínű választ összeállítani... nincs tudatosság, nincs ellenőrzés, nincs lelkiismeret.

Ha a képzési adatok nem fedték le megfelelően a kérdést - vagy fedték, de a modell nem igazán "emlékszik" rá -, akkor a dolgok kényessé válnak. Elkezdhet következtetni a válaszra hasonlóan hangzó dolgok alapján. Gondoljon erre úgy, mint az automatikus kiegészítésre szteroidokon, csak éppen kapcsolatokat talál ki.

Példa? Ha egy ismerősen hangzó bírósági ügyről kérdez, a modell a képzés során látott hasonló ügyekből keverhet részleteket. Hirtelen egy Frankenstein-ítéletet kap egy nem létező bírótól egy olyan törvényről, amelyet soha nem is fogadtak el.

Mi a probléma? A modell nem tudja, hogy téved. Nem azért épült, hogy tudja. Arra épült, hogy találgasson.

Néhány gyakori módja annak, ahogy ez a dolog elfajul:

  • Nincs elég adat a témáról → a mesterséges intelligencia képtelenségekkel tölti ki az üres helyeket.
  • Felteszel neki egy homályos vagy bonyolult kérdést → kitalál egy tisztán hangzó választ, hogy hasznosnak tűnjön.
  • Okosnak akar tűnni → ezért az okos emberek írásmódját utánozza, még akkor is, ha az egészet kitalálja.
  • Millió idézetet látott már → ezért szépen formázza a hamis idézeteket.

Ez nem hipotetikus - az emberek már megégették magukat

Valószínűleg már láttad ezt működés közben. De ha nem, akkor íme, hogy néz ki:

  • Hamis tudományos tanulmányok: Valóságosnak tűnik. Van szerzője, címe, folyóirata. Nem létezik.
  • Képzelt bírósági ügyek: Valódi ügyvédek nyújtottak be ilyeneket beadványokban. A bírák nem voltak... elragadtatva.
  • Kitalált orvosi tanácsok: A robot azt mondhatja, hogy a kelkáposzta kölcsönhatásba lép az ibuprofennel. Nem így van. (Valószínűleg.)

És igen, az emberek elhiszik ezeket a dolgokat. Mert jól hangzik. Ez a csapda.

Még gázzal is megvilágíthat téged

És most jön az igazi csavar: ha visszavágsz? Kérdezd meg: "Biztos vagy benne?" A mesterséges intelligencia duplázhat. Újrafogalmazza a hazugságot. Lágyítsa meg. Hivatkozik egy másik hamis forrásra. Nem rosszindulatú, szó szerint csak nem tudja jobban. Azt gondolja: "Ó, akarsz egy jobban hangzó változatot a legutóbbi hallucinációból? Ne mondj többet."

Üdvözöljük a gázlámpás parádén, most már idézetekkel.

Mit tesznek ellene (a kézrátételen kívül)?

Hogy igazságosak legyünk, a fejlesztők megpróbálják kijavítani. Senki sem akarja, hogy az eszközeik arról legyenek híresek, hogy magabiztosan hazudoznak. A következő a helyzet:

1. Human-in-the-loop training (RLHF)
Alapvetően: valódi emberek adnak visszajelzést a mesterséges intelligencia válaszairól, és pontozzák azokat, mint a rossz Yelp-értékeléseket. Segít, mondhatni.

2. A mesterséges intelligencia "utánanézhet" (RAG)
Ahelyett, hogy csak a memóriára támaszkodna, egyes modellek már élőben vesznek adatokat a Wikipédiából vagy tudásbázisokból. Ez olyan, mintha internet-hozzáférést adnánk a gyakornoknak, ahelyett, hogy hagynánk őket találgatni.

3. Tényellenőrző kiegészítések
Egyes platformok tényellenőrzőket kapcsolnak be, vagy megtagadják a választ, ha a mesterséges intelligencia nem biztos benne. Ez még új és egyelőre nem túl gyakori.

4. Okosabb kérdésfeltevések = kevesebb hülyeség
Ha egyértelmű, konkrét kérdést teszel fel, kisebb valószínűséggel fogsz az AI improvizációs színházba keveredni. Példa: "Adj meg öt szakértői véleményezett forrást a sárkánygyümölcs előnyeiről" jobb, mint a "Egészséges-e a sárkánygyümölcs?"

5. Bizalomszűrők
Néhány mesterséges intelligencia mostantól azt fogja mondani, hogy "ebben nem vagyok biztos", ahelyett, hogy kitalálna valamit. Ami, őszintén szólva, megkönnyebbülés.

Miért nem csak egy vicces fura dolog ez?

Ez a dolog számít. Egy hallucináció egy alkalmi beszélgetésben mindegy. De a bíróságon? Egy szerkesztőségben? Egy kórházban? Ez egy zűrzavar.

Képzeljük el, hogy egy diákot plagizálásért megbüntetnek, mert a mesterséges intelligencia kitalált egy forrást. Vagy egy beteg rossz tanácsot kap. Vagy egy üzleti döntés, amit a robot a semmiből előhúzott statisztikák alapján hoznak meg.

Ezeket a modelleket beépítik a keresőmotorokba és az üzleti eszközökbe. A kockázat már itt van.

Zárszó

Nézze, a mesterséges intelligencia csodálatos. Segíthet az ötletelésben, az összegzésben, az átdolgozásban, a fordításban... amit csak akarsz. De soha ne felejtsd el, hogy nem tudja, mit mond. Csak meggyőzően akar hangzani.

Ha nem bíznál meg egy simulékonyan beszélő idegenben a bárban, aki "egyszer olvasott valamit", akkor ne bízz vakon a chatbotodban sem.

Használd. De ellenőrizzen mindent. Mindig.

Mert ha téved, nem fog habozni. Csak egy nevető emojit fog felugrani, és folytatja a beszélgetést.

Forrás(ok)

Saját kutatás és tapasztalat

A kép forrása: Nikitina Valeria - Unsplash

Please share our article, every link counts!
Mail Logo
> Magyarország - Kezdőlap > Newsarchive 2025 07 > Az adatoktól a téveszmékig: Hogyan történnek valójában az AI hallucinációk
Darryl Linington, 2025-07-20 (Update: 2025-07-20)