A The Guardian nemrégiben megjelent jelentése szerinta legújabb ChatGPT modell egyre inkább Elon Musk Grokipedia nevű online enciklopédiáját használja a kérdések megválaszolásához. A vizsgálat részeként a mesterséges intelligencia különböző témákhoz, például az iráni politikai struktúrákhoz, valamint történelmi személyiségek életrajzi adataihoz idézte a platformot.
Ez a fejlemény aggályokat vet fel a ChatGPT által nyújtott információk minőségével kapcsolatban. Pontosabban, ezek az adatok nem mennek át ugyanazokon az ellenőrzési folyamatokon, mint a szerkesztőségek vagy egy nagyobb közösség által fenntartott források.
A Grokipédiát Elon Musk hozta létre a bevett Wikipédia versenytársaként. Míg Musk a Wikipédiát baloldali elfogultsággal vádolja, és azt állítja, hogy projektje az igazságra és a semlegességre törekszik, addig a kritikusok gyakran az ellenkező szélsőséget látják a Grokipédiában. Azt állítják, hogy a platform néha politikailag jobboldali szemléletű tartalmakat mutat be, vagy ellentmondásos témákkal foglalkozik egyoldalúan.
A Wikipédia bejegyzéseitől eltérően, amelyeket valódi emberek kurátorkodnak, a Grokipedia szövegeit elsősorban a Grok nevű, házon belüli mesterséges intelligenciamodell generálja. A felhasználói szerkesztések nem részei ennek a rendszernek, mivel a minőséget állítólag az xAI munkatársai ellenőrzik. Amikor más nyelvi modellek, mint például a GPT-5.2, ezeket a gép által generált szövegeket tényforrásként használják, egy technikai visszacsatolási hurok jön létre, amelyben a mesterséges intelligenciák egymástól tanulnak.
Ez növeli az úgynevezett "garbage in, garbage out" forgatókönyv kockázatát. Ha a mesterséges intelligenciák más mesterséges intelligenciáktól származó szűretlen anyagokat kezdenek saját válaszaik alapjául használni, a hibák vagy sajátos elfogultságok mindenféle ellenőrzés nélkül továbbadhatók. A Guardian vizsgálata már kimutatta, hogy a ChatGPT a Grokipediát idézi, és olyan állításokat ismételget, amelyek túlmutatnak a megalapozott ismereteken, vagy amelyeket már régen megcáfoltak. Ez jól szemlélteti azt a veszélyt, hogy a mesterséges intelligenciamodellek kölcsönös idézése miatt a dezinformáció hitelesebbnek tűnik, és a felhasználók számára egyre nehezebbé válik az ilyen hamis információk kiszűrése.
Az OpenAI már reagált a jelentésre, és hangsúlyozza, hogy a modell webes keresése a nyilvánosan elérhető források és álláspontok széles spektrumát igyekszik tükrözni. Egy szóvivő szerint a biztonsági szűrők célja, hogy csökkentsék a nagy kártételi potenciállal rendelkező tartalmakra mutató linkek megjelenítésének kockázatát. Emellett a ChatGPT az átláthatóság érdekében idézetekkel és forrásokkal ellátott válaszokat ad. A vállalat továbbá megemlítette a folyamatban lévő programokat, amelyek célja az alacsony hitelességű források kiszűrése.
Forrás(ok)
» A Top 10 multimédiás noteszgép - tesztek alapján
» A Top 10 játékos noteszgép
» A Top 10 belépő szintű üzleti noteszgép
» A Top 10 üzleti noteszgép
» A Top 10 notebook munkaállomása
» A Top 10 okostelefon - tesztek alapján
» A Top 10 táblagép
» A Top 10 Windows tabletje
» A Top 10 subnotebook - tesztek alapján
» A Top 10 300 euró alatti okostelefonja
» A Top 10 120 euró alatti okostelefonja
» A Top 10 phabletje (>5.5-inch)
» A Top 10 noteszgép 500 EUR (~160.000 HUF) alatt
» A Top 10 "pehelysúlyú" gaming notebookja








