Notebookcheck Logo

Kutatók figyelmeztetnek a hamis közvéleményt létrehozó mesterséges intelligencia-rajokra

Egy dekoratív kép, amelyen egy chip látható, rajta az
ⓘ Igor Omilaev via Unsplash
Egy dekoratív kép, amelyen egy chip látható, rajta az "AI" rövidítéssel
Egy nemzetközi kutatócsoport figyelmeztetést adott ki az AI-rajok veszélyeire a hamis közmegegyezés gyártásával kapcsolatban, megjegyezve, hogy ez már megtörténhetett.
AI Social Media

Képzeljünk el egy olyan világot, ahol emberek nagy csoportja beszélhet egy adott témáról, és ezzel az online trenddé válhat. Vagy egy olyan világot, ahol ezek az emberek kényszeríthetik a közszereplők kezét, vagy akár félretájékoztatást is terjeszthetnek. Most képzeljünk el egy olyan világot, ahol az "emberek" valójában mesterséges intelligenciával működő profilok, amelyek összehangoltan működnek, miközben egyedi emberi hangokat utánoznak.

Erre a veszélyre figyelmeztetnek most a világ számos intézményének tudósai a Science folyóiratban nemrég megjelent publikációjukban.

Egy nemzetközi kutatócsoport részletesen bemutatta, hogy a nagyméretű nyelvi modellek (LLM) és a multiagent rendszerek fúziója hogyan teszi lehetővé rosszindulatú mesterséges intelligencia-rajok létrehozását. A hagyományos, könnyen azonosítható copy-paste botokkal ellentétben ezek a fejlett rajok AI által irányított személyiségekből állnak, amelyek állandó személyazonosságot, memóriát és összehangolt célokat tartanak fenn. Dinamikusan képesek hangnemüket és tartalmukat az emberi beavatkozás alapján módosítani, és minimális felügyelet mellett, több platformon keresztül működnek.

Az elsődleges fenyegetés, amelyet ezek a hálózatok jelentenek, a "szintetikus konszenzus" előállítása Azáltal, hogy a digitális tereket koholt, de rendkívül meggyőző beszélgetésekkel árasztják el, ezek a rajok azt a hamis illúziót keltik, hogy egy adott nézőpont általánosan elfogadott. A kutatók megjegyzik, hogy ez a jelenség veszélyezteti a demokratikus diskurzus alapjait, mivel egyetlen rosszindulatú szereplő több ezer független hangnak álcázhatja magát.

Ez a tartós befolyásolás túlmutat az átmeneti vélemények eltolódásán; alapvetően megváltoztathatja egy közösség nyelvét, szimbólumait és kulturális identitását. Továbbá ez az összehangolt kimenet azzal fenyeget, hogy beszennyezi a rendszeres mesterséges intelligencia modellek képzési adatait, kiterjesztve a manipulációt a bevett mesterséges intelligencia platformokra is.

E fejlődő fenyegetés elhárítására a szakértők szerint a hagyományos posztonkénti tartalommoderálás már nem hatékony. A védelmi mechanizmusoknak a statisztikailag valószínűtlen koordináció azonosítására és a tartalom eredetének nyomon követésére kell irányulniuk. A kutatók azt is hangsúlyozzák, hogy a viselkedéstudományokat alkalmazni kell a mesterséges intelligencia-ügynökök kollektív cselekvéseinek tanulmányozására, amikor azok nagy csoportokban lépnek kapcsolatba egymással. A javasolt megoldások közé tartozik a magánélet védelmét biztosító ellenőrzési módszerek alkalmazása, a bizonyítékok megosztása egy elosztott AI Influence Observatory (AI Befolyás Megfigyelőközpont) segítségével, valamint a nem autentikus elkötelezettséget ösztönző pénzügyi ösztönzők korlátozása.

Forrás(ok)

Please share our article, every link counts!
Mail Logo
> Magyarország - Kezdőlap > Hírek > News Archive > Newsarchive 2026 02 > Kutatók figyelmeztetnek a hamis közvéleményt létrehozó mesterséges intelligencia-rajokra
Chibuike Okpara, 2026-02-16 (Update: 2026-02-16)