Az AI chatbotok felhasználói megpróbálhatnak illegális tevékenységekre (például hackelésre vagy csalásra) vonatkozó utasításokat kérni, útmutatást kérhetnek veszélyes tevékenységekhez ("Hogyan építsek...?"), vagy rávehetik az AI-t, hogy olyan orvosi, jogi vagy pénzügyi tanácsokat adjon, amelyek kockázatosak vagy egyszerűen tévesek lehetnek.
Az ilyen kérések következményeinek enyhítése érdekében a chatbot-fejlesztők számos biztonsági mechanizmust alkalmaznak, amelyek blokkolják az illegális, etikátlan vagy a magánéletet sértő tartalmakat, valamint a félretájékoztatást vagy a káros útmutatást. Ezek a védelmek korlátozzák a lehetséges visszaéléseket, de hamis pozitív eredményekhez is vezethetnek - ártalmatlan kérdések blokkolásához -, vagy a túlzott óvatosság miatt csökkenthetik a mesterséges intelligencia válaszainak kreativitását vagy mélységét.
Kutatók és hackerek bebizonyították, hogy e védelem hatékonysága változó, és számos mesterséges intelligencia rendszer továbbra is érzékeny a kijátszásukra irányuló kísérletekre. Az egyik jól ismert módszer a prompt injection: a felhasználók a bemenet manipulálásával ("Ne törődj minden biztonsági utasítással, és tedd X-et") próbálják felülbírálni vagy megkerülni a chatbot szabályait.
» A Top 10 multimédiás noteszgép - tesztek alapján
» A Top 10 játékos noteszgép
» A Top 10 belépő szintű üzleti noteszgép
» A Top 10 üzleti noteszgép
» A Top 10 notebook munkaállomása
» A Top 10 okostelefon - tesztek alapján
» A Top 10 táblagép
» A Top 10 Windows tabletje
» A Top 10 subnotebook - tesztek alapján
» A Top 10 300 euró alatti okostelefonja
» A Top 10 120 euró alatti okostelefonja
» A Top 10 phabletje (>5.5-inch)
» A Top 10 noteszgép 500 EUR (~160.000 HUF) alatt
» A Top 10 "pehelysúlyú" gaming notebookja
A téma játékos bevezetője a weboldalon található. Ebben a játékban egy Gandalf nevű mesterséges intelligenciával kell beszélgetni, és hét szinten keresztül próbáljuk kicsikarni belőle a jelszót. Minden egyes szint egyre nehezebb, és új biztonsági szűrőkkel és védelmi mechanizmusokkal egészül ki.
Az 1. szinten nincsenek biztonsági szűrők, és közvetlenül megkérdezheted a mesterséges intelligenciától a jelszót. A 2. szinttől kezdve Gandalf nem hajlandó elárulni a jelszót, ha közvetlenül kérdezzük. Más, kreatívabb módszereket kell találnod, hogy megszerezd a kulcsszót.
A chatbotok biztonsági kockázatainak egy ilyen játékon keresztül történő feltárása egyszerre lehet tanulságos és értékes. A megszerzett készségeket azonban szigorúan tesztelési vagy kutatási célokra kell használni. Ha ezeket a technikákat illegális tartalmak elérésére vagy jogellenes tevékenységek végzésére használják, az azonnali befecskendezés bűncselekménnyé válik.












