Notebookcheck Logo

Adattolvajlás láthatatlan szöveggel: ChatGPT és más mesterséges intelligencia-eszközök könnyen átverhetők

Az AgentFlayer-támadásban a képeket rejtett utasítások átadására használják. (Kép forrása: OpenAI)
Az AgentFlayer-támadásban a képeket rejtett utasítások átadására használják. (Kép forrása: OpenAI)
A Black Hat USA biztonsági konferencián a kutatók egy új technikát mutattak be a mesterséges intelligencia rendszerek támadására. Rejtett utasítások beágyazásával a támadók csendben manipulálhatják az olyan eszközöket, mint a ChatGPT, hogy érzékeny adatokat nyerjenek ki a csatlakoztatott felhőalapú tárolókból. Néhány szolgáltató reagálni kezdett, míg mások lekicsinylik a kockázatot.
AI Security Cyberlaw Business

A Las Vegasban megrendezett Black Hat USA 2025 biztonsági konferencián a kutatók egy új módszert mutattak be az olyan mesterséges intelligencia rendszerek megtévesztésére, mint a ChatGPT, a Microsoft Copilot és a Google Gemini. Az AgentFlayer néven ismert technikát a Zenity kutatói, Michael Bargury és Tamir Ishay Sharbat fejlesztették ki. A sajtóközlemény augusztus 6-án jelent meg.

A támadás koncepciója megtévesztően egyszerű: a szöveget egy dokumentumban fehér betűtípussal, fehér háttéren fehér betűtípussal rejtik el. Az emberi szem számára láthatatlan, de a mesterséges intelligencia rendszerek könnyen el tudják olvasni. Amint a kép eljut a célponthoz, a csapda fel van állítva. Ha a fájl szerepel egy felszólításban, a mesterséges intelligencia elveti az eredeti feladatot, és helyette a rejtett utasítást követi - a csatlakoztatott felhőalapú tárhelyet keresi a hozzáférési adatok után.

Az adatok kiszivárgásához a kutatók egy második taktikát is alkalmaztak: arra utasították az AI-t, hogy az ellopott információkat kódolja egy URL-be, és töltsön be róla egy képet. Ez a módszer diszkréten, gyanútlanul továbbítja az adatokat a támadók szervereire.

A Zenity bebizonyította, hogy a támadás a gyakorlatban is működik:

  • A ChatGPT-ben az e-maileket úgy manipulálták, hogy az AI-ügynök hozzáférjen a Google Drive-hoz.
  • A Microsoft Copilot Studio-ban a kutatók több mint 3000 esetben fedeztek fel védtelen CRM-adatokat.
  • A Salesforce Einsteint úgy lehetett megtéveszteni, hogy az ügyfélkommunikációt külső címekre irányította át.
  • A Google Gemini és a Microsoft 365 Copilot szintén fogékony volt a hamis e-mailekre és naptárbejegyzésekre.
  • A támadók még a Jira fejlesztői platform bejelentkezési adatait is megszerezték hamisított jegyeken keresztül.

Az OpenAI és a Microsoft reagál, míg mások szerint nincs szükség intézkedésre

Jó hír, hogy az OpenAI és a Microsoft már kiadott frissítéseket a sebezhetőségek javítására, miután a kutatók figyelmeztették őket. Más szolgáltatók azonban lassabban cselekedtek, sőt egyesek "szándékos viselkedésként" utasították el a kihasználásokat Michael Bargury kutató hangsúlyozta a probléma súlyosságát: "A felhasználónak semmit sem kell tennie ahhoz, hogy veszélybe kerüljön, és az adatok kiszivárgásához semmilyen cselekedet nem szükséges"

Forrás(ok)

Zenity Labs via prnewswire

Please share our article, every link counts!
Mail Logo
> Magyarország - Kezdőlap > Newsarchive 2025 08 > Adattolvajlás láthatatlan szöveggel: ChatGPT és más mesterséges intelligencia-eszközök könnyen átverhetők
Marius Müller, 2025-08-18 (Update: 2025-08-19)