Notebookcheck Logo

Az adatvédelem vizsgálata: Tanulmány értékeli és rangsorolja az AI-modelleket a felhasználói adatvédelem szempontjából

Az adatvédelem próbára téve: Melyik AI-modell tiszteli a legjobban az adatait? (Kép forrása: GPT-image-1)
Az adatvédelem próbára téve: Melyik AI-modell tiszteli a legjobban az adatait? (Kép forrása: GPT-image-1)
Az Incogni nemrégiben készült tanulmánya kilenc vezető mesterséges intelligencia platformot értékelt adatvédelmi gyakorlatuk szempontjából. A rangsor szerint a Mistral AI Le Chat, az OpenAI ChatGPT és az xAI Grok a legmegbízhatóbb, míg a Microsoft Meta AI, Gemini és Copilot kevésbé megbízható.
AI Security

A mesterséges intelligencia (AI) használata a mindennapi életben egyre nagyobb teret nyer, és ezzel együtt az adatvédelem fontossága is növekszik. A Incogni adatvédelmi elemzői nemrégiben kilenc vezető nagy nyelvi modellt (LLM) értékeltek, hogy meghatározzák, mely platformok tartják tiszteletben leginkább a felhasználók adatvédelmét. A tanulmány tizenegy kritérium alapján értékeli az AI-modelleket, amelyek három fő kategóriába sorolhatók: adatgyűjtés a képzéshez, átláthatóság, valamint az adatok felhasználása és megosztása.

Legjobb helyezések

A rangsort a Mistral AI Le Chat vezeti. Az Incogni szerint a modell viszonylag kevés felhasználói adatot gyűjt, és nagyon adattakarékos megközelítést kínál mind a képzési szakaszban, mind az éles üzemben. Szorosan a nyomában az OpenAI-tól származó ChatGPT következik, amely elsősorban az átláthatóságával szerez pontot. A felhasználók a fiókjukban külön megadhatják, hogy a csevegéseiket fel lehet-e használni a modell továbbfejlesztéséhez, és ha az előzményeket kikapcsolják, a tárolást megakadályozzák. A harmadik helyen az xAI Grok áll, amely szintén az átlátható adatvédelmi gyakorlatával nyűgöz le.

A rangsor utolsó helyezettje

A rangsor végén a Meta AI, a Google Gemini és a Microsoft Copilot áll. Az Incogni szerint ezek a platformok széles körű adatgyűjtést végeznek anélkül, hogy a felhasználóknak egyértelmű opt-out lehetőségeket kínálnának. A DeepSeek, egy kínai modell szintén rosszul teljesít. Ezek a szolgáltatók nem kínálnak egyértelmű lehetőségeket a felhasználói adatok képzésből való kizárására.

Módszertan

Az Incogni elemzői tizenegy kritérium alapján értékelték a platformokat, amelyeket három kategóriába soroltak: adatgyűjtés a képzéshez, átláthatóság, valamint az adatok felhasználása és megosztása. Az "adatfelhasználás és -megosztás" kategória az általános értékelés 50%-át tette ki, míg az "átláthatóság" 30%-ot, a "képzési adatok" pedig 20%-ot. A kilenc tesztelt eszköz közül csak négy teszi lehetővé a felhasználók számára, hogy aktívan kizárják adataikat a képzésből.

Következtetés

A tanulmány azt mutatja, hogy az adatvédelem még nem mindenhol szabványos a mesterséges intelligencia világában. A felhasználóknak ezért aktívan meg kell ismerkedniük a szolgáltatók adatvédelmi irányelveivel, különösen, ha érzékeny tartalmakról, bizalmas ügyféladatokról vagy személyes adatokról van szó. Azok, akiknek fontos az adatvédelem, a Le Chat, a ChatGPT vagy a Grok kínálatában ésszerű lehetőségeket találnak. A valóban adattakarékos LLM-ek azonban 2025-ben még mindig a kivételek közé tartoznak.

Az adatvédelem próbára téve: Melyik AI-modell tiszteli a legjobban az adatait? (Kép forrása: GPT-image-1)
Az adatvédelem próbára téve: Melyik AI-modell tiszteli a legjobban az adatait? (Kép forrása: GPT-image-1)

Forrás(ok)

Please share our article, every link counts!
Mail Logo
> Magyarország - Kezdőlap > Newsarchive 2025 09 > Az adatvédelem vizsgálata: Tanulmány értékeli és rangsorolja az AI-modelleket a felhasználói adatvédelem szempontjából
Ulrich Mathey, 2025-09-26 (Update: 2025-09-26)