Notebookcheck Logo

Az Anthropic bemutatja a Claude 4 AI modellt: Okosabbak és potenciálisan veszélyesebbek

Az Anthropic elindítja a Claude 4 sorozatú mesterséges intelligenciát, miközben szigorúbb biztonsági intézkedéseket aktivál a fegyverfejlesztés során történő visszaélések ellen. (Kép forrása: Anthropic)
Az Anthropic elindítja a Claude 4 sorozatú mesterséges intelligenciát, miközben szigorúbb biztonsági intézkedéseket aktivál a fegyverfejlesztés során történő visszaélések ellen. (Kép forrása: Anthropic)
Az Anthropic intelligensebb Claude Opus 4 és Sonnet 4 mesterséges intelligencia modelleket hozott forgalomba, továbbfejlesztett kódolási és adatelemzési képességekkel. A legokosabb modell, az Opus 4 esetében szigorúbb biztonsági intézkedéseket vezettek be, hogy megakadályozzák a fegyverek létrehozására való visszaélést.
Launch AI Software Business Security

Az Anthropic kiadta a Claude Opus 4-et és Claude Sonnet 4 mesterséges intelligencia modelleket továbbfejlesztett pontossággal, képességekkel és teljesítménnyel.

Az Opus a vállalat legokosabb modellje, amely képes megállás nélkül, órákon át dolgozni összetett és nehéz problémákon. Egyes korai felhasználók szerint hét órán keresztül dolgozott önállóan programozási feladatokon, és a mesterséges intelligencia jobban emlékszik a bemeneti adatokra és az eredményekre a jobb válaszok érdekében. A Sonnet az általános modellje az általános kérésekre adott gyors válaszokhoz. Mindkettő javított kódolási pontossággal segíti a programozókat a legújabb alkalmazások létrehozásában.

Mindkét modell képes adatelemzőként működni, Python kódot írva elemezni és vizualizálni az adathalmazokat. Számos új API-funkció lehetővé teszi a vállalatok számára, hogy testreszabott alkalmazásokat hozzanak létre, amelyek integrálják a Claude-ot a jobb üzleti adatelemzés és funkcionalitás érdekében. A Claude Code lehetővé teszi, hogy a mesterséges intelligencia olyan népszerű IDE-kben működjön, mint a VS Code és a JetBrains, hogy segítse a programozókat a jobb kódolásban.

Az Anthropic aktiválta a AI Safety Level 3 (ASL-3) telepítési és biztonsági szabványait a Claude Opus 4 elővigyázatossági szintjét, mivel a vállalat még nem zárta ki annak lehetőségét, hogy az AI veszélyes cselekedetekre képes, például arra, hogy feltörjék és vegyi, biológiai, radiológiai és nukleáris (CBRN) fegyverek létrehozására használják.

Azok az olvasók, akik a munkahelyükön szeretnék megtapasztalni az antropikus mesterséges intelligencia előnyeit, a Plaude Note vagy a Plaude NotePin segítségével automatikusan összefoglalhatják és átírhatják az órákat és megbeszéléseket. Azok, akik otthonról dolgoznak, a után beszélgethetnek Claude-dal, letöltve az Anthropic alkalmazást laptopokra és okostelefonokra.

Az Anthropic Claude 4 AI-modellek általában jobban teljesítenek, mint a vállalat korábbi modellje a szabványosított AI-összehasonlító mérőszámokon. (Kép forrása: Anthropic)
Az Anthropic Claude 4 AI-modellek általában jobban teljesítenek, mint a vállalat korábbi modellje a szabványosított AI-összehasonlító mérőszámokon. (Kép forrása: Anthropic)
Az Anthropic Claude Opus 4 okosabb, mint valaha, de ez szigorúbb ASL-3 biztonsági intézkedések bevezetését tette szükségessé, hogy megakadályozza, hogy veszélyes fegyvereket hozzon létre. (Kép forrása: Anthropic)
Az Anthropic Claude Opus 4 okosabb, mint valaha, de ez szigorúbb ASL-3 biztonsági intézkedések bevezetését tette szükségessé, hogy megakadályozza, hogy veszélyes fegyvereket hozzon létre. (Kép forrása: Anthropic)
Please share our article, every link counts!
Mail Logo
> Magyarország - Kezdőlap > Newsarchive 2025 05 > Az Anthropic bemutatja a Claude 4 AI modellt: Okosabbak és potenciálisan veszélyesebbek
David Chien, 2025-05-26 (Update: 2025-05-26)