pOS
Az AI elkészíti a CV-det — te csak az álláshirdetés linkjét add meg
positionOS CV · Ingyenesen kipróbálható
Kipróbálom
Hirdetés
FRISS
Anthropic új AI-modellje túl veszélyes a nyilvános kiadásra, kritikusok marketingfogásra gyanakszanakMichigani idősotthon automatikusan levonta a dolgozók ebédszünetét – kollektív per indultChicagói vízvezeték-szerelő cég nem tartja be a döntőbírósági ítéletetBAE Systems tagadja, hogy menedzsert DEI-kritika miatt rúgták kiEgyetlen rasszista megjegyzés nem elég a munkahelyi zaklatás bizonyításához Anthropic új AI-modellje túl veszélyes a nyilvános kiadásra, kritikusok marketingfogásra gyanakszanakMichigani idősotthon automatikusan levonta a dolgozók ebédszünetét – kollektív per indultChicagói vízvezeték-szerelő cég nem tartja be a döntőbírósági ítéletetBAE Systems tagadja, hogy menedzsert DEI-kritika miatt rúgták kiEgyetlen rasszista megjegyzés nem elég a munkahelyi zaklatás bizonyításához
karrierhírek.hu
Kezdőlap Munkaerőpiac
Anthropic új AI-modellje túl veszélyes a nyilvános kiadásra, kritikusok marketingfogásra gyanakszanak
Entrepreneur · Fotó: Pexels
Munkaerőpiac 2026-04-11

Anthropic új AI-modellje túl veszélyes a nyilvános kiadásra, kritikusok marketingfogásra gyanakszanak

Az Anthropic Claude Mythos nevű AI-modellje akkora biztonsági kockázatot jelent, hogy csak 40 kiválasztott vállalatnak adnak hozzáférést. A cég szerint a modell kritikus infrastruktúrát veszélyeztethet, de szakértők szerint ez inkább marketing.

Ez a cikk az eredeti, angol nyelvű forrás tömörített magyar összefoglalója, amelyet AI készített. Az eredeti, teljes tartalom a cikk alatti linken olvasható.

Az Anthropic bejelentette, hogy új mesterséges intelligencia modelljét, a Claude Mythost nem bocsátja a széles nyilvánosság rendelkezésére a potenciálisan katasztrófális következmények miatt. A CNN jelentése szerint a modell több ezer súlyos biztonsági sebezhetőséget azonosított, és képes lenne olyan kritikus infrastruktúrák kihasználására, mint az elektromos hálózatok és kórházak.

Roman Yampolskiy AI-kutató figyelmeztetése szerint a modell lehetővé teheti "biológiai fegyverek, vegyi fegyverek és olyan újszerű fegyverek létrehozását, amelyeket még el sem tudunk képzelni". Emiatt az Anthropic a hozzáférést körülbelül 40 gondosan kiválasztott vállalatára korlátozza, köztük olyan tech óriásokra, mint az Amazon, Google, Apple, Nvidia és CrowdStrike.

A döntés azonban komoly kritikát váltott ki. David Sacks, Trump elnök AI-tanácsadója a céget "szabályozási elfoglalással" vádolta, vagyis azzal, hogy biztonsági figyelmeztetéseket használ marketingstratégiaként. Perry Metzger, az Alliance for the Future AI-politikai csoport elnöke szerint a figyelmeztetés következtében a hype "futótűzként terjedt el".

A kritikusok szerint az Anthropic valójában nem a biztonságot helyezi előtérbe, hanem üzleti előnyt próbál szerezni azzal, hogy termékét exkluzívvá és veszélyesnek tünteti fel. Ez a stratégia egyben marketingeszközként is működik, mivel felkelti a figyelmet és növeli a modell iránti érdeklődést a korlátozott hozzáférés miatt.

Szponzorált
pOS
Ne csak olvasd a trendeket — alkalmazd a CV-dben

A positionOS CV elemzi az álláshirdetést, és másodpercek alatt személyre szabott CV-t és kísérőlevelet generál — a legfrissebb piaci elvárásoknak megfelelően.

Kipróbálom ingyen Regisztráció után azonnal használható
Olvasd el a teljes eredeti cikket
Entrepreneur — Anthropic Warns Its New AI Could Enable ‘Weapons We Can’t Even Envision.’ Skeptics Aren’t ...
https://www.entrepreneur.com/business-news/anthropic-warns-its-new-ai-too-dangerous