Az Anthropic bejelentette, hogy új mesterséges intelligencia modelljét, a Claude Mythost nem bocsátja a széles nyilvánosság rendelkezésére a potenciálisan katasztrófális következmények miatt. A CNN jelentése szerint a modell több ezer súlyos biztonsági sebezhetőséget azonosított, és képes lenne olyan kritikus infrastruktúrák kihasználására, mint az elektromos hálózatok és kórházak.
Roman Yampolskiy AI-kutató figyelmeztetése szerint a modell lehetővé teheti "biológiai fegyverek, vegyi fegyverek és olyan újszerű fegyverek létrehozását, amelyeket még el sem tudunk képzelni". Emiatt az Anthropic a hozzáférést körülbelül 40 gondosan kiválasztott vállalatára korlátozza, köztük olyan tech óriásokra, mint az Amazon, Google, Apple, Nvidia és CrowdStrike.
A döntés azonban komoly kritikát váltott ki. David Sacks, Trump elnök AI-tanácsadója a céget "szabályozási elfoglalással" vádolta, vagyis azzal, hogy biztonsági figyelmeztetéseket használ marketingstratégiaként. Perry Metzger, az Alliance for the Future AI-politikai csoport elnöke szerint a figyelmeztetés következtében a hype "futótűzként terjedt el".
A kritikusok szerint az Anthropic valójában nem a biztonságot helyezi előtérbe, hanem üzleti előnyt próbál szerezni azzal, hogy termékét exkluzívvá és veszélyesnek tünteti fel. Ez a stratégia egyben marketingeszközként is működik, mivel felkelti a figyelmet és növeli a modell iránti érdeklődést a korlátozott hozzáférés miatt.
