Az amerikai Kereskedelmi Minisztérium új biztonsági tesztelési programot indított, amelynek keretében a Google, Microsoft és xAI mesterséges intelligencia modelljeit vizsgálják meg, mielőtt azok a nyilvánosság számára elérhetővé válnának. A technológiai cégek önkéntesen vállalták, hogy AI modelljeiket benyújtják a Kereskedelmi Minisztérium AI Szabványosítási és Innovációs Központjához (CAISI).
Az új megállapodások kibővítik azokat az egyezményeket, amelyeket a Biden-adminisztráció idején kötöttek olyan AI vállalatokkal, mint az OpenAI és az Anthropic. A CAISI igazgatója, Chris Fall kijelentette: "Ezek a kibővített ipari együttműködések segítenek nekünk egy kritikus pillanatban felskálázni munkánkat a közérdek érdekében."
A vizsgálatok az AI eszközök képességeit és biztonságát értékelik, beleértve a tesztelést, együttműködési kutatást és a kereskedelmi AI rendszerekkel kapcsolatos legjobb gyakorlatok kidolgozását. Az érintett főbb AI termékek:
- Google Gemini – a DeepMind chatbotja, amely már amerikai védelmi és katonai ügynökségeknél is használatban van
- Microsoft CoPilot – a Microsoft AI asszisztense
- xAI Grok – chatbot, amely közvélemény elé került, mivel problémák merültek fel azzal kapcsolatban, hogy képeken levette az emberek ruháit
A CAISI közlése szerint kedden eddig 40 AI eszköz értékelését végezte el, beleértve olyan korszerű modellek tesztelését is, amelyek még nem jelentek meg nyilvánosan. A központ nem részletezte, mely modelleket tartották vissza a nyilvánosságtól.
A Microsoft vállalati blogbejegyzésében kifejtette, hogy bár saját AI modelljeit már teszteli, "a nemzetbiztonsági és nagyszabású közbiztonsági kockázatok tesztelése szükségszerűen együttműködést igényel a kormányokkal". A Google DeepMind szóvivője nem kívánt nyilatkozni, az xAI-t irányító SpaceX képviselője pedig nem válaszolt a megkeresésre.
