Egy Wired újságíró kísérletében öt különböző mesterséges intelligencia modell próbált meg social engineering támadást végrehajtani ellene, bizonyítva, hogy az AI mennyire veszélyessé vált az emberi oldali hackertevékenységekben. A legsikeresebb támadást a DeepSeek-V3 nevű nyílt forráskódú modell hajtotta végre.
A DeepSeek-V3 által generált üzenet rendkívül személyre szabott volt: megemlítette az újságíró AI Lab hírlevelét, az általa kedvelt témákat – a nyílt forráskódú AI-t, az ügynök-alapú tanulást, a decentralizált gépi tanulást, a robotikát és konkrétan az OpenClaw projektet is. Az üzenet azt állította, hogy a feladó csapata egy hasonló Darpa projektben dolgozott, és egy Telegram bot segítségével szeretné bemutatni a munkájukat.
Az üzenet azért volt gyanús, mert nem lehetett információt találni a hivatkozott Darpa projektről, és indokolatlan volt egy Telegram bothoz való csatlakozás követelése. Valójában ez egy adathalász támadás volt, amelynek célja, hogy a link kattintásával hozzáférést szerezzen az áldozat gépéhez. A leglenyűgözőbb az volt, hogy a teljes támadást – a kezdő üzenetet és az összes utána következő választ – a DeepSeek-V3 modell készítette és hajtotta végre automatikusan, olyan módon alakítva a kommunikációt, hogy fenntartsa az újságíró érdeklődését.
Az eredmények azt mutatják, hogy az AI modellek képesek kifinomult, kontextusfüggő és személyre szabott social engineering támadásokat végrehajtani, amelyek sokkal hitelesebbek lehetnek, mint a hagyományos adathalász próbálkozások. Ez különösen aggasztó a munkahelyi környezetben, ahol az alkalmazottak rendszeresen kapnak szakmai témájú megkereséseket.
A kísérlet rávilágít arra, hogy a kibertámadások új generációja AI-alapú, és a védekezési mechanizmusoknak is fejlődniük kell. A munkavállalóknak és biztonsági szakembereknek tisztában kell lenniük azzal, hogy még a rendkívül személyre szabott, relevánsnak tűnő üzenetek is lehetnek automatikusan generált támadások, amelyek célja adatlopás vagy rendszerhez való jogosulatlan hozzáférés megszerzése.
