Egy munkajogi szakértő hívja fel a HR vezetők figyelmét a mesterséges intelligencia használatával járó kockázatokra a munkahelyen. A probléma nem feltétlenül a szándékos visszaélésekben rejlik, hanem sokkal inkább az ártatlannak tűnő, mindennapi használatban.
A leggyakoribb kockázati forgatókönyv szerint egy munkavállaló egyszerűen bemásol ügyfélinformációkat a ChatGPT-be, hogy gyors összefoglalót kapjon róla. A dolgozó ebben az esetben az AI eszközt úgy kezeli, mint bármely más termelékenységi eszközt, anélkül, hogy tisztában lenne azzal, mi történik az adatokkal a rendszer másik oldalán. Nincs rosszindulatú szándék, csupán egy munkafolyamat-gyorsítási kísérletről van szó.
A munkajogi szakértők szerint éppen ez a típusú, ártalmatlannak tűnő AI-használat jelenti a legnagyobb veszélyt a vállalatok számára. Amikor alkalmazottak bizalmas ügyféladatokat, belső információkat vagy személyes adatokat töltenek fel nyilvános AI platformokra, azok potenciálisan hozzáférhetővé válnak harmadik felek számára, vagy felhasználásra kerülhetnek a modellek betanításához.
A HR vezetőknek sürgősen világos irányelveket és képzéseket kell bevezetniük az AI eszközök használatával kapcsolatban. Az alkalmazottaknak meg kell érteniük, hogy milyen adatokat oszthatnak meg AI rendszerekkel, és melyek azok az információk, amelyek soha nem kerülhetnek ki a vállalat belső rendszereiből. Az adatvédelmi incidensek ugyanis komoly jogi következményekkel járhatnak, még akkor is, ha nem volt szándékos szabályszegés.
A szakértő szerint a megelőzés kulcsa a tudatosság növelése és a proaktív szabályozás. A vállalatoknak ki kell dolgozniuk AI-használati politikákat, amelyek egyértelműen meghatározzák a megengedett és tiltott gyakorlatokat, valamint rendszeres tréningeket kell tartaniuk az alkalmazottaknak az adatbiztonság és a mesterséges intelligencia felelős használatáról.
