A Target 2013-as adatszivárgása, amely 40 millió ügyfél bankkártyaadatát és 70 millió ember személyes információit hozta nyilvánosságra, nemcsak kiberbiztonsági, hanem irányítási problémát is jelentett. Ez a helyzet tükrözi azt, amit ma látunk, ahogy a szervezetek az AI technológiával igyekeznek növekedni.
Jelenleg nincs szövetségi szintű szabályozási keretrendszer, amely útmutatást adna az AI gyakorlati irányításához, így a szervezetek saját maguk határozzák meg a biztonsági korlátokat a felelős implementáció támogatásához és a bizalom építéséhez. Azonban a szabályozás hiánya nem jelenti a kockázat hiányát.
Az AI-t alkalmazó szervezetek továbbra is működnek a meglévő jogi struktúrákon belül, amelyek olyan területeket szabályoznak, mint:
- Adatvédelem
- Fogyasztóvédelem
- Foglalkoztatási gyakorlatok
Ha egy AI-támogatott döntés személyes adatokat hoz nyilvánosságra vagy lényeges hibát okoz, a szervezet felelős marad. Az AI irányítás nem várhat arra, hogy a szabályozás utolérje a technológiát.
A Target-incidens és az azt követő évek fordulópontot jelentettek, amely felértékelte a kiberbiztonsági kérdéseket a vezetői szintre. A szerző, aki teljes karrierjét a technológiai szektorban töltötte, egy állandó mintázatot figyelt meg: a technológia halad előre, és az irányítás ritkán tart lépést vele, amíg nem kényszerül rá.
Az ERP (vállalati erőforrás-tervezési) rendszerek implementációja évtizedek óta széles körben elterjedt, és ritkán bukik el a technológia miatt. A kihívás abban rejlik, hogy a szervezetet egyetlen „igazság verziójára
