2018-ban Tempe-ben egy Uber önvezető autó halálra gázolt egy gyalogost. A világot azonnal foglalkoztatta a kérdés: ki volt a felelős? A volán mögött ülő biztonsági sofőr? Az algoritmusokat tervező mérnökök? Az Uber vezetése? Vagy a szabályozók, akik engedélyezték az autonóm járművek tesztelését? Az, hogy nem lehetett egyértelműen megnevezni a felelőst, rávilágított egy fundamentális problémára: a hagyományos felelősségi fogalmak nem alkalmazhatók az AI-alapú rendszerekre.
A munkahelyi AI rendszerek egyre nagyobb szerepet kapnak a döntéshozatalban, a toborzástól a teljesítményértékelésen át a stratégiai tervezésig. Azonban a felelősség kérdése rendkívül homályos marad. Amikor egy AI rendszer rossz döntést hoz – például hátrányosan megkülönböztet egy jelöltet vagy rossz üzleti javaslatot tesz – nem egyértelmű, hogy ki tartozik felelősséggel: a végfelhasználó, aki hagyatkozik rá; a fejlesztő, aki megalkotta; vagy a vezető, aki bevezette a szervezetbe.
A hagyományos felelősségi modellek három kulcsfontosságú feltevésen alapulnak, amelyek már nem állják meg a helyüket az AI korában:
- Egyéni ágencia: A felelősség hagyományosan egyénekhez kapcsolódik, akik tudatos döntéseket hoznak. Az AI rendszerek azonban autonóm módon működnek, tanulnak az adatokból, és olykor kiszámíthatatlanul viselkednek.
- Ok-okozati kapcsolat: A felelősség megállapításához egyértelmű ok-okozati láncot kell beazonosítani. Az AI-nál azonban az algoritmusok „fekete doboz
