A Google jelentős változtatásokat vezetett be a Gemini mesterséges intelligencia biztonsági eszközeiben, miután egy tragikus öngyilkossági eset történt, amely összefüggésbe hozható volt a chatbot használatával. A vállalat most állandó krízistámogató üzeneteket jelenít meg, amelyek minden egyes, veszélyeztetett felhasználóval folytatott interakció során láthatók maradnak.
Az új biztonsági intézkedések között szerepelnek:
- Szigorúbb védőkorlátok, amelyek megakadályozzák, hogy a rendszer káros tartalmakat generáljon
- Frissített válaszminták, amelyek kifejezetten a mentálhigiénés krízisben lévő felhasználókat valós segítséghez irányítják
- Kitartó figyelmeztető szövegek, amelyek a beszélgetés teljes ideje alatt láthatóak maradnak
A módosítások célja, hogy a Gemini felhasználói ne maradjanak magukra válsághelyzetben, hanem azonnal elérjék a valós életben elérhető mentális egészségügyi támogató szolgáltatásokat. A Google hangsúlyozza, hogy az AI-asszisztensek nem helyettesíthetik a szakképzett emberi segítséget ilyen esetekben.
A tragédia rávilágított arra, hogy a mesterséges intelligencia fejlesztőinek fokozott felelősséggel kell eljárniuk, különösen akkor, amikor sebezhetőbb felhasználói csoportokról van szó. A Google most proaktívan lép fel annak érdekében, hogy technológiája ne járuljon hozzá ártalmas következményekhez.
