A SUSE szakértői szerint a tiltás helyett a tudatos és szabályozott használat a kulcs a hatékony és biztonságos alkalmazáshoz, amiben a vállalati szintű, privát AI-platformok segíthetnek a leginkább.
Az árnyék-AI (shadow AI) az árnyék-IT része. A kifejezés olyan eszközöket, szoftvereket vagy szolgáltatásokat takar, amelyeket az alkalmazottak a vállalat informatikai szabályozását megkerülve, a cég tudta nélkül használnak. Mivel az IT-részleg nem hagyta jóvá és nem felügyeli ezeket a megoldásokat, a vállalati védelem sem terjed ki rájuk, ami komoly adatvédelmi kockázatot jelenthet.
Terjedőben a baljós árnyak
Az árnyék-IT legismertebb példái közé tartozik a Dropbox és a Google Drive, és újabban egyre szélesebb körben használnak AI-alkalmazásokat is a szervezetek munkavállalói, ami már az árnyék-AI kategóriába tartozik. Az Egyesült Királyságban például a vállalati felhasználók közel egyharmada használ olyan AI-eszközöket, amelyeket a munkáltatója nem hagyott jóvá. A felhasználók 17 százaléka úgy gondolja, hogy a munkavállalók "nagy része" használ generatív AI-t a munkáltató kifejezett jóváhagyása nélkül, míg további 45 százalék szerint ez "meglehetősen elterjedt". A legtöbb esetben nem szándékos szabálykerülésről van szó, a felhasználók inkább csak szeretnék hatékonyabban vagy gyorsabban elvégezni a munkájukat. Ha azonban ezek az AI-rendszerek nincsenek a szervezet biztonsági és felügyeleti kontrollja alatt, akkor érzékeny vállalati adatok is veszélybe kerülhetnek.
Adatvédelem, hallucináció, compliance
Az árnyék-AI számos kockázatot rejt magában, amelyek nemcsak az egyes felhasználókat érinthetik, de hatással lehetnek az egész vállalatra vagy akár az ügyfelekre is. Ha egy munkavállaló például érzékeny vagy bizalmas céges adatokat ad meg egy nyilvánosan használható AI-szolgáltatásban, akkor azok illetéktelenek kezébe kerülhetnek. Ezek az eszközök ugyanis nem feltétlenül rendelkeznek a megfelelő biztonsági protokollokkal. Ráadásul maguk az AI-szolgáltatók is felhasználhatják a bevitt adatokat a saját modelljeik fejlesztésére, ennek következtében a későbbi verziók akár nyilvános válaszokban is megjeleníthetik az érzékeny tartalmakat, ahogyan ez például a Samsung esetében is megtörtént.
Tovább növelhetik a kockázatokat a "hallucinációk", vagyis a valótlan vagy pontatlan információk, ha az alkalmazott publikusan elérhető AI-megoldásokat használ, ahol a válaszok hitelességét a vállalat nem tudja ellenőrizni. A generatív mesterséges intelligencia a rendelkezésre álló adatok alapján dolgozik, ám ez bizonyos esetekben hiányos, torzított vagy hibás lehet, ami elfogult vagy teljesen téves eredményekhez vezethet. Amennyiben a felhasználó figyelmét nem hívják fel arra, hogy ellenőrizze ezeket megbízható források alapján, az AI által javasolt információk hibás döntésekhez vezethetnek.
Különösen érzékeny területnek számít az árnyék-AI olyan szervezetek esetében, amelyek egészségügyi, pénzügyi vagy egyéb érzékeny adatokkal dolgoznak. Ezeket az információkat szigorú szabályozások védik, amelyek nem engedik meg, hogy az adatokat nem jóváhagyott, ellenőrizetlen rendszerek kezeljék.
Tiltás helyett megfelelő keretek
A mesterséges intelligencia használatát nem érdemes tiltásokkal visszafogni. Ez több szempontból sem célravezető: egyrészt a felhasználók előbb-utóbb úgyis megtalálják a kiskapukat, másrészt az AI számos előnnyel jár, ha megfelelően alkalmazzák. Támogathatja az innovációt, gyorsabbá és hatékonyabbá teheti a munkavégzést, valamint hozzájárulhat a megalapozottabb döntések meghozatalához. Érdemes tehát inkább arra törekedni, hogy a mesterséges intelligencia használata biztonságos és hatékony lehessen a vállalati környezetben.
Ehhez célszerű olyan biztonságos, privát, vállalati felhasználásra szánt AI-platformot igénybe venni, mint például a SUSE AI. A szervezetek az ilyen típusú rendszereken bármilyen generatív AI-szolgáltatást biztonságosan telepíthetnek és futtathatnak, legyen szó saját fejlesztésű AI-alkalmazásokról vagy már meglévő megoldásokról. Ezek a privát AI-platformok erős védelmet és felügyeletet biztosítanak a legérzékenyebb adatok felett, megakadályozva az adatszivárgást, valamint azt is, hogy illetéktelen vagy rosszindulatú szereplők hozzáférjenek a bizalmas információkhoz. Az adatvédelem így összhangban van a megfelelőségi és szabályozási előírásokkal. Ennek köszönhetően az alkalmazottak továbbra is élvezhetik az AI nyújtotta előnyöket és időmegtakarítást, miközben a vállalat képes fenntartani az adatok biztonságát és megőrizni a teljes kontrollt.