A Microsoft a ChatGPT-t több termékben is bevezette, és nincs kifogása az ellen, hogy a saját alkalmazottai használják a technológiát. A társaság azonban biztos akar lenni abban, hogy nem osztanak meg érzékeny információkat az MI-vel.
"Kérjük, ne küldjön érzékeny adatokat egy OpenAI végpontnak, mivel felhasználhatják azokat a jövőbeli modellek képzéséhez" - írta egy vezető mérnök egy belső bejegyzésben, amelyet a Business Insider is látott.
A feljegyzés jól mutatja az egyik legnagyobb kihívást a nagyméretű nyelvi modelleket használó mesterséges intelligenciákkal kapcsolatban, nevezetesen annak ellenőrzését, hogy milyen információkhoz fér hozzá, és hogy ezeket az információkat hogyan használják fel, ha megosztják.
A ChatGPT egy társalgási MI, amely az interakciókból és abból tanul, amit az emberek beírnak neki. Így nem meglepő, hogy a Microsoft el szeretné érni, hogy ne osszanak meg vele érzékeny információkat, sőt meg akarná védeni magát attól, mivel az MI végül beépítheti ezeket a felhasználóknak adott válaszaiba.
"Az emberek titoktartási megállapodásokat írnak alá, és ebből következően arra ösztönzik őket, hogy óvatosak bánjanak az információk megosztásával. Az olyan nagy nyelvi modellek, mint a ChatGPT azonban nem képesek ilyen kérdésekben érvelni, legalábbis alapértelmezésben nem" - mondta az Insidernek Vincent Conitzer, a Carnegie Mellon Egyetem informatika professzora és MI-laborjának igazgatója. Ez a fajta óvatosság más cégeknél is elkelne, amikor rávetik magukat a ChatGPT-re és más MI-alkalmazásokra.