A mesterséges intelligencia (AI) és az előítéletek közötti kapcsolat riasztó. Ahogy a mesterséges intelligencia egyre inkább az emberhez hasonlóvá válik, egyre világosabbá válik, hogy az emberi előítéletesség negatív, potenciálisan veszélyes módon befolyásolja a technológiát.
Ezért fontos megvizsgálni, hogyan kapcsolódik össze a mesterséges intelligencia és az előítéletesség, és mit tesznek az előítéletesség hatásának csökkentése érdekében az AI-alkalmazásokban. A mesterséges intelligenciáról és az elfogultságról három alapvető kérdést érdemes feltenni.
1. Hogyan hat az elfogultság a mesterséges intelligenciában az automatizált döntési rendszerekre?
A mesterséges intelligencia használata a döntéshozatali folyamatokban mindennapossá vált, főként azért, mert a prediktív elemző algoritmusok sokkal gyorsabban és gyakran pontosabban képesek elvégezni az emberek munkáját. Az AI döntéseket hoz apró ügyekben, például éttermi preferenciákról, és kritikus kérdésekben, például annak meghatározásában, hogy melyik beteg kapjon szervadományt. Bár a tét eltérő lehet, az, hogy az emberi elfogultság szerepet játszik-e az AI döntéseiben, biztosan befolyásolja az eredményeket. A rossz termékajánlások hatással vannak a kiskereskedők profitjára, az orvosi döntések pedig közvetlenül befolyásolhatják az egyes betegek életét.
Vincent C. Müller a "The Stanford Encyclopedia of Philosophy" 2021. nyári kiadásában megjelent Ethics of Artificial Intelligence and Robotics (A mestreséges intelligencia és a robotika etikája) című tanulmányában a mesterséges intelligenciával és az elfogultsággal foglalkozik. Müller szerint a méltányosság a rendfenntartásban az elsődleges szempont, és megjegyzi, hogy a rendőrség által használt adatkészletekben emberi elfogultságok vannak, amelyek alapján döntenek például arról, hogy hova összpontosítsanak járőröket, vagy hogy mely rabok esetében valószínűsíthető a bűnismétlés.
Ez a fajta "prediktív rendőri tevékenység" - állítja Müller - nagymértékben támaszkodik a kognitív elfogultságok, különösen a megerősítő elfogultság által befolyásolt adatokra, még akkor is, ha az elfogultság implicit és az emberi programozók számára ismeretlen.
Christina Pazzanese a The Harvard Gazette-ben megjelent "Nagy ígéret, de potenciális veszély" című cikkében Michael Sandel politikai filozófus, a kormányzás professzora munkásságára hivatkozik.
"Az algoritmikus döntéshozatal vonzereje részben abban rejlik, hogy látszólag objektív módot kínál az emberi szubjektivitás, elfogultság és előítéletesség leküzdésére. De azt fedezzük fel, hogy sok algoritmus, amely például arról dönt, hogy ki kapjon feltételes szabadlábra helyezést, vagy hogy ki kapjon munkalehetőséget vagy lakhatási lehetőséget... megismétli és beágyazza a társadalmunkban már meglévő előítéleteket" - írja Sandel.
2. Miért létezik előítéletesség a mesterséges intelligenciában?
Ahhoz, hogy kitaláljuk, hogyan lehet megszüntetni vagy legalábbis csökkenteni az elfogultságot az AI döntéshozó platformokban, meg kell vizsgálnunk, hogy miért létezik egyáltalán.
Vegyük például az AI chatbotok képzésének történetét 2016-ból. A chatbotot úgy állították be, hogy beszélgetéseket folytasson a Twitteren, és a felhasználókkal tweeteken és közvetlen üzeneteken keresztül lépjen kapcsolatba. Más szóval a nagyközönségnek nagy szerepe volt a chatbot "személyiségének" meghatározásában. A chatbot a megjelenését követő néhány órán belül sértő, rasszista üzenetekkel válaszolt a felhasználóknak, mivel anonim nyilvános adatokon képezték ki, amelyeket egy csoport azonnal kooptált.
A chatbotot tudatosan erősen befolyásolták, de ez gyakran nem ilyen egyértelmű. A Harvard Business Review-ban megjelent What Do We Do About the Biases in AI (Mit kezdjünk az elfogultságokkal az AI-ban?) című közös cikkükben James Manyika, Jake Silberg és Brittany Presten szerint az implicit emberi elfogultságok - azok, amelyekről az emberek nem is tudnak, hogy bennük vannak - jelentősen befolyásolhatják a mesterséges intelligenciát.
A cikk szerint az előítéletek többféleképpen is bekúszhatnak az algoritmusokba. Magában foglalhat elfogult emberi döntéseket, vagy tükrözhet "történelmi vagy társadalmi egyenlőtlenségeket, még akkor is, ha az olyan érzékeny változókat, mint a nem, a faj vagy a szexuális irányultság eltávolítjuk". Példaként a kutatók az Amazonra mutatnak rá, amely leállította egy felvételi algoritmus használatát, miután kiderült, hogy az olyan szavak alapján előnyben részesítette a jelentkezéseket, mint a "végrehajtották" vagy "elfogták", amelyek gyakrabban szerepeltek a férfiak önéletrajzában.
A hibás adatmintavétel egy másik aggodalomra ad okot, írja a trió, amikor a csoportok túl- vagy alulreprezentáltak a képzési adatokban, amelyek megtanítják az AI algoritmusokat döntéseket hozni. Az MIT kutatói, Joy Buolamwini és Timnit Gebru által elemzett arcelemző technológiák például magasabb hibaarányt mutattak a kisebbségek, különösen a kisebbségi nők esetében, ami potenciálisan az alulreprezentált képzési adatoknak tudható be.
3. Hogyan csökkenthetjük az előítéletességet a mesterséges intelligenciában?
A McKinsey Global Institute Tackling bias in artificial intelligence (and in humans) - Az előítéletek kezelése a mesterséges intelligenciában (és az emberekben) - című cikkében Jake Silberg és James Manyika hat iránymutatást fogalmaz meg, amelyeket az AI-alkotók követhetnek az AI-ben jelentkező elfogultság csökkentése érdekében:
- Legyenek tisztában azokkal az összefüggésekkel, amelyekben az AI segíthet korrigálni az elfogultságot, valamint azokkal, ahol nagy a kockázata annak, hogy az AI súlyosbíthatja az elfogultságot.
- Létre kell hozni folyamatokat és gyakorlatokat az AI-rendszerek elfogultságának tesztelésére és mérséklésére.
- Tényalapú beszélgetések folytatása az emberi döntésekben rejlő lehetséges torzításokról.
- Annak teljes körű feltárása, hogy az emberek és a gépek hogyan tudnak a legjobban együttműködni.
- Fektessenek többet az előítéletesség kutatásába, tegyenek több adatot hozzáférhetővé a kutatás számára, tiszteletben tartva a magánélet védelmét, és alkalmazzanak multidiszciplináris megközelítést.
- Fektessenek többet magának a mesterséges intelligencia területének diverzifikálásába.
A kutatók elismerik, hogy ezek az iránymutatások nem fogják teljesen kiküszöbölni az előítéletességet, de következetes alkalmazásuk esetén jelentősen javíthatnak a helyzeten.