Diszkrimináció

Aktuális életfilozófiánk szerint erkölcsileg nem számít, hogy valakinek sötét vagy világos bőre van, mint ahogy az sem számít, hogy egy adott intelligenciát szilícium vagy biológiai alapú neuronok működtetnek. Éppen ezért igazán nem várnánk el az ember által létrehozott mesterséges intelligenciától, hogy előítéletes legyen. Pedig van rá számos példa. Az arcfelismerő szoftverek például nehezebben ismerik fel a fekete bőrű emberek arcát, mint a fehérekét. Vagy a humánerőforrás elemző programok általában diszkriminálják az álláshirdetésre jelentkező nőket a férfiakkal szemben. Vagy ha például azt kell meghatározni, hogy ki lesz megbízható adós vagy jó munkaerő, akkor a ma még szilícium alapú intelligencia nagy valószínűséggel nem a barnásabb bőrű embertársaink közül fog válogatni.
Miért van ez így? Első látásra azt mondhatnánk, hogy ez azért van, mert a programozó a saját, előítéleteit akaratlanul is beépítheti az általa írt kódba - ezt a jelenséget nevezik algoritmikus előítéletnek. Például, ha a gépet előítéletes adatokon tanították, azért nem ismeri fel a feketék arcát, mert csak fehér embereket mutattak neki korábban. Vagy ha a programozó az adatok betáplálása után szubjektíven választja ki azokat a változókat, amelyeket az algoritmus figyelembe vehet. Ilyen lehet az állásinterjúra jelentkező neme, végzettsége, tapasztalata, de akár a családi állapota vagy a gyerekei száma is. Nos, az efféle kis malőröket még könnyű lenne orvosolni, persze csak ha egyáltalán van rá hajlandóság.
A dolog viszont ennél sokkal bonyolultabb, mert a tapasztalat azt mutatja, hogy a fenti problémákat kiszűrve, és a mesterséges intelligenciát a jelenlegi világot jól leképező adatokon tanítva, az mégis diszkriminatív lesz.
Mi az oka ennek? Az utóbbi évek legfontosabb technológiai ugrása, a gépi mély-tanulás, lehetővé teszi, hogy a gépeket ne kelljen egyesével megtanítani minden különböző feladatra, hanem önmagától legyen képes elsajátítani dolgokat. A gépek tanulási folyamata ma úgy néz ki, hogy a kutatók használható adatokkal etetik az algoritmusokat, de hogy valóban használható tudásra tegyenek szert, a gépeknek öntanulóvá kell válniuk. A gépi mély-tanulás, a mesterséges neurális hálózatokba táplált nagy adathalmazokat használja fel ahhoz, hogy hasonlóságokat és összefüggéseket fedezzen fel, következtetéseket vonjon, majd azokat alkalmazza az új információk esetében is. Tetszik érteni? A programozó már csak, minőségi adatbázis formájában, alapvető képességekkel látja el a gépet, amely aztán egy csecsemőhöz hasonlóan, csak sokkal gyorsabban, az alapoktól kezdi megszerezni ismereteit, és tapasztalataiból saját maga von le következtetéseket.
A rendszer jól működik. De a programozó maga sem érti, hogy mitől. A szimulált neuronok milliói, nem képesek elmagyarázni, hogy miért jutottak az adott következtetésre.
Abban sem reménykedhetünk, hogy az adatbázisok minősége meghatározza, hogy a döntéshozatalért felelős információk megbízhatók legyenek. Például, ha egy tudós képét akarjuk megtalálni, és ehhez tanításképp az elmúlt évszázadokból jelentős tudósokat mutatunk az algoritmusnak, akkor az kevésbé fogja valószínűnek ítélni egy nőről, hogy a tudományban ért el eredményeket, mivel a történelmi diszkrimináció következtében az általa ismert tudósok kis százaléka nő.
A média elfogultságát sem tudják az algoritmusok figyelmen kívül hagyni. Ha beírjuk a képkeresőbe a CEO (vezérigazgató) szót, az első találati oldalon kizárólag férfiak képei láthatók.
De hogyan is érhetnénk el, hogy a gépek mindenkit egyenlő bánásmódban részesítsenek, ha végső soron még abban sem egyezett meg a társadalom, hogy milyen igazságosságot tanítsunk. Például milyen alkalmazási kritériumokat támogasson a gépünk: részarányuknak megfelelően alkalmazzák a csoportokat (50-50 százalék nőt-férfit), vagy azonos teljesítmény alapján (ha az alkalmazott nők és férfiak azonos módon teljesítenek).
Vajon, ha nemkívánatossá váltak a múltbeli nemi, bőrszínbeli, vagyoni helyzetre alapozott arányok, akkor a mesterséges intelligencia tanításánál manipulálni kell a történelmileg hiteles adatokat, hogy a hagyományosan alulreprezentált csoportok a részarányukhoz képest felülreprezentálódjanak?
Lehet, hogy egy mai gépi intelligencia még nem fogja észrevenni, ha fokozatosan pozitívan diszkrimináljuk a múltban hátrányba került kisebbségeket, hogy elérjék az azonos lehetőségeket, de valamikor majd csak fel fogja nekünk tenni a kérdést, hogy: et tu, mi fili Brute?

Megjegyzések