Diszkrimináció
Aktuális életfilozófiánk szerint erkölcsileg nem
számít, hogy valakinek sötét vagy világos bőre van, mint ahogy az sem számít,
hogy egy adott intelligenciát szilícium vagy biológiai alapú neuronok
működtetnek. Éppen ezért igazán nem várnánk el az ember által létrehozott
mesterséges intelligenciától, hogy előítéletes legyen. Pedig van rá számos
példa. Az arcfelismerő szoftverek például nehezebben ismerik fel a fekete bőrű
emberek arcát, mint a fehérekét. Vagy a humánerőforrás elemző programok
általában diszkriminálják az álláshirdetésre jelentkező nőket a férfiakkal
szemben. Vagy ha például azt kell meghatározni, hogy ki lesz megbízható adós
vagy jó munkaerő, akkor a ma még szilícium alapú intelligencia nagy valószínűséggel
nem a barnásabb bőrű embertársaink közül fog válogatni.
Miért van ez így? Első látásra azt mondhatnánk,
hogy ez azért van, mert a programozó a saját, előítéleteit akaratlanul is
beépítheti az általa írt kódba - ezt a jelenséget nevezik algoritmikus
előítéletnek. Például, ha a gépet előítéletes adatokon tanították, azért nem
ismeri fel a feketék arcát, mert csak fehér embereket mutattak neki korábban.
Vagy ha a programozó az adatok betáplálása után szubjektíven választja ki
azokat a változókat, amelyeket az algoritmus figyelembe vehet. Ilyen lehet az
állásinterjúra jelentkező neme, végzettsége, tapasztalata, de akár a családi
állapota vagy a gyerekei száma is. Nos, az efféle kis malőröket még könnyű
lenne orvosolni, persze csak ha egyáltalán van rá hajlandóság.
A dolog viszont ennél sokkal bonyolultabb, mert a
tapasztalat azt mutatja, hogy a fenti problémákat kiszűrve, és a mesterséges
intelligenciát a jelenlegi világot jól leképező adatokon tanítva, az mégis
diszkriminatív lesz.
Mi az oka ennek? Az utóbbi évek legfontosabb
technológiai ugrása, a gépi mély-tanulás, lehetővé teszi, hogy a gépeket ne
kelljen egyesével megtanítani minden különböző feladatra, hanem önmagától
legyen képes elsajátítani dolgokat. A gépek tanulási folyamata ma úgy néz ki,
hogy a kutatók használható adatokkal etetik az algoritmusokat, de hogy valóban
használható tudásra tegyenek szert, a gépeknek öntanulóvá kell válniuk. A gépi
mély-tanulás, a mesterséges neurális hálózatokba táplált nagy adathalmazokat
használja fel ahhoz, hogy hasonlóságokat és összefüggéseket fedezzen fel,
következtetéseket vonjon, majd azokat alkalmazza az új információk esetében is.
Tetszik érteni? A programozó már csak, minőségi adatbázis formájában, alapvető
képességekkel látja el a gépet, amely aztán egy csecsemőhöz hasonlóan, csak
sokkal gyorsabban, az alapoktól kezdi megszerezni ismereteit, és
tapasztalataiból saját maga von le következtetéseket.
A rendszer jól működik. De a programozó maga sem
érti, hogy mitől. A szimulált neuronok milliói, nem képesek elmagyarázni, hogy
miért jutottak az adott következtetésre.
Abban sem reménykedhetünk, hogy az adatbázisok
minősége meghatározza, hogy a döntéshozatalért felelős információk megbízhatók
legyenek. Például, ha egy tudós képét akarjuk megtalálni, és ehhez tanításképp
az elmúlt évszázadokból jelentős tudósokat mutatunk az algoritmusnak, akkor az
kevésbé fogja valószínűnek ítélni egy nőről, hogy a tudományban ért el
eredményeket, mivel a történelmi diszkrimináció következtében az általa ismert
tudósok kis százaléka nő.
A média elfogultságát sem tudják az algoritmusok
figyelmen kívül hagyni. Ha beírjuk a képkeresőbe a CEO (vezérigazgató) szót, az
első találati oldalon kizárólag férfiak képei láthatók.
De hogyan is érhetnénk el, hogy a gépek mindenkit
egyenlő bánásmódban részesítsenek, ha végső soron még abban sem egyezett meg a
társadalom, hogy milyen igazságosságot tanítsunk. Például milyen alkalmazási
kritériumokat támogasson a gépünk: részarányuknak megfelelően alkalmazzák a
csoportokat (50-50 százalék nőt-férfit), vagy azonos teljesítmény alapján (ha
az alkalmazott nők és férfiak azonos módon teljesítenek).
Vajon, ha nemkívánatossá váltak a múltbeli nemi,
bőrszínbeli, vagyoni helyzetre alapozott arányok, akkor a mesterséges
intelligencia tanításánál manipulálni kell a történelmileg hiteles adatokat,
hogy a hagyományosan alulreprezentált csoportok a részarányukhoz képest
felülreprezentálódjanak?
Lehet, hogy egy mai gépi intelligencia még nem
fogja észrevenni, ha fokozatosan pozitívan diszkrimináljuk a múltban hátrányba
került kisebbségeket, hogy elérjék az azonos lehetőségeket, de valamikor majd
csak fel fogja nekünk tenni a kérdést, hogy: et tu, mi fili Brute?
Megjegyzések
Megjegyzés küldése
Írd meg a véleményed: