Adimen Artifizialaren erabakiak ulertzen

Adimen Artifiziala (AA) gure bizitzaren parte bihurtu da azken urteetan. Hainbat sektoretan bere erabilera azkar hazten ari da, hala nola osasungintzan, finantzetan, garraioan, fabrikazioan eta entretenimenduan. AAren erabilera gero eta handiagoa izan arren, honek hartzen dituen erabakiak edo ematen dituen emaitzak azaltzea gehienetan ez da posible. Baina ez pentsatu erabaki horiek ulertzeko gaitasun eza soilik erabiltzaileena dela, AAren ereduak garatzen eta merkaturatzen dituztenek ere ez dute erabaki horiek interpretatzeko modurik.
AAko sistemek, bere entrenamendurako eskuragarri dituzten milioika datuetatik abiatuta, ikasitako algoritmoak erabiltzen dituzte, gizakiak esplizituki programatutako algoritmoak erabili beharrean. Algoritmo horien eraikitze prozesu horretan, AAren ereduek datuen arteko elkarrekintza berriak aurkitu ditzakete eta erabakiak hartu eraikitako eredu konplexu horietan oinarrituta. Egoera horietan, sistemek erabaki jakin batzuk zergatik hartu dituzten ez da argi egoten, eta ondorioz, sortzen den «kutxa beltzaren» (black-box ingelesez) efektuak AAko sistemekiko konfiantza okerra edo gehiegizko menpekotasuna ekar lezake, eta biek pertsonengan ondorio kaltegarriak dituzte.
Gaur egungo gizartean, erabiltzaileek teknologia jakin baten azpian zer dagoen ulertzea beharrezkoa ez dela argudiatu dezakete batzuek. Adibidez, gutako zenbatek dakigu nola funtzionatzen duen egunero gidatzen dugun kotxeko motorrak? Edota nola lortzen duen hozkailuak tenperatura baxu mantentzea?
Adibide horietan erabiltzen den teknologia eta AAren teknologiaren artean, bi dira azpimarratu beharreko aldeak, ordea. Batetik, AAren ereduak erabakiak modu automatikoan hartzeko edo hartzen laguntzeko erabiltzen dira. Bestetik, kotxeko adibidera bueltatuz, mekanikoak sakonki ezagutzen du gure motorrak nola funtzionatzen duen; AAko ingeniariek, berriz, ez dakite zehazki zer gertatzen ari den eredu konplexu erraldoi horien barruan.
Noski, eredu hauen erabileraren arabera, hartzen diren erabakien ondorioak ere kalte desberdinak eragin ditzake. Adibideetara bueltatuz, AAko sistema batek entzungo dugun hurrengo abestia gomendatzen badigu, hartutako erabakia bata edo bestea izateak ez du ondorio larririk izango gugan, asko jota zure bizitzako minutu batzuk igaroko ditugu benetan gustuko ez dugun abesti bat entzuten. Berriz, AAren teknologia hori gure sendagileak erabiliko balu ebakuntza egin behar digun edo ez erabakitzeko, hartutako erabakiak ondorio zuzenagoak edukiko lituzke gugan.
Opakutasun horrek, erabakiak ulertzeko zailagoak egiteaz gain, gizarteari era isil eta ezkutuan eragingo lioke; esaterako, AAko sisteman dauden gabeziek alborapena, zehaztugabetasuna eta haluzinazioak ezkuta ditzakete. Datuetatik ikasitako algoritmoek norbanakoentzat potentzialki diskriminatzaileak edo kaltegarriak diren emaitzak eman ditzakete.
Horregatik, azken urteetan Adimen Artifizial Azalgarriaren (XAI) kontzeptua jaio da AAko sistemek azalpen argiak eta ulergarriak emateko helburuarekin. Soluzio hauek «kutxa beltzaren» efektua desagerrarazi eta gizakiontzat AAren erabakiak hartzeko prozesuen mekanismoa ulertzeko erremintak eskaintzen dizkigute. Idealki, XAIk sistemaren ikasketa prozesuak azaltzeko gaitasuna barneratu beharko luke; bere iraganeko ekintzak, martxan dauden prozesuak eta hurrengo urratsak azaldu; eta garrantzitsua den informazioa ezagutzera eman.
Etorkizunean, XAI teknologiari esker, AAko sistemen gaitasun teknikoak soilik begiratu beharrean, giza eskubideak defendatzeko gizateriak duen erantzukizun kolektiboa, etika eta ardura ere kontuan izango dituzten soluzioak garatuko dira. Hala ere, gogoratu gizakion ardura dela aurreko baloreetan oinarritutako gizarte batean bizitzea, eta ez Adimen Artifizialarena.

Itsasoa maitatu eta babestuz
Gaitzari aurre hartu

Eskola Kirolaren inguruko epaiak berriz azaleratu du lehia goiztiarraren eztabaida

Baterajotzea: Gazte komunitate feminista batu eta indartzeko elkargunea Zaldibarren

