Soolised eelarvamused meie suhetes tehisaruga. Intervjuu tehnikafilosoof Galit Wellneriga

Nüüdisajal, mil tehisaru rakendatakse mitmetes valdkondades haiguste diagnoosimisest küberturbe- ja näotuvastussüsteemideni, peame meeles pidama, et andmekogud ja algoritmid pole pelgalt meie otsustusprotsesside erapooletud võimendused.

Tallinna Ülikooli nooremteadur ja doktorant Kevin Rändi usutles tehnikafilosoofi ja Iisraeli innovatsiooniministeeriumi tehisintellekti reguleerimise foorumi akadeemilist nõunikku dr Galit Wellnerit. Dr Wellner toob esile, kuidas tehisaru süsteemides eksisteerivad üht sugu eelistavad või vääriti kujutavad soolised eelarvamused, mis tekitavad probleeme mitmesugustes tööalastes ja argistes kontekstides, kus me eeldame tehisarult tõese maailmataju vahendamist.

Sedamööda, kuidas tehisaru-põhine otsuste langetamine on hoogu kogunud, võib nüüd välja tuua arvukalt näiteid tehisaru väljendatud eelarvamustest, nagu olukorrad, kus masinad eelistavad meeste nimesid või peegeldavad rassismi. Galit, kas me saame öelda, kust need eelarvamused on tehisarusse juurdunud või mis täpselt sellistes otsustusprotsessides süüdi on?

Olulised teosed, nagu Cathy O’Neili “Weapons of Math Destruction”, Caroline Criado-Perezi “Invisible Women” ning Catherine D’Ignazio ja Lauren F. Kleini “Data Feminism”, on kõik juhtinud tähelepanu sellele, kuidas algoritmid ja andmed naisi kahjustavad ja neile ülekohut teevad. Mõned andmeteadlased “süüdistavad” eelarvamuslikkuses andmeid, selgitades, et need lihtsalt peegeldavad maailma. Cathy O’Neil (“Weapons of Math Destruction”) ning Catherine D’Ignazio ja Lauren Klein (“Data Feminism”) on näidanud, kuidas juba pelgalt mõne konkreetse andmekogu eelistamine peegeldab võimalikke eelarvamusi. Võtame näiteks sellise populaarse avatud andmekogu nagu Enroni e-kirjad. Ilma kontekstita (pankrotistunud ettevõte, mida juhtisid peamiselt valgenahalised mehed) võib andmeteadlast üllatada, et selle eeldatult erapooletu andmekogu põhjal koolitatud süsteemid on tugevalt eelarvamuslikud. Mõnikord ilmneb eelarvamus treenimise käigus, kus mõningaid parameetreid hinnatakse teistest kaalukamateks, misläbi need hakkavad peegeldama varjatud eelarvamusi. Tõsisematel puhkudel pole eelarvamusi võimalik varjata, kuid praegu paistab, et ilmselged eelarvamused on pigem erand kui reegel.

Millised uurimisvaldkonnad asuvad feminismi ja tehnika kokkupuutealas? Milline on sinu suhtumine nendesse küsimustesse oma töös?

O’Neili ning D’Ignazio ja Kleini teosed on minu tööd oluliselt inspireerinud ning paljud näited, mida enda uurimustes kasutan, pärinevad neilt autoreilt. Mulle meeldib nende tekstide juures, et nad praktiseerivad feminismi laiemas tähenduses, nii et see on oluline kõigi jaoks, kellele ebaõiglus muret teeb, olgu nad naised või mehed. Huvitav on, et ehkki need raamatud ilmusid enne ChatGPT käiku laskmist, õnnestus neil ometi jääda ajakohaseks (ja muutuda isegi ajakohasemaks!) pärast 2022. aasta novembrit, mil OpenAI tegi ChatGPT üldsusele piiranguteta kättesaadavaks.

Mis puutub seotud uurimisvaldkondadesse, siis esimene on mõistagi soouuringud. Tehisaru rakendamise puhul peab meil olema hea arusaamine erisugustest tehnikavahenditest, mis väldiksid humanitaarteadustes sageli esinevaid utoopilisi ja düstoopilisi lähenemisi. Samuti peame mõistma, et tehnilised lahendused pole kunagi erapooletud ning nad teevad midagi, mis on seotud inimlike väärtuste ja maailmavaadete paljude tahkudega.1 Uurimisvaldkonnad, mida mina kasutan, on filosoofia, sotsioloogia, antropoloogia ja psühholoogia. Enamasti viitan ma neile valdkondadele kaudselt läbi neid ühendavate interdistsiplinaarsete raamistike – peamiselt teadus- ja tehnoloogiauuringute (ingl STS, Science, Technology, Society Studies) ning postfenomenoloogia2 (tehnikafilosoofia haru, mille töötas algselt välja Don Ihde).

Laias laastus tähendab fenomenoloogia meie teadvuses millegi tähenduse kujunemise uurimist ja kirjeldamist, mis keskendub kogemuse kehastatud ja kontekstitundlikele tunnustele. See on oluline filosoofia-ülene distsipliin. Kuidas aga määratleksid tehnikafilosoofia postfenomenoloogilist haru? Mida see antud teema kohta ütleb?

Olen eelarvamuslike algoritmidega seonduvad tähelepanekud kaardistatud teoreetilise raamistiku alusel, mida nimetatakse postfenomenoloogiaks. Nagu nimigi ütleb, on selle juured sügaval fenomenoloogias (ja ka pragmatismis3). See võimaldab mul uurida teatud tehnikat kasutavate inimeste kogemusi. Tehisaru puhul kaalutakse inimeste kogemusi sageli kitsalt kasutajaliidese (ingl UI, user interface) tehnilises tähenduses, keskendudes seega ainult inimese ja raali vahelistele kohestele ning lühiajalistele vastastikmõjudele. Postfenomenoloogia võimaldab mul mõelda kogemusest enne ja pärast pelka kasutaja poolset kokkupuudet tehnikaga.

Peame mõistma, et tehnilised lahendused pole kunagi erapooletud ning nad teevad midagi, mis on seotud inimlike väärtuste ja maailmavaadete paljude tahkudega.

See omakorda võimaldab mul süstemaatiliselt analüüsida digitaalseid tehnikaid ning nende mõjusid kasutajatele ja ühiskonnale. Võtame esiteks vaatluse alla keha ja meeltega seotud aspektid – selle, kuidas me maailmas liigume ning mida me saame ja ei saa tajuda. Näiteks: kui me soovime luua rakenduse, mis loendab samme eesmärgiga panna meid igapäevaselt piisavalt liikuma, peaksime arvestama, et sammu pikkus on kehati erinev ja naiste sammud enamasti lühemad. Mis puutub meeltesse, siis tehisaru kasutamine otsimootorina on minu jaoks samaväärne keskkonna “nägemise” ja “kuulmise” viisiga, mistõttu ma eeldaksin tõest vastavust ehk kuidas asjad tegelikult on. Seda aga andmed alati ei paku, sest reeglina tuleneb see pikkadest ajaloolis-ühiskondlikest protsessidest, mis on tõenäoliselt eelarvamuslikud. Täiuslikus maailmas soovitaks videorakendus meile sisu, mille autoriteks on kõigist sugudest ning kõikide nahavärvidega inimesed, ent ma pole kindel, et selline tulemus oleks täna võimalik.

Järgmised aspektid on seotud tähenduse loomise ja maailma tõlgendamisega, viidates tehnikale justkui teisele inimesele või koheldes seda osana taustast seal, kus tehnilised lahendused jäävad väljapoole meie vahetut vaatevälja või kasutust. Oma töös olen ma üksikasjaliselt kirjeldanud nelja aspekti – keha, meeli, tähenduse loomist ja tõlgendamist – ning üritanud välja töötada täiendavaid suhteid inimese ja tehnika vahel. Ma usun, et need võivad aidata poliitikakujundajatel tagada, et nende regulatsioonid hõlmaksid endas võimalikult paljusid aspekte. Nende ning muude inimeste ja tehnika vaheliste suhete järjekindel analüüsimine võib parandada tulevikus loodavate tehniliste lahenduste nähtavust. Tänu sellele on võimalik aeglaselt muutuvaid seadusi paremini kohandada väga kiirete tehniliste muutustega.

2022. aastal pakkusid välja kaks soovituslike eeskirjade kategooriat, mille abil tehisaru soolisi eelarvamusi leevendada – läbipaistvuse ja inimosaluse põhimõtte (ingl human-in-the-loop). Kas võiksid neist ideedest lähemalt rääkida?

Läbipaistvust on nüüdisajal võimalik praktiseerida mitmel tasandil: saab avaldada tehisaru treeningandmestikud; tehisarusüsteemi toimimise loogika; kaalutlused, mida tehisaru koolitamise käigus rakendati (ehk mida peetakse õigeks või valeks) ning tuua välja juhtumeid, mille puhul süsteemi tulemused olid eelarvamuslikud (#MeToo liikumise loogika). Inimosaluse põhimõtte juures pakkusin välja “lepitaja” (ingl ombudsman) mehhanismi, mis tagab, et algoritme arendavad ja käigus hoidvad ettevõtted kasutajate poolt tuvastatud eelarvamustega ka tegelevad.

Ma uurisin viit lahendust, kuid kirjeldasin üksikasjaliselt vaid neid kahte, millest soovituslike strateegiate juures rääkisime. Ülejäänud kolm olid järgmised:

  1. Igasuguste sooviidete vältimine andmekogudes. See osutus ebatõhusaks, kuna mitmetel puhkudel võib sugu kaudsete tegurite kaudu eeldada.
  2. Eelarvamusvastasteks (ingl anti-bias) kujundatud algoritmid. Nende uurimisega tegeletakse praegu arvutiteaduses ühitamisprobleemi (ingl alignment problem) kontekstis. 
  3. Masinhariduse (ingl machine education) edendamine. Tegemist on kõige vähem arendatud lahendusega, millel on enim potentsiaali. See tähendab, et masinõpet tuleks täiendada haridusliku loogikaga, mille eesmärk on luua “moraalne kompass”.

“Masinõpe” (ingl machine learning) tähistab teatud õpetamisrežiimil rajanevat protsessi, milles inimesest arendaja või andmeteadlane täidab “õpetaja” rolli, kes koolitab algoritmi aru saama, millised on asjakohased parameetrid. “Masinharidus” on üles ehitatud teistsugust loogikat kasutades ning tugineb enesereflektsioonil ja erinevates ühiskondlikes olukordades tekkida võivate stsenaariumite prognoosimisel. Meie ülesanne on välja töötada selle algoritmilise hariduse tehnika (ingl technique), pakkudes ühtlasi ka kasutajatele ehk inimestele tehisaruga töötamise oskusi ja sellealast pädevust.

Pildi autor Jorge Franganillo, Pixabay.

 

Tähelepanekud viisides, kuidas tehnikad meie eelarvamustega suhestuvad ja neid täiendavalt kujundavad, koos sinu poliitika kujundamise soovitustega viitavad spetsiifilisele läbipaistmatuse-probleemile. See probleem paistab kujunevat üha tähendusrikkamaks olukordades, kus tehisaru langetatud otsused võivad inimrühmi mastaapsemalt ohustada. Kui me sellest hoolimata oleme sunnitud elama teadmisega, et tehniliste piirangute tõttu jäävad algoritmid mingi piirini läbipaistmatuks, kas meil on siiski võimalik arendada kaasavamaid viise tehisaruga suhestumiseks? Mil moel võiksid ühiskondlikud, kultuurilised või poliitilised aspektid olla olulised tehisaruga paremate suhete loomises?

See on väga oluline küsimus ja tõeline väljakutse mitte ainult tehnoloogia arendajatele, vaid meile kõigile, kogu ühiskonnale. Tehnilised piirangud on võimalik lahendada, ent kaubanduslikud kaalutlused alluvad teistsugustele mehhanismidele. See on valdkond, kus tehnikafilosoofia laiemalt ning postfenomenoloogia veel eriti üritavad poliitika kujundamist juhtida. Tänapäeval on isegi eelarvamuse kogemise pelk tõenäosus peidetud intellektuaalomandi õiguste ning segaste lepingute müüri taha. Euroopa Liit on üritanud neid müüre purustada, võttes kõigepealt vastu isikuandmete kaitse üldmääruse (ingl GDPR, General Data Protection Regulation) ja hiljuti ka tehisintellekti seaduseelnõu (ingl AI Act). Tehisarusüsteeme arendavad ettevõtted peaksid nüüd tuvastatud riskid avaldama. Minu hinnangul on see oluline samm edasi võitluses läbipaistvuse eest.

Mainisid tehisintellekti seaduseelnõud, hiljuti Euroopas vastu võetud tehisaru reguleerimise raamistikku. Minu teada oled sel teemal äsja avaldanud ka artikli. Mida tuleks selle eelnõu kohta soolise võrdõiguslikkuse kontekstis teada? Kas see regulatsioon on pikas perspektiivis sooliste eelarvamuste lahendamiseks tõhus?

Soolised eelarvamused olid minu jaoks üsnagi silmatorkavad, kui WhatsApp soovitas mul heebreakeelsetes lausetes asendada naissooline vorm meessoolisega – isegi siis, kui lause oli grammatiliselt korrektne!

Sooline võrdõiguslikkus on üks tehisintellekti seaduseelnõu aluspõhimõtetest, ehkki sellele alati otsesõnu ei viidata.4 On hea näha otseseid soovitusi diskrimineerimise vältimiseks Euroopa Nõukogu hiljutises, 2024. aasta 17. mail avaldatud tehisintellekti konventsioonis. Selle kümnes artikkel kannustab osapooli “juurutama või säilitama meetmeid, mis tagaksid, et tehisarusüsteemide elutsükli vältel toimuvad tegevused austaksid võrdõiguslikkust, sealhulgas soolist võrdõiguslikkust, ning keelustaksid diskrimineerimise…” Euroopa Liidu praegune regulatsioon on avatud, et tagada selle asjakohasus erinevate tehisintellektis ette tulevate soolise eelarvamuslikkuse vormide suhtes. Ainult aeg näitab, kas see seadus on piisavalt “tulevikukindel”.

Oled tehnikafilosoofia vaatenurgast lähtudes kirjutanud ka mobiiltelefonidest. Tehisaru algoritmid on juba kujunenud lahutamatuks osaks meie nutitelefonide tarkvarast. Näiteks pakub tehisaru vahendeid, et pilte hõlpsamalt töödelda ning korrigeerida seda, kuidas kujutised erinevates tingimustes välja peaksid nägema. Üks sellise sünteetilise meedia vorme on nn süvavõltsing (ingl deepfake). Süvavõltsinguid peetakse kahjulikuks ning üks selle paljudest põhjustest on asjaolu, et tehnoloogiat on kasutatud naiste ohustamiseks ning seksuaalseks ahistamiseks. Mida sina sellest teemast arvad?

Minu uurimistöö üleminek mobiiltelefonidelt sooliste eelarvamusteni tehisarus kulges veidi teistsugust rada pidi. See algas tõlke- ja automaatse täitmise algoritmidest, mis on väga laialt levinud ja kasulikud väikestes seadmetes, nagu telefonid. Seal olid soolised eelarvamused minu jaoks üsnagi silmatorkavad, näiteks olukorras, mil WhatsApp soovitas mul heebreakeelsetes lausetes asendada naissooline vorm meessoolisega – isegi siis, kui lause oli grammatiliselt korrektne!

Süvavõltsingute probleemi seksuaalse ahistamise kontekstis peaksid käsitlema kriminaalõiguse spetsialistid. Politsei peaks kasutama oma võimu selle peatamiseks võimalikult varakult, juba koolides. Paljudes riikides on vastavad juriidilised vahendid olemas, neid tuleks lihtsalt rakendada uues valdkonnas – digitaalses ruumis. Aga me ei tohi sellega piirduda. Süvavõltsingute probleem ohustab ka demokraatlikke valimisi, nagu näitavad hiljutised katsed mittedemokraatlike riikide poolt 2024. aastal valimisprotsesse hägustada. Sellega peaksid tegelema juba sisejulgeolekuorganid, mitte enam politsei.

Tänavu Tallinna külastades esitlesid oivaliselt Geoffrey Dierckxsensi ja Marco Arientiga ühiselt toimetatud raamatut, milles mitmed autorid uurivad kujutlusvõime, tehnoloogia, kunsti ja eetika filosoofiat. Kuna oleme arutlenud sünteetiliste meediumide üle, sooviksin põhjalikumalt käsitleda võimalikke seoseid sooliste eelarvamuste ning tehisaru poolt genereeritud piltide ja videote vahel. Viimasel ajal on tehisarul põhinevad tööriistad hakanud tootma loovat visuaalset sisu. Kuidas saame tõlgendada soolisi eelarvamusi tehisaru poolt loodud visuaalide kontekstis?

Mõnedes riikides üritavad äärmuslikud usulised liikumised keelustada avalikus ruumis naisi kujutavate piltide näitamise.

Soolisi eelarvamusi on näha olnud juba praeguse tehisaru-vaimustuse suhteliselt varajastes süsteemides, näiteks tehisaru poolt loodud piltidel erinevate elukutsete esindajatest. Väga palju on näiteid tehisaru-piltidest, mis kujutavad tegevjuhte, arste jne ainult meestena, samas kui medõdesid kujutatakse enamasti naistena. Taoline eelarvamuslikkus ähvardab meid ajas aastakümneid tagasi viia. Visuaalne sisu tõstatab mure nähtavuse pärast ka laiemas kontekstis. Mõnedes riikides üritavad äärmuslikud usulised liikumised keelustada avalikus ruumis naisi kujutavate piltide näitamise. Nii juhtus näiteks Iisraelis ning see on häbiasi. Sel teemal ilmunud ingliskeelsed tekstid pole eriti hiljutised5, kuid see ei tähenda, et probleem oleks kuhugi kadunud.6 On põhjust karta, et tehisaru hakatakse kasutama selliste püüdluste võimendamiseks ja mitmekordistamiseks.

Oluline on meeles pidada, et soolisi eelarvamusi võib leida ka mittevisuaalsetes kontekstides, näiteks tööturul, eriti kui töötajaid juhivad algoritmid. Uuringud on näidanud, kuidas algoritmipõhistel turgudel, näiteks eBay’s, maksti naissoost kauplejatele samade toodete eest väiksemat hinda ning naissoost sõidukijuhid teenisid oma meeskolleegidest vähem. Praegu on selliseid andmeid keeruline hankida, kuigi ma loodan, et Euroopa uute regulatsioonide tuules saab meil selliste eelarvamuste tuvastamiseks olema piisavalt läbipaistvust. Tahaksin uskuda, et see pakub huvi ka taolisi platvorme haldavatele ettevõtetele.

Suur tänu, Galit! Viimane küsimus – Eesti loodab tõsta tehisaru-põhiste lahenduste osas teadlikkust ja tõhusust. Mida tuleks sinu hinnangul selle juures silmas pidada?

Ma pole kindel, kas just tõhusust on vaja ning kas teadlikkusest üksi piisab. Minu arvates peaks tehisaru-põhiste lahenduste lõimimine olemasolevatesse valitsus- ja ärisüsteemidesse rajanema hoolikal kavandamisprotsessil, mis hõlmab riskide ja kasude teemalist avalikku arutelu.

  1. See on üks keskseid ideid paljudes lähenemistes tehnikale ja inseneriteadusele. Tehnikad kui disainitud tehisobjektid “teevad midagi” ning need pole lihtsalt instrumendid, vaid võivad endas sisaldada liigagi inimlikke arusaamu ja poliitilisi vaateid (nt Langdon Winner, “Do Artifacts Have Politics?”, “Daedalus” 109, nr 1 (1980): 121–36), kujundada meie moraali (Peter-Paul Verbeek, “Moralizing Technology: Understanding and Designing the Morality of Things” (Chicago ; London: The University of Chicago Press, 2011)) ja etendada rolli meie väärtuspõhistes transformatsioonides (nt Galit Wellner, “Digital Cultural Sustainability”, kogumikus “Sustainability in the Anthropocene: Philosophical Essays on Renewable Technologies”, toim. Róisín Lally, “Postphenomenology and the Philosophy of Technology” (Lanham, Maryland: Lexington Books, 2019), 135–49).
  2. Postfenomenoloogia on tehnikafilosoofia haru, mis uurib mitmesuguseid viise, kuidas inimesed tehnikaid kasutavad ja nende abil maailma mõtestavad. Selle aluseks on inimeste tunnistamine kehastatud ja kultuuriliste olemitena, kelle argiseid kogemusi kujundavad tehnikad prillidest digiassistentideni. Vt ka hiljutist intervjuud Tartu Ülikooli filosoofi Ave Metsaga, kes arutles postfenomenoloogia ja hoolitsuseetika teemadel Robert Rosenbergeriga: Leida | Technologies are Non-Neutral: Postphenomenology and Issues of Care.
  3. Pragmatism rõhutab materiaalseid aspekte, harjumusi ja situatsioonilisi kontekste, mis määravad seda, kuidas konkreetset tehnilist lahendust kasutatakse. Postfenomenoloogia alusepanija Don Idhe kritiseeris fenomenoloogiat selle ülemäärase subjektivismi ja liigselt “teadvust kirjeldavasse keelde” kaldumise eest. Vt Don Ihde, “Husserl’s Missing Technologies” (New York: Fordham University Press, 2016), 96
  4. Vt Ruschemeier ja Bareis, Gsenger/Sekwenz (toimetajad), “Digital Decade: How the EU shapes digitalisation research”, Nomos 2025.
  5. Vt nt: https://en.idi.org.il/articles/6972
  6. Vt nt: https://blogs.timesofisrael.com/ive-been-fighting-for-womens-rights-in-israel-for-20-years/ ja https://forward.com/life/133065/in-israel-attempts-to-remove-women-from-the-public/