Kirjasta Datakapitalismi kriisien maailmassa (Siltala 2023)
Ensimmäistä kertaa historiassa tekoäly pakotti valtion hallituksen eroamaan.
Hollannin veroviranomaiset käyttivät oppivaa algoritmia, joka rakensi riskiprofiileja lapsietuuksien hyväksikäyttäjistä. Viranomaiset määräsivät pelkän epäilyksen pohjalta valtavat mätkyt ja takaisinperinnät kymmenille tuhansille pienituloisille ja etnisiin vähemmistöihin kuuluville kotitalouksille vuodesta 2013 alkaen. Monet joutuivat syyttään syvään velkakierteeseen, kun korot kasvattivat saatavia kymmeniin tuhansiin, jopa yli sadan tuhannen euron. Seurauksena oli avioeroja ja itsemurhia. Yli tuhat lasta otettiin huostaan.
Yli tuhat lasta otettiin huostaan.
Kun koko skandaali paljastui 2019, ilmeni lisäksi, että veroviranomaiset olivat pitäneet yli kahden vuosikymmenen ajan salaista mustaa listaa riskiprofiiliin sopivista kansalaisista. Se oli tosiaankin musta lista: tarkastuksessa paljastui, että erityisenä kriteerinä pidettiin ”ei-länsimaalaista ulkonäköä”. Ennen kaikkea turkkilais- ja marokkolaistaustaiset poimittiin rekisteriin.
Inhimillistä kärsimystä ei voi korvata millään, mutta Hollannin tietosuojavaltuutettu määräsi verovirastolle kaikkiaan 5,5 miljoonan euron sakon lukuisista EU:n tietosuoja-asetuksen (GDPR) rikkomuksista. Eettisesti voi pitää vielä vakavampana etnistä profilointia, kansalaisten oikeusturvan vastaisia rekistereitä ja tietysti toimeenpantuja perusteettomia rangaistuksia.
Kun parlamentaarinen komissio selvitti koko kaameuden laajuuden, Mark Rutten hallitus erosi tammikuussa 2021. Sama kokoonpano palasi valtaan saman vuoden syksyllä.
Hollanti ei ole mikään Kiina, ja silti teknologialla päädyttiin hallitsemaan alamaisia.
(…)
Historian kuluessa teknologian murrokset, kuten autoistuminen tai keskitetty sähköntuotanto ovat tuoneet sekä mahdollisuuksia että riskejä, jotka vaativat uudenlaista eettistä tarkastelua. Tekoäly vaatii nyt erityistä huomiota. Perus- ja ihmisoikeuksien on toteuduttava. Tekoälyjärjestelmät eivät saa manipuloida ihmisiä tai muuten alistaa, pakottaa, johtaa harhaan, ehdollistaa tai holhota.
SIksi Euroopan unionissa valmistellaan Tekoälysäädöstä (A.I. Act), josta ministerineuvosto saavutti yleisnäkemyksen joulukuussa 2022. EU-asetus luo eettiset kriteerit neljälle eri riskitasolle.
Euroopan unioni ei hyväksy sosiaalista pisteytystä, eikä tekoälyn käyttöä haavoittuvien ihmisryhmien suhteen. Korkean riskin tekoälyksi katsotaan profilointi ja sosiaalinen ennakointi – kuten Hollannissa ja potentiaalisesti Espoossa – sekä esimerkiksi kokeiden pisteyttäminen. Chatbotit tuottavat enää rajallisen riskin. Roskapostisuodattimien ja videopelien opetetut algoritmit ovat olemattoman riskin aluetta.
Tekoälyasetus on Ison Vitosen viimeinen lenkki.
Datahallintosäädös (DGA) ja sitä täydentävä data-asetus (DA) määrittävät ehdot ja käytännöt datan jakamiselle. Digimarkkinasäädös (DMA) ja digipalvelusäädös (DSA) asettavat ehtoja verkkoalustojen toiminnalle ja sisällöille.
DSA tuo ensi kertaa esiin algoritmien valvonnan. Tekoälyasetus pystyy toivottavasti linjaamaan, miten ja millaisia algoritmeja käytetään.
Edessä on vielä monta haastetta. Sallitaanko julkisille toimijoille vapauksia, joita yksityisille ei? Voivatko turvallisuusviranomaiset hyödyntää kasvojentunnistamista rikosten ja terrorismin torjuntaan: pelätäänkö väärinkäyttöä ja kiellettyä profilointia, vai jättäytyykö EU vapaaehtoisesti muusta maailmasta jälkeen?
EU:n linjaukset ovat tärkeitä, sillä kyseessä on kuitenkin maailman ensimmäinen tekoälysäätely. Olettaen, että Bryssel-efekti nytkin määrää muun maailman säädöksiä, se asettaa viimesijaiset ehdot ison datan käytölle. Jos olen vaihteeksi optimistinen: se piirtää datakapitalismille rajat.