Ladataan
Pääaiheet 100 tuoreinta Uutiset Urheilu Hyvä elämä Kulttuuri Mielipiteet Moro Näköislehti Tähtijutut

Hallitus haluaa tekoälylle eettiset ohjeet – Tamperelaisprofessori kertoo, millaisia ongelmia niillä ratkaistaan

Uusi hallitus linjasi eilen, että Suomeen rakennetaan tekoälyn eettinen koodisto. Varsin moni hallitusohjelman tekoälyä koskevista osista liittyy yksilöiden tasa-arvoiseen kohteluun. Yksi Suomen tavoitteista on kieltää autonomisten asejärjestelmien kehittäminen ja tuotanto kansainvälisesti. Tarkoituksena on myös estää algoritmien syrjivyys sekä toteuttaa lainmuutokset, jotka edistävät tekoälyn käyttöä sosiaaliturvaetuja hankkiessa. Ohjelmassa ei kerrota, kuka ohjeistuksen tekoälyn eettisestä käytöstä lopulta tekee. Linjauksilla rakennetaan eettisempää yhteiskuntaa Tekoälyn etiikkaan perehtynyt filosofian professori Arto Laitinen Tampereen yliopistolta pitää hallituksen linjaa tarpeellisena. – Tekoäly on tärkeä, puoluerajat ylittävä aihe. Hyvä, että uusi hallitus jatkaa edellisen aikana aloitettua työtä. Yhdenvertaisuus on Laitisen mukaan eettinen selkänoja kaikelle yhteiskunnalliselle toiminnalle, mutta muut periaatteet tekevät siitä konkreettisen eri tilanteissa. Tekoälyn tulee siksi noudattaa samoja periaatteita kuin muunkin yhteiskunnallisen elämän. Laitisen mukaan autonomisten asejärjestelmien rakentamiseen puuttuminen on eettisesti hyvä linjaus ja kaikkien muidenkin valtioiden olisi tarpeen osallistua siihen. Tekoäly voi syrjiä kansalaisia Keskeisin tekoälyn uusi haaste koskee ihmisten kykyä ymmärtää sen tekemiä päätöksiä. – Ihmisellä on oikeus selitykseen siitä, minkä pitäisi olla toisin, jotta päätös muuttuisi. Syväoppiva teknologia ei tällä hetkellä kykene vastaamaan tällaisiin kysymyksiin, Laitinen sanoo. Selitystä ei kuitenkaan kaivata aina ja kaikkialla. Esimerkiksi suoratoistopalveluiden tekemien elokuvasuositusten taustat eivät ole yhtä olennaisia käyttäjälle kuin kansalaisen saamat perusteet sosiaaliturvan epäämiseen tai myöntämiseen. Tarpeeksi hyvä selitys voi tuoda tuoda näkyviin päätösten mahdolliset epäoikeudenmukaisuudet. Ongelmia tulee myös silloin, jos käytetty data on virheellistä. Laitisen mukaan data voi vinoutua, mutta ongelmia voi tulla myös yksityisyydensuojan suhteen. Vinoutunut data voi aiheuttaa syrjiviä tulkintoja ja dataansa luovuttaessaan käyttäjä ei välttämättä tiedä, mihin kerättyä dataa käytetään tai miten sitä tulkitaan. – Datan vinoutumiseen liittyvät ongelmat on tunnistettu hyvin, mutta niiden ratkaisemisessa riittää vielä paljon tehtävää, Laitinen sanoo. Yksi keskeisimmistä tekoälyyn ja digitalisaatioon liitetyistä uhkakuvista on työpaikkojen katoaminen. Kun yksinkertaisia töitä automatisoidaan, ihminen voi jäädä toimettomaksi. Tekoälyn vaikutuksessa työllisyyteen on Laitisen mukaan kaksi tasoa: eettinen ja poliittinen. – Eettiset reunaehdot, kuten kaikkien toimeentulo, tulee aina turvata. Niiden sisällä on tilaa erilaisille poliittisille ratkaisuille. Jos mielekästä työtä ei riitä kaikille, voisi mielestäni työaikaa lyhentää.