Helsingin Kokoomusnuoret: Tekoälyn väärinkäytöksiin on asetettava nollatoleranssi
Tekoälyn kehitys on tuonut hyötyjä mutta myös lisännyt väärinkäytöksiä. Haitallinen synteettinen sisältö ja väärä tieto voivat vahingoittaa yksilöitä ja heikentää demokratiaa. Siksi lainsäädäntöä on tiukennettava ja seuraamusten määräämistä nopeutettava.
Euroopan unionissa on hyväksytty Artificial Intelligence Act, jonka tavoitteena on säädellä korkean riskin tekoälyjärjestelmiä. Asetus on tärkeä askel, mutta se ei yksin riitä vastaamaan synteettisen median ja disinformaation yleistymiseen. Suomessa rikosoikeudellinen vastuu tekoälyllä tuotetusta haitallisesta sisällöstä perustuu pitkälti yleisiin rikosnimikkeisiin, kuten kunnianloukkaukseen tai yksityiselämää loukkaavan tiedon levittämiseen. Tämä tekee soveltamisesta tapauskohtaista ja toisinaan hidasta.
Lainsäädäntöä tulisi täsmentää siten, että tekoälyllä tuotettu identiteetin väärentäminen, suostumukseton seksuaalinen deepfake-materiaali ja laajamittainen automatisoitu disinformaatio tunnistetaan selkeästi rangaistaviksi teoiksi. Samalla esitutkinnan käynnistämisen, digitaalisen todistusaineiston hankinnan ja sisällön poistamisen tulisi olla nykyistä suoraviivaisempaa.
“Kenenkään ei pitäisi joutua kantamaan kohtuutonta todistustaakkaa siitä, että toisen tekemä materiaali on tekaistua ja vahingollista. Lainsäädännön tiukentaminen ja rangaistusten määräämisen helpottaminen ei täten ole pelkkä tekninen yksityiskohta vaan ihmisoikeuksien ja demokraattisen yhteiskunnan puolustamista”, korostaa Helsingin Kokoomusnuorten piirihallituksen jäsen Sara Rökman.
Tiukempi lainsäädäntö ei kuitenkaan yksin riitä, vaan rinnalle tarvitaan ennaltaehkäiseviä toimia. Viranomaisille on varattava riittävät resurssit digitaaliseen forensiikkaan (datatutkintaan) ja tekoälyyn liittyvään rikostutkintaan, jotta rikoksiin voidaan puuttua tehokkaasti. Samalla verkkoalustoille on asetettava selkeä vastuu haitallisen synteettisen sisällön tunnistamisesta ja poistamisesta.
Myös avoimuusvaatimuksia on vahvistettava. Tekoälyjärjestelmien kehittäjiltä tulisi edellyttää läpinäkyvyyttä datan lähteistä, mallien rajoitteista ja riskienhallinnasta. Korkean riskin sovelluksille voidaan esimerkiksi luoda sertifiointijärjestelmiä, jotka varmistavat järjestelmien täyttävän turvallisuus- ja eettiset vaatimukset ennen käyttöönottoa. Myös sanktioiden on oltava riittävän ankaria, jotta ne toimivat todellisena pelotteena.
“Yhteiskunta rakentuu luottamukselle: Luotamme siihen siihen, että näkemämme ja kuulemamme vastaa todellisuutta ja että oikeusjärjestelmä suojaa meitä väärinkäytöksiltä. Jos tekoälyllä tuotettu haitallinen materiaali saa levitä ilman selkeitä ja tuntuvia seuraamuksia, luottamus yhteiskuntaan murenee. Samalla disinformaatio normalisoituu ja sen vaikutukset ulottuvat yksittäisistä ihmisistä koko demokraattisen järjestelmän toimintakykyyn”, painottaa Helsingin Kokoomusnuorten piirihallituksen jäsen Vivianne Salmi.
Helsingin Kokoomusnuoret seisoo vahvasti sen linjan takana, että tekoälyn turvallisuuteen liittyviä lainsäädäntöjä on uudistettava vastaamaan nykypäivän tarpeita. Tekoäly ei itsessään aina ole uhka, mutta ilman selkeitä sääntöjä ja tehokasta valvontaa sen väärinkäytöksistä voi tulla vakava yhteiskunnallinen ongelma.
Lisätietoja
Vivianne Salmi
Helsingin Kokoomusnuorten piirihallituksen jäsen
+358 44 987 7709
Rökman Sara
Helsingin Kokoomusnuorten piirihallituksen jäsen
+358 44 521 52050
