Susi bloggaa: Paljon hälyä älystä − tekoäly osana turvallisuutta

Maailmalla virtaa tällä hetkellä valtavasti tutkimusrahaa tekoälyn kehittämiseen. Globaaleja yhteisiä pelisääntöjä kehitystyölle ei kuitenkaan ole luotu. Teknologia avaa uusia mahdollisuuksia, joita emme välttämättä osaa edes ennustaa. Tekoäly on varmasti hyvä renki, mutta voi olla pelottavan huono isäntä. Monien asiantuntijoiden esittämä kysymys on, keneltä tekoäly karkaa ensimmäisenä käsistä. Samalla myös keskustelu tekoälyn eettisistä kysymyksistä on nostanut päätään.

Kiihtyvän digitalisaation keskellä olemme tilanteessa, jossa saatavilla olevasta tiedosta ei ole puutetta, mutta tapahtumat, syyt ja seuraukset eivät välttämättä noudatakaan tuntemaamme perinteistä logiikkaa. Tiedon määrän kasvaessa joudumme tuskailemaan erilaisten tapahtumien esiintymisen ja niiden seurausten sattumanvaraisuuden kanssa. Esimerkiksi kansainväliset vakuuttajat ovat valitelleet käyttökelpoisen tiedon puutetta erilaisten kyberpoikkeamien seurauksista. Tässä on yksi alueista, jossa älykkäällä oppivalla teknologialla on mahdollisuuksia jo nykyisin.

Tekoäly ja turvallisuus − täydellinen liitto?

Maailmalla on parhaillaan käynnissä merkittäviä tekoälyyn perustuvia turvallisuushankkeita. Turvallisuutta ja tekoälyä ei aina ole pidetty erityisen hyvänä parina. Koneoppimista on kuitenkin hyödynnetty esimerkiksi tietoturvateollisuudessa jo pitkään. Nyt uutta teknologiaa pyritään hyödyntämään entistä tehokkaammin riskianalyysin, ennakointikyvyn, uhkien tunnistaminen ja tilannekuvan kehittämiseksi sekä käytännön vastatoimien suuntaamiseksi. Tekoälyä hyödyntämällä voidaan todennäköisesti esimerkiksi paljastaa vielä näkymättömäksi jääneitä poikkeamia ja niiden syitä, luvattomia muutoksia, huijauksia ja tietomurtoja sekä torjumaan niitä aiempaa paremmin.

Pelastaja, väline vai kohde?

Tekoälystä on optimistisesti povattu jopa kriisien ja konfliktien ratkaisijaa. Samalla on selvää, että sen mahdollisuuksia tullaan käyttämään myös pahaan. Rikolliset hyödyntävät jo koneoppimisen keinoja ja oppivat järjestelmät kykenevät esimerkiksi varsin tehokkaaseen ihmisten sosiaaliseen manipulointiin. Tämä voi epäilemättä olla haaste myös digitaalisen ajan demokratialle.

Monet asiantuntijat näkevät kovin pitkälle viedyn automatisaation uhkana turvallisuudelle. Ei varmasti ole haihattelua todeta, että turvallisuus tulee käymään läpi muutoksia tekoälykehityksen seurauksena. Onko se siis lopulta väline, kohde vai pelastaja? Joudumme pohtimaan myös sitä, mitä tapahtuu jonkun hyökätessä itse tekoälyn kimppuun. Samoin turvallisuuskysymykseksi muodostuu älykkäiden järjestelmien toimintavarmuus − se, mitä jää jäljelle, jos toiminnan ylläpito ei onnistukaan. Tulevaisuuden älykäs turvallisuus näyttäytyy siksi myös korostuneena jatkuvuudenhallintana.

Tekoälyn tulee parantaa turvallisuuttamme

Edessämme on todennäköisesti hyökkäyksen ja puolustuksen kilpajuoksu: tulemme näkemään ”hyvän ja pahan älyn” kamppailua. Olemme jo jossain määrin nähneet sen kaltaisia tapahtumia haittaohjelmien ja palvelunestohyökkäysten kiihtyneen evoluution muodossa. Tapahtumien vauhti ja niiden muutosnopeus voivat vain karata inhimillisten kykyjen tavoittamattomiin ja levitä täysin uusille alueille.

Tutkimuksen tulee panostaa tekoälyn turvalliseen kehittämiseen. Samalla turvallisuusalan tulee löytää tapoja tekoälyn turvalliseen hyödyntämiseen. Siina taas tarvitaan paljon aivan oikeaa älyä, jotta emme heikennä, vaan parannamme turvallisuuttamme.

Kirjoittaja

Kommentit

Kommentoi