Hyppää pääsisältöön

Tarkenna hakuasi

Kuvituskuva, vihreitä viivoja.

Tutkimuslaitokset, suuret IT-alan yritykset ja tutkijat yhdistävät voimansa seuraavan sukupolven puhehuijausten tunnistamiseksi

Itä-Suomen yliopisto on mukana järjestämässä kolmatta ASVspoof -kilpailua, joka on suurin ja kattavin puhebiometristen huijaushyökkäysten teknologiaevaluaatio tähän mennessä. Kilpailussa tutkitaan puhujantunnistuksen haavoittuvuuksia ja kehitetään huijaushyökkäysten tunnistusmenetelmiä.

Informaatiovaikuttaminen huolettaa monia, eikä kukaan pysty ennustamaan sen tulevia muotoja tarkasti. Valeuutisten lisäksi multimediaa, kuten videoita, kuvia ja ääntä on yhä helpompaa tuottaa tai manipuloida.

Turvallisen puheteknologian kehittämiseksi tarvitaan yhteismitallinen tapa vertailla eri ratkaisuja huijaushyökkäysten tunnistamiseksi. Tähän tarvitaan sekä kaikkien vapaasti käytössä olevaa dataa, että yhteinen sopimus mittaustavasta, jolla kilpailevia teknologioita vertaillaan. Se mahdollistaa parhaimpien ratkaisujen identifioinnin.

ASVspoof -teknologiaevaluaatiokilpailu on kehitetty puhebiometristen järjestelmien, eli puhujantunnistuksen, haavoittuvuuksien tutkimiseen ja huijaushyökkäysten tunnistusmenetelmien kehittämiseen. Se kokoaa yhteen puheteknologian ja koneoppimisen asiantuntijoita ympäri maailman ratkomaan “feikkipuheen” erottamista oikeasta puheesta mahdollisimman tarkasti.

—Tutkijat käynnistivät ASVspoof -kilpailun vuosina 2013–2015, ja Itä-Suomen yliopiston tietojenkäsittelytieteen laitos on yksi kilpailun perustajajäsenistä, kertoo laitoksen apulaisprofessori Tomi Kinnunen.

—Nyt järjestettävän, järjestykseltään kolmannen kilpailun suunnittelutyö alkoi liki vuosi sitten, ja siihen on osallistunut noin 40 tutkijaa yhteensä 17 eri organisaatiosta.

ASVspoof -kilpailusarja on biometrisen tunnistusteknologian haavoittuvuustutkimuksen yksi menestystarinoista kansainvälisellä vaikuttavuudella mitattuna: tämän tiedotteen julkaisuhetkellä ASVspoof 2019 -kilpailuun on rekisteröitynyt liki 150 tutkijaa, tutkimusyksikköä tai firmaa – maailman joka kolkasta.

ASVspoof 2019 -kilpailun tuloksia ei tässä vaiheessa tiedä kukaan. Sen tulokset tullaan esittelemään syyskuussa INTERSPEECH-konferenssissa Grazissa, Itävallassa.

—Yksi asia on kuitenkin varmaa, kilpailun jälkeen olemme yhtä askelta viisaampia siitä, millaisia huijaustapoja on mahdollista tunnistaa, ja millaisia turvallisuusriskejä viimeisintä huutoa olevat synteesi- ja kloonausteknologiat tuovat mukanaan informaatioyhteiskuntaamme, toteavat kilpailun järjestäjät.


Tulevaisuudessa ei voida erottaa koneellisesti tuotettua videota tai puhetta pelkän kuulo- tai näköaistin perusteella

Viime vuonna niin sanotut DeepFakes-videot herättivät laajaa huomiota. DeepFake-videot ovat koneoppimisen avulla keinotekoisesti luotuja realistisen näköisiä videoita kohdehenkilöistä, usein julkkiksista. Vuonna 2016 Google esitteli ‘WaveNet’-teknologian, jolla voidaan generoida luonnollisen kuuloista puhetta, jota on korvakuulolla hankala erottaa synteettiseksi puheeksi. Puhesynteesi on jo mukana elämässämme muun muassa älyavustimissa, äänikirjoissa, autonavigaattoreissa, kuulutusjärjestelmissä, sekä muissa hyödyllisissä sovelluksissa.

Mitä hyvänsä teknologiaa voidaan kuitenkin käyttää sekä hyödyllisiin että haitallisiin tarkoituksiin, riippuen käyttäjästä. Puhesynteesillä ja äänikonversiolla voidaan jo nyt laittaa sanoja toisen suuhun tai kloonata puheääntä. On tärkeää ymmärtää, että tulevaisuudessa tuskin pystymme erottamaan koneellisesti tuotettua videota tai puhetta kuulo- tai näköaistimme perusteella.

—Meillä tulee olemaan kasvava tarve virustorjuntatyökalujen tapaiselle teknologialle, joka varoittaa käyttäjää, ettei hän ehkä kommunikoikaan luulemansa (tai edes oikean) ihmisen kanssa – tai mikäli on syytä epäillä, että videota tai puhetta on manipuloitu, kilpailun järjestäjät kertovat.

Yksi suurimmista huolenaiheista on biometrinen tunnistus, jota hyödynnetään laajalti henkilön tunnistuksessa aina rajavalvonnasta ja rikostutkinnasta pankkiasiointiin. Sekä tutkijat että biometrisen teknologian toimittajat ovat tienneet tahallisesti manipuloidun datan vaikutuksesta tunnistuksen haavoittuvuuteen pitkään.

—Niin kutsutussa huijaushyökkäyksessä (spoofing attack) hyökkääjä pyrkii tahallisesti esiintymään toisena henkilönä, kuten sinuna, päästääkseen käsiksi henkilökohtaisiin tietoihin tai fyysisiin tiloihin.

Hyökkäyksillä voidaan huijata paitsi biometrisia tunnistusjärjestelmiä myös ihmisiä. Perinteisten biometristen tunnisteiden (mm. kasvojentunnistus ja sormenjäljet) haavoittuvuuksia hyökkäyksille on tutkittu pitkään, mutta puheäänen osalta tutkimus on ottanut tulta alleen vasta viime vuosina. Osittain tähän on vaikuttanut kasvava puheohjauksen käyttö eri sovelluksissa.

ASVspoof 2019 -evaluointia koordinoi Itä-Suomen yliopiston lisäksi joukko tutkimusyksiköitä, EURECOM ja INRIA (Ranska), National Institute of Informatics ja NEC (Japani), sekä Edinburghin yliopisto (Englanti).

Mukana on myös suuri joukko muita kumppaneita, jotka ovat toimittaneet dataa kilpailuun:
 Aalto University (Suomi), Academia Sinica (Taiwan), the Adapt Centre (Irlanti), DFKI (Saksa), HOYA (Japani), iFlytek (Kiina), Google LLC (UK), Nagoya University (Japani), Saarland University (Saksa), Trinity College Dublin (Irlanti), NTT Communication Science Laboratories (Japani), the Laboratoire Informatique d’Avignon (Ranska) ja the University of Science and Technology of China.
 

ASVspoof 2019 -kilpailun järjestäjät:

Junichi Yamagishi, National Institute of Informatics, Japani / University of Edinburgh, UK
Massimiliano Todisco, EURECOM, Ranska
Md Sahidullah, Inria, Ranska
Héctor Delgado, EURECOM, Ranska
Xin Wang, National Institute of Informatics, Japani
Nicholas Evans, EURECOM, Ranska
Tomi Kinnunen, University of Eastern Finland, Suomi
Kong Aik Lee, NEC Corporation, Japani
Ville Vestman, University of Eastern Finland, Suomi

Lisätietoja: Apulaisprofessori Tomi Kinnunen, tomi.kinnunen (a) uef.fi

Kilpailun verkkosivut www.asvspoof.org

Google on julkaissut omasta osuudestaan blogikirjoituksen https://www.blog.google/outreach-initiatives/google-news-initiative/advancing-research-fake-audio-detection/