Sisukord:

Sügavad võltsingud: Neuroseti õpetati heli- ja videovõltsinguid genereerima
Sügavad võltsingud: Neuroseti õpetati heli- ja videovõltsinguid genereerima

Video: Sügavad võltsingud: Neuroseti õpetati heli- ja videovõltsinguid genereerima

Video: Sügavad võltsingud: Neuroseti õpetati heli- ja videovõltsinguid genereerima
Video: Mida head terrassil kasvatada saab? Reet Palusalu. 2024, Mai
Anonim

Et luua igaühele meist “individuaalne” uudispilt ja võltsida sellesse valitud meediakajastusi, piisab täna ühe programmeerija pingutusest. Sellest rääkisid Izvestijale tehisintellekti ja küberturvalisuse spetsialistid.

Hiljuti leidsid nad, et see nõuab mitme meeskonna tööd. Selline kiirendus on saanud võimalikuks tänu närvivõrkude rünnakute tehnoloogiate arendamisele ning heli- ja videovõltsingute genereerimisele, kasutades "sügavate võltsingute" loomise programme. Ajaleht Izvestija sattus hiljuti samalaadse rünnaku alla, kui kolm Liibüa uudisteportaali avaldasid korraga teate, mis väidetavalt ilmus ühes numbris. Ekspertide sõnul võib 3-5 aasta jooksul oodata robotmanipulaatorite invasiooni, mis suudab automaatselt luua palju võltsinguid.

Vapper uus maailm

Üha rohkem on projekte, mis kohandavad infopilti konkreetsete kasutajate ettekujutusega. Üks näide nende tööst oli kolme Liibüa portaali hiljutine aktsioon, mis avaldas väidetavalt Izvestija 20. novembri numbris avaldatud uudise. Võltsingu loojad muutsid ajalehe esikülge, postitades sellele teate feldmarssal Khalifa Haftari ja rahvusliku kokkuleppe valitsuse (PNS) peaministri Fayez Sarraji vaheliste läbirääkimiste kohta. Izvestija kirjatüübiga võltsinguga oli kaasas 2017. aasta mais tehtud foto kahest juhist. Väljaande logoga silt on välja lõigatud reaalselt ilmunud 20. novembri numbrist ja kõik muud lehel olevad tekstid 23. oktoobri numbrist.

Spetsialistide seisukohast võib selliseid võltsinguid ettenähtavas tulevikus teha automaatselt.

Trumani näitus – 2019: kuidas närvivõrgud õpetasid uudispilti võltsima
Trumani näitus – 2019: kuidas närvivõrgud õpetasid uudispilti võltsima

"Tehisintellekti tehnoloogiad on nüüd täielikult avatud ning andmete vastuvõtmiseks ja töötlemiseks mõeldud seadmed miniaturiseerivad ja muutuvad odavamaks," ütles Juri Vilsiter, füüsika- ja matemaatikateaduste doktor, Venemaa Teaduste Akadeemia professor, FSUE "GosNIIAS" osakonna juhataja. rääkis Izvestijale. – Seetõttu on suure tõenäosusega lähitulevikus võimalik meid pealt kuulata ja nuhkida ning reaalsusega manipuleerida isegi mitte riik ja suurkorporatsioonid, vaid lihtsalt eraisikud. Lähiaastatel on võimalik kasutajate eelistusi analüüsides mõjutada teda uudistevoogude ja väga nutikate võltsingute kaudu.

Juri Vilsiteri sõnul on tehnoloogiad, mida saab selliseks sekkumiseks vaimsesse keskkonda kasutada, juba olemas. Teoreetiliselt võib robotrobotite sissetungi oodata mõne aasta pärast, ütles ta. Piiravaks teguriks võib siin olla vajadus koguda suuri andmebaase tõeliste inimeste reaktsioonide kohta kunstlikele stiimulitele koos pikaajaliste tagajärgede jälgimisega. Selline jälgimine nõuab tõenäoliselt veel mitu aastat uurimistööd, enne kui sihipäraseid rünnakuid järjepidevalt saavutatakse.

Nägemisrünnak

Juri Vilsiteriga nõustub ka SearchInformi analüütikaosakonna juht Aleksei Parfentiev. Tema sõnul ennustavad eksperdid juba praegu närvivõrkude rünnakuid, kuigi praegu selliseid näiteid praktiliselt pole.

- Gartneri teadlased usuvad, et 2022. aastaks on 30% kõigist küberrünnakutest suunatud närvivõrku koolitatud andmete rikkumisele ja valmis masinõppemudelite varastamisele. Siis võivad näiteks mehitamata sõidukid ootamatult hakata jalakäijaid teiste objektidega segi ajama. Ja me ei hakka rääkima rahalisest ega maineriskist, vaid tavainimeste elust ja tervisest, usub ekspert.

Rünnakuid arvutinägemissüsteemidele viiakse praegu läbi uuringute osana. Selliste rünnakute eesmärk on panna närvivõrk tuvastama pildil midagi, mida seal pole. Või vastupidi, mitte näha, mis oli plaanis.

Trumani näitus – 2019: kuidas närvivõrgud õpetasid uudispilti võltsima
Trumani näitus – 2019: kuidas närvivõrgud õpetasid uudispilti võltsima

"Närvivõrkude koolitamise valdkonnas on üheks aktiivselt arenevaks teemaks nn võistlevad rünnakud (" võistlevad rünnakud. "- Izvestia), " selgitas Kaspersky Labi veebianalüütik Vladislav Tushkanov. - Enamasti on need suunatud arvutinägemissüsteemidele. Sellise rünnaku läbiviimiseks on enamikul juhtudel vaja täielikku juurdepääsu närvivõrgule (nn valge kasti rünnakud) või selle töö tulemustele (mustade kastide rünnakud). Puuduvad meetodid, mis suudaksid 100% juhtudest ühtegi arvutinägemissüsteemi petta. Lisaks on juba loodud tööriistu, mis võimaldavad testida närvivõrke vastupidavust võistlevatele rünnakutele ja suurendada nende vastupanuvõimet.

Sellise rünnaku käigus püüab ründaja tuvastatud pilti kuidagi muuta nii, et närvivõrk ei töötaks. Sageli jääb fotole müra, mis sarnaneb halvasti valgustatud ruumis pildistamisel tekkiva müraga. Inimene tavaliselt ei märka selliseid häireid hästi, kuid närvivõrk hakkab talitlushäireid tegema. Kuid sellise rünnaku läbiviimiseks vajab ründaja juurdepääsu algoritmile.

Neuroset Ašmanovi peadirektori Stanislav Ašmanovi sõnul ei ole praegu selle probleemi lahendamiseks meetodeid. Lisaks on see tehnoloogia kõigile kättesaadav: keskmine programmeerija saab seda kasutada, laadides Githubi teenusest alla vajaliku avatud lähtekoodiga tarkvara.

Trumani näitus – 2019: kuidas närvivõrgud õpetasid uudispilti võltsima
Trumani näitus – 2019: kuidas närvivõrgud õpetasid uudispilti võltsima

- Rünnak närvivõrgu vastu on närvivõrgu petmise tehnika ja algoritmid, mis panevad selle andma valetulemusi ja tegelikult lõhuvad selle nagu ukselukku, - usub Ašmanov. - Näiteks praegu on üsna lihtne panna näotuvastussüsteem arvama, et see pole sina, vaid Arnold Schwarzenegger selle ees - seda tehakse nii, et närvivõrku tulevatesse andmetesse segatakse inimsilmale märkamatud lisandid. Samad rünnakud on võimalikud kõnetuvastus- ja analüüsisüsteemide puhul.

Ekspert on kindel, et see läheb ainult hullemaks – need tehnoloogiad on läinud massidesse, petturid kasutavad neid juba ja nende vastu pole kaitset. Kuna puudub kaitse video- ja helivõltsingute automatiseeritud loomise eest.

Sügavad võltsingud

Deep Learningul põhinevad süvavõltsitud tehnoloogiad (närvivõrkude süvaõppe tehnoloogiad. – Izvestija) kujutavad endast juba reaalset ohtu. Video- või helivõltsingud luuakse kuulsate inimeste nägude monteerimisel või katmisel, kes väidetavalt hääldavad vajalikku teksti ja mängivad süžees vajalikku rolli.

"Deepfake võimaldab asendada huulte liigutused ja inimkõne videoga, mis loob toimuva realistlikkuse tunde," ütleb Group-IB uuendusliku kaubamärgikaitse ja intellektuaalomandi osakonna direktor Andrey Busargin. - Võltskuulsused “pakkuvad” kasutajatele sotsiaalvõrgustikes osaleda väärtuslike auhindade (nutitelefonid, autod, rahasummad) jne loosimises. Selliste videoväljaannete lingid viivad sageli petturlikele ja andmepüügisaitidele, kus kasutajatel palutakse sisestada isikuandmed, sealhulgas pangakaardi andmed. Sellised skeemid ohustavad nii tavakasutajaid kui ka avaliku elu tegelasi, keda reklaamides mainitakse. Ta ütleb, et selline pettus hakkab seostama kuulsuste pilte pettuste või reklaamitud kaupadega ja see on koht, kus me kahjustame isiklikku kaubamärki.

Trumani näitus – 2019: kuidas närvivõrgud õpetasid uudispilti võltsima
Trumani näitus – 2019: kuidas närvivõrgud õpetasid uudispilti võltsima

Teine oht on seotud "võltshäälte" kasutamisega telefonipettusteks. Näiteks Saksamaal kasutasid küberkurjategijad hääle sügavvõltsimist, et Ühendkuningriigist pärit tütarettevõtte juht firmajuhina esinedes telefonivestluses kiiresti üle kandma 220 000 eurot. Ungari tarnija kontole. Briti firma juht kahtlustas trikki, kui tema "boss" palus teist rahakorraldust, kuid kõne tuli Austria numbrilt. Selleks ajaks oli esimene osa juba kantud Ungaris asuvale kontole, kust raha Mehhikosse välja võeti.

Selgub, et praegused tehnoloogiad võimaldavad luua individuaalse uudispildi, mis on täidetud võltsuudistega. Pealegi on peagi võimalik eristada võltsinguid tõelisest videost ja helist ainult riistvara abil. Ekspertide hinnangul ei ole närvivõrkude arengut keelavad meetmed tõenäoliselt tõhusad. Seetõttu elame varsti maailmas, kus on vaja kõike pidevalt uuesti kontrollida.

"Me peame selleks valmistuma ja sellega tuleb leppida," rõhutas Juri Vilsiter. - Inimkond ei liigu esimest korda ühest reaalsusest teise. Meie maailm, eluviis ja väärtused erinevad kardinaalselt maailmast, milles elasid meie esivanemad 60 000 aastat tagasi, 5000 aastat tagasi, 2000 aastat tagasi ja isegi 200-100 aastat tagasi. Lähiajal jääb inimene suures osas ilma privaatsusest ja on seetõttu sunnitud midagi varjama ja ausalt tegutsema. Samas ei saa midagi ümbritsevas reaalsuses ega enda isiksuses uskuda, kõike tuleb kahtluse alla seada ja pidevalt uuesti üle kontrollida. Kuid kas see tulevane reaalsus on kohutav? Ei. See saab olema lihtsalt täiesti erinev.

Soovitan: