• Erik Kursetgjerde

    Erik Kursetgjerde

    Vitenskapelig assistent, Nupi

Bildet viser hvordan man gjenskaper ansiktstrekk for å bruke dem i falske videoer. Det ble tatt i forbindelse med et britisk TV-program i 2019. Foto: REUTERS TV / X00514

Deepfakes har sprengkrafta til å sørgje for politisk motivert vald, sabotere val og øydelegge diplomatiske relasjonar.

Kronikk

Dette er en kronikk. Meninger i teksten står for skribentens regning.

I media kan ein lese om den rivande samfunnsutviklinga og ei massiv digitalisering. Men for dei fleste av oss blir dette noko svevande. Det er krevjande å forstå kva slags konsekvensar dette kan ha for oss i kvardagen.

Teknologien gir oss mange mogelegheiter – men og nye typar utfordringar. Den kan blant anna mogeleggjere situasjonar som aldri elles hadde skjedd.

Kva er deepfakes?

Om ein ser ein video av eit statsoverhovud som erklærer krig, eller ber innbyggjarane evakuere på grunn av ein overhengande trugsel om atomvåpen, treng ikkje dette lenger å ha skjedd på ekte.

Erik Kursetgjerde har en mastergrad i statsvitenskap ved Universitetet i Oslo og er tilknyttet Nupis forskningsgruppe for sikkerhet og forsvar. Foto: Nupi

Teknologien som mogeleggjer dette, heiter deepfakes. Han nyttar kunstig intelligens for å produsere videoar, lyd og bilete som kan vere vanskeleg å avsløre som falske. Ordet deepfake kjem frå djup læringsteknologi, som er ein type kunstig intelligens. Algoritmar innanfor djup læring lærar seg sjølve korleis ein løyser problema når dei får store mengder med data.

Maskinlæringsteknikkar har automatisert det som vanlegvis pleidde å vere ein manuell prosess, noko som gjer at det å redigere videoar på denne måten går mykje raskare.

Foreløpig er det berre «truverdige» deepfakes av kjendisar og politikarar, fordi det eksisterer så mykje data av dei på internett som kan «trene» maskinene til å kjenne att og attskape ansiktstrekk og stemmer.

På same tid lev dei aller fleste av oss store deler av liva våre digitalt – og dataen som vi deler med omverda, kan fort påverke oss på måtar vi ikkje hadde sett føre oss tidlegare. Enkeltpersonar kan bli utsett for utpressing, men følgjene kan og vere av eit helt anna kaliber.

Videomanipulasjonen av Jennifer Lawrence med Steve Buscemis ansikt gikk viralt for et par år siden. Foto: Skjermbilde fra Youtube

Store internasjonale konsekvensar

Deepfakes kan og vere retta mot land og ha politiske motiv. Noreg er nok ikkje det største målet for deepfakes som spesifikt rettar seg mot statar. Men som eit lite land i ei samankopla verd kan vi bli påverka av dei tilhøyrande konsekvensane. Måla er gjerne land som har skjøre institusjonar, innbyggjarar med låg digital kompetanse og splitting i befolkninga.

Snart vil det krevjast eksterne verktøy for å kunne skilje dei manipulerte frå dei ekte videoane

Det er mange tenkte situasjonar som kunne hatt store internasjonale konsekvensar. Dersom Donald Trump i ein video under si presidentperiode hadde spotta prestestyret i Iran, håna deira religion eller latterleggjort andre regime USA har eit anstrengt forhold til, kunne konsekvensane vore skjebnesvangre. Sjølv om dette raskt ville blitt avslørt som falskt, ville videoen og bodskapen allereie hatt konsekvensar.

Ved å bruke slike videoar rett før eit val kan ein også bidra til å snu opinionen på kort tid.

Teknologien bak deepfakes vil også etter kvart vere særs freistande for statar å bruke for å manipulere både eigne innbyggjarar, men og innbyggjarar i andre land.

Scenarioa er kanskje ikkje så sannsynlege med det første, men ulempa er at det er så mange aktuelle scenario at det ikkje er overraskande om noko liknande vil kunne skje i framtida.

Etter kvart som teknologien utviklar seg og blir spreidd over heile verda, vil og mange av oss ha mogelegheita til å lage videoar og lydklipp som kan overtyde dei fleste. Snart vil det krevjast eksterne verktøy for å kunne skilje dei manipulerte frå dei ekte videoane.

Teknologien gjør det stadig enklere å lage troverdige falske videoer. Nå kan nesten hvem som helst lage videoer av at verdensledere, som tidligere president Barack Obama, sier ting de aldri har sagt. Foto: AP/ NTB Scanpix

Berre starten på «fake news»

I over 100 år har video, bilete og lyd fungert som ei kvalitetssikring av kva som er sant og ikkje. Likevel er det nokre som stiller spørsmål kring hendingar som vi har tydelege bevis for skjedde, som holocaust og 11. september.

Om deepfakes gjer tilliten til desse bevisa enno svakare, kan ein risikere at utfordringane knytt til konspirasjonsteoriar og desinformasjon berre vil forverre seg.

Deepfakes høyrer til eit større problem som i stor grad er skapt med massiv informasjonsflyt igjennom internett og sosiale medium, som diverre ofte blir utnytta. Internett som domene har aldri hatt ein god metode for å skilje mellom kva som er ekte, og kva som er falsk.

Når ein ser på eit bilete på ein skjerm, er det vanskeleg å avgjere kva som er ekte, og ikkje.

Kva kan ein gjere når ein verken kan stole på det ein les, ser eller høyrer?

Manipulering er ikkje noko nytt. Josef Stalin fjerna folk frå bilete for å skrive om på historia. Framveksten av deepfakes er difor eit vendepunkt i mogelegheita til å skape falskt innhald som er raskare å lage, men vanskelegare å oppdage.

Dei amerikanske professorane Robert Chesney og Danielle Citron har vist til ein effekt der dei vanlege innbyggjarane blir meir oppmerksame på deepfakes. Dette kan sørgje for at stadig fleire vil så tvil om kor ekte alle slags videoar er, noko som kan skape mogelegheiter om ein blir tatt for dårleg oppførsel i ein ekte video. Det vil vere enklare å avvise videoar som faktisk er autentiske, som falske og deepfake.

Kva kan gjerast?

Vi ser allereie konsekvensane av sosiale medium og bruken av desinformasjon oppimot val, men og i andre samanhengar. Det svekker vanlege folks evne til å henge med på den politiske utviklinga – og det kan utvikle seg til å bli eit demokratisk problem.

Vi veit at vi allereie blir sterkt påverka av algoritmar i måten vi finn informasjon på internett på, og det kan bli forsterka med deepfakes.

Kva kan ein gjere når ein verken kan stole på det ein les, ser eller høyrer?

Statar har alt tatt til orde for å legge press på store selskap som styrer mykje av informasjonsflyten i dagens samfunn. FN vil truleg ha ei rolle i dette ved å sørgje for internasjonalt regelverk på tvers av landegrenser.

Fleire av dei store selskapa er i ferd med å ta dette meir på alvor. Blant anna har Facebook igangsett tiltak for å skilje ut deepfakes som er meint å forlede sine brukarar. Fleire selskap har tatt tilsvarande grep.

Foreløpig er det mogeleg å skilje dei falske frå dei ekte videoane. Men etter kvart som mekanismar for å skilje ut falske videoar utviklar seg, er det naturleg å tru at kvaliteten på deepfakes blir enda betre. Det vil mest sannsynleg bli ein varig kamp, der kunstig intelligens må trenast jamleg for å kunne vere i forkant.

Les også

Facebook forbyr avansert videomanipulering – men tillater «satire»

Les også

Det foregår et kappløp om sanninga, og sanninga henger etter

Les også

Forsker: Pornografiske deepfake-videoer skader kvinner


Få med deg debattene hos Aftenposten meninger på Facebook og Twitter.

Kva kan ein gjere når ein verken kan stole på det ein les, ser eller høyrer?
Source:
Source 1

LEAVE A REPLY

Please enter your comment!
Please enter your name here