Manipulerede videoer er et farligt våben i Putins krig

Rusland og Ukraine beskyder hinandens troværdighed gennem medier og sociale medier. Deepfake bliver en større og større trussel i krig, vurderer ekspert

I starten af marts blev den ukrainske tv-station Ukraine24 hacket. På sendefladen tonede ’præsident Zelenskyj’ frem med en tale til nationen. Personen i videoen kapitulerede og overgav sig selv og Ukraine.

Men det var ikke Volodymyr Zelenskyj, der stod foran kameraet. Tværtimod var det en deepfake af en skuespiller, som med en syntetisk ansigtsmaske leverede et falsk budskab. En deepfake er en kunstig video eller billede, der skal forestille noget virkeligt.

Det er faren ved deepfake i sin essens: Lyd, billede eller video, som er skabt med kunstig intelligens. Og her med det formål at få modtageren til at tro på en forfalsket virkelighed.

I takt med at teknologien bag deepfake bliver bedre, vinder deepfake også indpas som krigsvåben.

”Hvis de virker, og folk hopper på dem, så er de med til at undergrave troværdigheden og miskreditere ens modstander, så man selv kan stå stærkere. Den dynamik er selvfølgelig endnu mere fremherskende under en krig,” siger Mads Vestergaard.

Han har skrevet ph.d. om digitale trusler mod demokratiet ved Institut for Kommunikation på Københavns Universitet og har skrevet flere bøger om digital manipulation.

I april udsendte ukrainske myndigheder en advarsel mod flere potentielle russiske deepfakes.

Mads Vestergaard er ikke i tvivl om, at deepfake er ved at udvikle sig til et rigtigt farligt våben i krig.

”Deepfakes og andre former for manipulation kan anvendes som en form for våben, når man har en konflikt og især, når det kommer til krig. Hvis man fremstiller sin politiske modstander som superskurk, så er det med til at undergrave en fornuftig og faktabetonet demokratisk debat,” siger Mads Vestergaard.

Kokain, lys og bevægelse

Zelenskyj er ikke den eneste, som bliver udsat for deepfake i krigen mellem Rusland og Ukraine. I en anden video samme dag fortalte ’Putin’, at han støttede Ukraine. Videoen her var en deepfake af ’facial reenactment’-slagsen, hvor videoen fra en tidligere tale fik et nyt lydspor, og Putins mundbevægelser gennem kunstig intelligens blev ændret til at passe til den nye lyd.

De to falske præsidenttaler er nogle af de første eksempler på, at deepfake bliver brugt som våben i krig, og det er de eneste to videoer, som indtil nu er identificeret som deepfakes i forbindelse med krigen.

Siden Putins tropper invaderede Ukraine den 24. februar, har præsident Zelenskyj ifølge præsidenthjemmesiden holdt mere end 213 filmede taler. Og med den mængde taler liggende frit tilgængeligt er den vigtigste ingrediens for at kunne lave deep­fake til stede: Billedmateriale i store mængder.

”Hvis man har det, så begynder man at kunne se fakes, hvor det er svært at se forskel, og allerede nu ser man også videoer, der er en del bedre end den af Zelenskyj,” siger Mads Vestergaard og henviser til en video af tidligere præsident Barack Obama, som blev lavet af BuzzFeed allerede i 2018.

Han vurderer ikke, at deepfake-videoerne har været gode nok til at kunne underminere hverken Putins eller Zelenskyjs troværdighed – endnu.

”Det er ret let at se, at de her videoer netop er deepfakes. Hvis vi når et niveau, hvor det bliver virkelig svært og næsten umuligt at skelne, så får vi potentielt et alvorligt problem,” siger Mads Vestergaard, som mener, at det om fem år ved hjælp af billedmaterialet fra Zoom-møder vil være muligt at fake næsten hvem som helst.

Det er ikke kun deepfake, der har floreret på nettet under krigen i Ukraine. Også såkaldt ’shallowfakes’ har været brugt. Shallowfakes kan for eksempel være videoer eller billeder, hvor der er manipuleret genstande ind.

Det sås blandt andet i en slags behind-the-scenes-video med Zelenskyj i et videomøde, som blev delt af flere prorussiske profiler i april, bare få dage efter at myndighederne advarede om flere fakes.

I videoen er en pose kokain redigeret ind i billedet, så det ser ud, som om den ligger på skrivebordet foran Zelenskyj. Den originale video er fra et onlinemøde tilbage i marts med blandt andet Elon Musk – altså en hel måned inden shallowfake-videoen begyndte at florere.

Forskellen mellem deep og shallowfakes er menneskelig handling. Shallowfakes laves ved, at en person manipulerer videoen, mens deepfakes laves ved at træne en kunstig intelligens til at skabe troværdige billeder.

Den tidligere CIA-agent Christopher Burgess har spottet en officiel videotale fra den 19. marts, hvor Zelenskyj kommer gående foran kendte bygninger fra hovedstaden Kyiv, men som tilsyneladende er optaget ved hjælp af en green screen. Advokat Robert Gouveja viser i en YouTube-video, hvordan præsidentens skulder forsvinder ind i baggrunden, og præsidenten står i hvidt lys, mens Kievs gade er i gult lys.

Videoen fik de to amerikanere og forskellige medier til at sætte spørgsmålstegn ved, om Zelenskyj stadig befandt sig i Kyiv.

Syntetisk fake eller simuleret grafikbillede

Det er ikke kun politiske ledere, som kan blive påvirket af manipulerede eller genererede videoer. Det kan medier også.

I marts viste DR billeder taget fra det ukrainske forsvarsministeriums Twitter-profil i programmet ’Krigens døgn’. Men videoen var fra et computerspil, og derfor var den ikke dokumentation for, at russiske kamphelikoptere var blevet skudt ned, sådan som det blev analyseret i programmet.

Chefredaktør i DR Nyheder Thomas Falbe beklagede over for Journalisten og kaldte det ’en alvorlig fejl’.

Det vides ikke, om Ukraines forsvarsministerium – ligesom DR – blev snydt af billedernes autenticitet, eller om de har bragt dem bevidst. Men Mads Vestergaard spår, at deepfakes og manipulerede videoer også kan komme til at påvirke mediernes troværdighed fremover.

”Det er et kæmpe problem for troværdigheden, og det er noget af det, der puster til alle mulige former for mistro og mistillid til medierne, som så – måske ikke helt med uret – kan blive skudt i skoen, at de i virkeligheden går med en politisk dagsorden,” siger Mads Vestergaard.

Kommentarer
0
Denne artikel er lukket for kommentarer.
data_usage
chevron_left
chevron_right