Debat

Her er fem bud på presseetik i en verden med kunstig intelligens

Historien om Sidney Lee er en lille historie, men den er et skarpt billede på de etiske dilemmaer, som journalister kommer til at stå over for i en fremtid, hvor kunstig intelligens bliver bedre og bedre til at imitere mennesker, skriver Peter Svarre

Den 31. marts bragte Politiken.dk en historie om en kommende TV 2-dokumentar om den afdøde realitystjerne Sidney Lee. Vinklen på historien var, at TV 2 anvendte kunstig intelligens til at genskabe Sidney Lees stemme, så man undervejs kunne høre Sidney Lee sige ting, som han tidligere var citeret for, men også ting, som man på baggrund af research formodede, at han sandsynligvis ville kunne have sagt. Af artiklen fremgik det også, at dokumentaren først afslørede AI-tricket i slutningen af dokumentaren, hvilket betød, at de uvidende seere undervejs i udsendelsen rent faktisk troede, at de hørte den rigtige Sidney Lee tale. Politiken har sidenhen rettet historien til, så det nu fremgår, at brugen af kunstig intelligens deklareres både i starten og slutningen af programmet.

Men hvorfor er det overhovedet en interessant historie? Brugen af kunstig intelligens gør jo helt sikkert dokumentaren mere levende og medrivende, fordi man med egne ører får adgang til at høre Sidney Lee sige ting, som han ganske sikkert ville have sagt, men som man ikke lige havde fået på bånd. I fremtiden kan man jo også forestille sig journalistisk velresearchede dokumentarer, der ikke bare genskaber lyd, men også billeder ved hjælp af kunstig intelligens. Og det er jo ikke ligefrem nyt – mange dokumentarer anvender jo allerede dramatisering og skuespillere til at give liv og autenticitet, så hvorfor skulle brugen af kunstig intelligens være anderledes?

Etiske dilemmaer

Historien om Sidney Lee er en lille historie, men den er et skarpt billede på de etiske dilemmaer, som journalister kommer til at stå over for i en fremtid, hvor kunstig intelligens bliver bedre og bedre til at imitere mennesker på alle måder. Problemet ved generativ AI – altså kunstig intelligens, der kan skrive, male, designe, programmere, digte og tale – er, at de grundlæggende nedbryder forskellen mellem fiktion og fakta. Generative kunstige intelligenser er superkopister, som kan få os til at tro, at det maskinskabte er menneskeskabt, og at fantasifulde, men falske, fortællinger er sandfærdige skildringer af virkeligheden.

Lad os forestille os, at alle dokumentarer i fremtiden anvender kunstig intelligens til at genskabe både lyd og billeder, og ingen journalister føler nogen trang til at deklarere denne brug, fordi det ville ødelægge tryllekunstens magi.
Peter Svarre

Som med alle etiske spørgsmål hjælper det nogle gange at tænke en situation ud i dens ekstreme konklusion. Lad os forestille os, at alle dokumentarer i fremtiden anvender kunstig intelligens til at genskabe både lyd og billeder, og ingen journalister føler nogen trang til at deklarere denne brug, fordi det ville ødelægge tryllekunstens magi. Konsekvensen er naturligvis det totale sammenbrud af dokumentarens evne til at sige noget relevant og sandfærdigt om verden. Ingen seere ville længere kunne stole på sandhedsværdien af dokumentarer – og faktisk ville de nok også miste tilliden til alt andet journalistisk arbejde.

Vi har allerede set, hvordan algoritmer kombineret med sociale medier kan skabe ekstreme filterbobler af fake news, og vi har allerede set, hvordan virkeligheden og troen på sandhed er begyndt at krakelere i hjørnerne. Men det var blot begyndelsen på, hvad vi kommer til at opleve i en algoritmisk fremtid. Med generativ kunstig intelligens behøver vi ikke at nøjes med at redigere virkeligheden, vi kan genskabe virkeligheden – præcis som vi gerne vil have den til at se ud.

CNET-skandalen

Og hvis du tænker, at det blot er fremtidssnak, så tænk på, hvad der er sket på det kendte og anerkendte teknologimedie CNET, som i 2020 blev købt og overtaget af kapitalfonden Red Ventures. CNET har gennem mange år været en troværdig kilde til information om techverdenen, men troværdighed er desværre ikke lige Red Ventures’ forretningsmodel. Deres forretningsmodel er at skabe så meget indhold som overhovedet muligt, med de rigtige keywords, som kan tiltrække læsere til at klikke på links, der fører til lukrative affiliate-aftaler, som Red Ventures tjener milliarder på. Det er en forretningsmodel, hvor sandhed og troværdighed spiller en utroligt lille rolle, og hvor evnen til at sprøjte tekst ud til højre og venstre er det eneste, der tæller. Med andre ord: En forretningsmodel, som egner sig helt perfekt til generative kunstige intelligenser.

Ikke overraskende blev CNET derfor i januar afsløret i, at store dele af indholdet på websiden var blevet skabt udelukkende af kunstige intelligenser, som i øvrigt ikke holdt sig tilbage fra at plagiere andres indhold og opfinde skøre og usandfærdige historier.

Og hvad var CNET’s reaktion? Der var ikke den store fortrydelse over, at man havde bedraget sine læsere. Den største frygt var, at Google ville straffe siden i søgeresultaterne, og derfor er politikken hos Red Ventures nu, at man i fremtiden vil gøre sig endnu mere umage for at skjule, når man anvender kunstig intelligens til at skabe indhold.

For alle mennesker, der læser debatindlæg som dette, er CNET naturligvis toast. A dead-media-corporation walking. Hvorfor skulle man stole på en nyhedsside, som udelukkende er sat i verden for søgemaskineoptimering og suspekte affiliate-links?

Problemet er bare, at 99,99 procent af internettets brugere ikke læser debatindlæg som dette, og de kommer gladelig til at søge på billige banklån og følge et link til CNET, hvor de kan læse en AI-genereret meningsforladt historie, hvor de bliver lokket til at klikke på et link, der tilbyder dem et lukrativt lån med en helt vildt lav rente på 5 procent om måneden. CNET har måske fået et lille hak i tuden, men deres forretningsmodel er stadig velsmurt, og den kommer bare til at blive endnu mere velsmurt og udbredt i takt med, at de får tunet deres generative kunstige intelligenser til ikke bare at snyde deres læsere, men også Googles spam-vagthunde.

Den værst tænkelige konsekvens

Igen kan vi spørge os selv, hvor dette fører hen i den værst tænkelige situation? Vi ville ende med et internet, hvor vi i stigende grad ikke længere kan stole på, at indhold er skabt af mennesker. Et internet, hvor vi ikke længere kan stole på, at journalistisk indhold er skabt med en intention om at fortælle sandheden, forbedre verden og hjælpe mennesker med at leve bedre og mere velinformerede tilværelser. Med andre ord et internet, som er stort set ubrugeligt som kilde til værdifuld information. Og i øvrigt også et internet, hvor journalister har mistet den sidste trævl af deres i forvejen sparsomme troværdighed.

Det ser med andre ord ikke godt ud! Og for nylig har en lang række AI-eksperter da også slået på tromme for, at det går for stærkt med generativ kunstig intelligens, og at vi har behov for en pause på mindst seks måneder.

Problemet er, at det i praksis bliver utroligt svært at sætte udviklingen i stå, og man skal heller ikke glemme, at når generativ kunstig intelligens bruges klogt og som en hjælpende hånd, kan det gøre journalister dygtigere, hurtigere og mere velskrivende. Problemet opstår som regel først, når vi slipper kunstig intelligens løs uden kontrol og uden at informere vores omverden om, at ”her anvender vi kunstig intelligens”.

De fem principper er en god start til at få gang i en nødvendig diskussion af de potentielt set apokalyptiske (for journalister) konsekvenser af skabende, kopierende og manipulerende kunstige intelligenser.
Peter Svarre

Mit forslag er derfor, at vi ikke forbyder eller forsinker kunstig intelligens, men tværtimod tager teknologien til os med åbne arme, samtidig med, at vi opdaterer vores presseetiske principper til at tage højde for en verden fyldt med algoritmiske superkopister.

Forslag til en opdateret presseetik

Her er fem bud på presseetik i en algoritmisk verden.

  1. Automatisk skabt indhold bør ALTID deklareres tydeligt og klart, så ingen læsere, lyttere eller seere kan være i tvivl om, at indholdet er skabt af en kunstig intelligens, og hvilke konsekvenser det kan have for indholdet.
  2. Automatiseret indhold, som har en grad af vigtighed, bør altid faktatjekkes af et menneske. Det kan være OK at få en AI til at skrive og publicere fodboldresultater uden opsyn, men det går ikke med en historie om krigen i Ukraine.
  3. Før et medie begynder at anvende kunstig intelligens til at skabe indhold, bør man sikre sig, at leverandøren har minimeret bias (fordomme over for kvinder, racer, handicap, osv.). Da biases aldrig kan fjernes helt, bør alle journalister, der anvender AI-systemer, oplyses om potentielle biases i systemet.
  4. Før et medie begynder at anvende kunstig intelligens til at skabe indhold (eller hjælpe til skabelsen), bør man på ledelsesplan have gennemført en risikovurdering, hvor man vurderer worst-case scenarios – både for læserne og for mediet selv.
  5. Medier bør sikre sig, at det automatiserede indhold ikke kan hackes ved at påvirke de data, som den kunstige intelligens anvender til at skabe en historie. Ondsindede aktører ville f.eks. kunne plante tusindvis af falske historier på internettet, som kunne lede en generativ kunstig intelligens på vildspor fra sandheden.

Ville disse fem principper løse alle problemer? Næppe, men det er i hvert fald en god start til at få gang i en nødvendig diskussion af de potentielt set apokalyptiske (for journalister) konsekvenser af skabende, kopierende og manipulerende kunstige intelligenser.

Peter Svarre er forfatter og foredragsholder. Cand. scient. pol og Master of International Affairs fra Columbia University

 

0 Kommentarer

data_usage
chevron_left
chevron_right