
Illustration: Morten Voigt
Det seneste år har danske journalister og kommunikationsfolk fået en ny, usynlig kollega på redaktionerne.
En kollega, der når som helst og hvor som helst kan træde til som din personlige assistent og hjælpe med alt fra idéudvikling og research til på et øjeblik at transskribere timelange interviews og foreslå rubrikker.
Kollegaen hedder ChatGPT og er bare én af de chatbots og AI-værktøjer, som det seneste år har fået udviklingen inden for kunstig intelligens til at tage et kvantespring fremad. Trænet på data fra store dele af internettet kan ChatGPT nemlig skabe tekst på et splitsekund og lyde stort set, som var det et menneske, der stod bag.
Men selv om teknologien kan være en stor hjælp i alle led af den journalistiske proces, så stiller den også publicistiske medier over for en række dilemmaer. Derfor tager flere medier nu bestik af situationen og indfører retningslinjer for, hvordan man som journalist skal forholde sig til kunstig intelligens i sit arbejde.
Journalisten har spurgt en række danske mediearbejdspladser, om de har retningslinjer for AI. Otte af de 13 medier, der har svaret, oplyser, at de har retningslinjer. Det gælder blandt andet TV 2, JP/Politikens Hus, JFM og Ritzau. Ingen af de 13 medier har direkte politikker om, at deres journalister slet ikke må bruge AI-værktøjerne.
Vil ændre mediebranchen
”Det, vi ser her, er, at det kommer til at påvirke alle led i den journalistiske værdikæde.”
Sådan siger Andreas Marckmann, chefredaktør på Fagbladet Folkeskolen og forfatter til bogen ’Sådan forandrer automatisering medierne’, som belyser de krav til både kompetencer og etik, som robotterne stiller journalister over for.
Han bakkes op af Peder Hammerskov, som er journalist og underviser på Danmarks Medie- og Journalisthøjskole, DMJX.
”Igen er vi i en situation, hvor der er en ny teknologi, som kommer til at ændre vores branche, men også måden, vi bruger internettet på fundamentalt.”
Begge mener, at teknologien kalder på, at journalister og mediefolk allerede nu, men især i fremtiden vil have brug for en grundlæggende bedre dataforståelse.
Det er også en af grundene til, at Peder Hammerskov er med i et nyt forsknings- og udviklingsprojekt på DMJX, der skal undersøge, hvordan AI bliver en medspiller i den journalistiske praksis.

”Jeg synes, det er okay at være skeptisk og måske også bange for det. Men jeg tror også, vi er nødt til at anerkende, at det er kommet for at blive. Vi er nødt til at være åbne omkring, hvordan vi bruger det, og tage diskussionerne i fællesskab i branchen,” siger han.
Som et led i projektet har Peder Hammerskov også startet et åbent netværk, hvor journalister og mediefolk kan diskutere og dele deres viden om AI. Og det har der været overraskende stor interesse for.
”Det har været sindssygt nemt at få folk til at være med. Jeg talte med en af mine gamle kolleger her i huset, som sagde, at det er lidt ligesom dengang, de startede med datajournalistik for 20 år siden. Der er lidt den samme følelse af, at det er en fælles bevægelse,” fortæller han.
Forbedre journalistikken
Flere danske medier virker bestemt heller ikke lukkede over for teknologien.
Det viser de retningslinjer for brugen af AI, som flere og flere den seneste tid har udarbejdet.
Politiken skriver, at de ser muligheder i at ”forbedre deres journalistik” med AI.
JFM opfordrer sine medarbejdere til ”at være nysgerrige i forhold til AI” og skriver, at de ”ser på AI som et helt naturligt værktøj i den redaktionelle proces”. For nylig har den regionale mediekoncern derfor sat gang i et efteruddannelsesprogram, hvor alle deres journalister skal på kursus i at bruge ChatGPT.
En lignende åbenhed gør sig gældende hos Altinget, som skriver, at de anser kunstig intelligens som ”nyttige arbejdsredskaber i den journalistiske proces”.
Men flere udtrykker også en betænkelighed over for teknologien.
DR skriver, at selv om de indfører ”strenge retningslinjer”, er der stadig ”masser af potentiale i at bruge chatbots i det journalistiske arbejde”. Samme splittelse udtrykker Zetlands chefredaktør, Lea Korsgaard.
”Jeg er både vildt bekymret og totalt begejstret,” siger hun om sit syn på fremtiden med generativ AI og skriver samtidig, at de på Zetland bruger AI både i research, idé- og bearbejdningsfasen.
Forplumrer virkelighed og fiktion
Og netop følelsen af både begejstring og frygt for, hvad AI vil betyde for journalistikken, står Lea Korsgaard ikke alene med.
I slutningen af september kom den hidtil største undersøgelse af, hvordan AI påvirker nyhedsmedier.
Rapporten ’Generating Change’, der baserer sig på interviews med journalister og redaktører fra 105 nyhedsorganisationer på tværs af 46 forskellige lande, tegner et billede af en branche, der er splittet omkring AI.
For mens to tredjedele ser muligheder for journalistikken, svarer 82 procent samtidig, at de frygter, at kunstig intelligens vil øge konkurrencen i en allerede presset branche. At det vil lede til dårligere produkter og dermed mindre troværdighed omkring journalistikken.
Den splittelse kommer også til udtryk i mediernes retningslinjer. For selv om branchen på flere måder tager teknologien til sig, er det med en række forbehold.
TV 2 skriver, at AI-genereret research aldrig kan stå alene, og hos Se og Hør mener man, at vi er ”langt fra at kunne stole på det, som ChatGPT kan levere”. DR advarer om, at ”forkert brug fundamentalt kan skade DR’s troværdighed”.
For siden sidste år, hvor mange næsten legende tog imod ChatGPT, har teknologien også vist sig at komme med en række dilemmaer, som udfordrer journalistikkens grundlæggende idealer.
En af dem er ophavsretten. Noget, som en række store medier allerede har taget skridt for at beskytte ved at blokere for ChatGPT. En anden måde at beskytte ophavsretten på er ved at undlade at oploade hele artikler i sprogmodellerne.
DR skriver for eksempel, at ”for at undgå at overdrage vores ophavsret skal hele artikler ikke indtastes i chatbots”. Det samme skriver TV 2 og Altinget, mens andre slet ikke nævner spørgsmålet om ophavsret.
En anden central problemstilling er sandhed. For ChatGPT ved kun, hvad der giver mening rent sprogligt og har ikke noget begreb om, hvad der er sandt og falsk. Hvis ikke den kan finde det rigtige svar, så opfinder den ét. Den så at sige ’hallucinerer’, som flere har døbt det.
Det betyder, at man som journalist bliver nødt til at efterprøve og faktatjekke alt det, chatbotten skriver, inden man udgiver det. En allerede central journalistisk kerneopgave, som kun bliver vigtigere i fremtiden, fordi teknologi som AI kan producere tekst og billeder, der ser ægte ud, men som ikke har rod i virkeligheden.

”Helt generelt tror jeg, at generativ AI kommer til at kickstarte en bølge af misinformation, som vi aldrig nogensinde har set. Som kommer til at forplumre virkelighed og fiktion og forskellen mellem troværdige og utroværdige kilder,” siger Andreas Marckmann.
En tredje udfordring er bias. For vi ved ikke, hvad robotterne er trænet på, og eftersom de ikke kommer med en kildehenvisning, så kan det være svært både at faktatjekke, men også at gennemskue de bias, der kan snige sig ind i både formuleringer og oplysninger.
”Når jeg underviser i det her, så plejer jeg at sige, at hvis ChatGPT giver dig 10 overskrifter, så er der to, der er løgn. Men der er måske også en, der er bedre end den, du selv kunne have fundet på,” siger Andreas Marckmann.
Derfor mener han også, man tager fejl, hvis man tror, at teknologien kan gøre en dårlig journalist til en god journalist.
”Hvis jeg ikke har styr på, hvad stoffet handler om, hvad interviewet skal handle om, og hvad rammen er, så kan jeg ikke bruge teknologien til noget som helst. For så ved jeg ikke, om det, den foreslår, er rigtigt eller forkert.”
Hvad er generativ AI?
Generativ AI er en gren inden for kunstig intelligens, som på baggrund af avancerede algoritmer lærer mønstre og strukturer i enorme datasæt ’trawlet’ fra internettet. Ud fra genkendelsen af de mønstre kan de forudsige og på den baggrund generere ord eller billeder.
Der er de såkaldt store sprogmodeller (Large Language Models, også forkortet som LLM), som udelukkende er trænet på tekst, og så er der modeller, der er blevet fodret med en kombination af tekst og billede (text2Image, TTI).
En af de største sprogmodeller på markedet lige nu er ChatGPT lavet af Open AI.
Andre af de største er chatfunktionen i Microsofts søgemaskine Bing, og af text2image-værktøjer er der Midjourney, DALL-E 2 samt Adobe Firefly.
”Det modsatte af mig”
En af de journalister, som allerede i dag bruger flere af de nye AI-værktøjer aktivt i sin journalistik, er Therese Moreau fra it-mediet Version2.
Men fordi hun er uddannet i data science fra IT-Universitetet og arbejdede som dataanalytiker, før hun landede i journalistikkens verden, er hun mere skeptisk over for, hvad AI kan.
”Jeg kan ikke sætte ChatGPT til at skrive en artikel for mig, for der vil fuldstændigt uundgåeligt indgå fejl,” siger hun.

Derfor bruger Therese Moreau også kun sprogmodellerne til sparring. Enten for at få nogle andre vinkler på den historie, hun sidder med, eller hvis hun skal lave et interview med en kilde, hun i virkeligheden er ret enig med, kan hun finde på at spørge ChatGPT om fem modargumenter.
”Den form for sparring: Kom med noget, som ikke er min tankegang. Noget, som er det modsatte af mig. Men jeg ville aldrig nogensinde bede ChatGPT om at passe mit arbejde og forsøge at være mig, for det kan den ikke,” siger hun og tilføjer:
”Det, jeg risikerer, er grundlæggende set mit job, hvis jeg sætter ChatGPT til at gøre det. For uanset hvordan vi vender og drejer det, kender generativ AI ikke sandheden og kan ikke komme til at kende sandheden,” siger Therese Moreau.
Et menneske i loopet
Derfor arbejder flere medier også med princippet om et menneske i loopet. Politiken skriver, at ”al redaktionel produktion begynder og slutter med et menneske”. Zetland slår fast, at deres journalistik er ”made by humans”, og JFM skriver, at ”det altid er journalistens ansvar, at indholdet er troværdigt”.
Den insisteren på, at der skal være et menneske inde over, begrundes blandt andet hos Ritzau med, at teknologien ikke kan stå alene – endnu.
”Vi siger: Human in the loop. For vi tror ikke, at man på nuværende tidspunkt kan lave et rent ChatGPT-produkt. Det vil altid være et menneske, som skal kigge på, om det, den skriver, er rigtigt eller forkert. Om det er unuanceret eller forkert tonet,” siger nyhedschef og direktør på Ritzau Line Jakobsen.
Andre begrunder det med en frygt for at miste forbindelsen til læserne. Chefredaktør på Zetland Lea Korsgaard mener, at de på Zetland ville gå på kompromis med det vigtigste ved deres produkt, hvis de lod en AI generere selve indholdet.
”Det, der er helt særligt ved os mennesker, det er, at vi fortæller hinanden historier. Det er måden, vi har skabt fællesskab på, måden, vi er mennesker på simpelthen.”
Derfor tror hun heller ikke på, at AI-genererede nyheder er noget, som nogen ville have lyst til at betale for.
”Hvis man tager den menneskelige komponent ud af nyhedsformidlingen, så tror jeg simpelthen, at den opleves som mindre værdifuld, mindre som noget, der rammer mig som menneske,” siger Lea Korsgaard.

Men det står ifølge hende ikke i modsætning til at omfavne teknologien. Tværtimod mener Lea Korsgaard, at det kan være altafgørende, at vi tager teknologien til os.
Alligevel kan fremtiden med teknologien godt bekymre hende, fordi det er så nyt og ubetrådt land.
”Jeg synes virkelig, det er svært at overskue, hvad vi kigger ind i, men jeg tror, man ville være et skarn, hvis man enten var super optimist eller super pessimist,” siger hun og sammenligner den virkelighed, vi ser ind i nu, med måden, digitaliseringen i 00’erne udfordrede mediernes forretningsmodeller og vendte grundlæggende op og ned på den måde, vi tænker journalistik på – og stadig gør det.
”Vi skal lære af, hvor uhyggeligt sent vi gjorde digitaliseringen til journalistikkens fordel,” mener Lea Korsgaard.
0 Kommentarer
Du skal være logget ind med dit DJ-login for at kunne kommentere på artiklen.