
Søren Pedersen er softwareudvikler, robot-connaisseur og er på Twitter som @systemaddict. Foto: Jes roger Petersen
For et stykke tid siden havde jeg fornøjelsen af at moderere en debat om robot-journalistik. I panelet sad gode folk som udviklingsdirektør Kristoffer Graugaard fra Ritzau. Jeg forsøgte ihærdigt at presse debattørerne på spørgsmålet om, hvorvidt det virkelig kan være rigtigt, at udviklingen af robotjournalistik slet ikke truer journalistfaget sådan helt generelt.
Men optimismen er hos de fleste ukuelig, og den seneste deltager i heppekoret er endnu en af de tunge drenge, den tidligere chefredaktør på Ekstra Bladet og nuværende udviklingsdirektør hos NTB (det norske svar på Ritzau) Geir Terje Ruud: ”Automatisering vil ikke true journalistikken” lyder det selvsikkert fra nordmanden, som ser et stort potentiale i, at robotterne supplerer journalisterne i deres arbejde.
Dybt inde i de store tech-virksomheders hemmelige laboratorier bygger ingeniører maskiner og algoritmer, som på den lange bane kommer til at gøre ondt, meget ondt, på det traditionelle fag, som vi alle kender, respekterer og elsker.
Robotjournalistik kommer til at ændre branchen radikalt. Sådanne begivenheder er faktisk ret sjældne, selv om hverdagen ofte føles meget foranderlig. I 1990’erne kom internettet, og i 2008 kom den første iPhone – to vaskeægte disruptioner, som skabte dybe forandringer i alt, hvad der har med journalistik at gøre. Robot-journalistik bliver det tredje jordskælv.
Den vil bringe nogle ret fantastiske ting med sig. Her deler jeg Geirs optimisme. På den kortere bane vil der komme redskaber, som vil gøre livet som journalist markant lettere, og som rent faktisk vil berige og forbedre journalistikken markant.
Men dybt inde i de store tech-virksomheders hemmelige laboratorier bygger ingeniører maskiner og algoritmer, som på den lange bane kommer til at gøre ondt, meget ondt, på det traditionelle fag, som vi alle kender, respekterer og elsker.
Selv på kort sigt lurer der farer. Er du en af de journalister, som møder ind på arbejde og føler, du laver nogenlunde de samme ting dag ud og dag ind, så er du i akut fare for at blive erstattet af en robot. Repetitive opgaver med et solidt datafundament, som fx finansielle nøgletal, vejrudsigter, ventetider i trafikken, sportsreferater, og lign., er områder, som meget hurtigt vil blive totalt renset for menneskelig arbejdskraft.
Men også områder, hvor datagrundlaget er ’løsere’, er i akut fare.
Alle med arbejdsopgaver, der bare lugter minimalt af repetition, vil stå først ved skafottet, når ledelsen optimerer organisationen.
En robot kan sandsynligvis ikke berette om nye film og serier bedre end dig. En robot kan nok heller ikke skrive levende om de mest interessante ting på sociale medier bedre end dig. Og en robot kan helt sikkert heller ikke opsummere nattens begivenheder bedre end dig. Men robotten kan gøre det nogenlunde 24/7 til en 1/100 af din løn, og kan den hente bare en mindre del af dine læsere, så vil den fremstå særdeles attraktiv, når ledelsen i fremtidens mediehus bestemmer, hvem der er ude, og hvem der er inde.
For størstedelen af journalisterne gælder det dog heldigvis, at de ikke lige umiddelbart kan erstattes af en robot, og dem, der bliver hængende, vil inden for to til tre år begynde at mærke de store fordele, som robotterne bringer med sig. De vil først og fremmest stifte bekendtskab med intelligente (robot)assistenter, dybt integreret ind i deres CMS.
De vil være i stand til at forstå den nære kontekst af det, du skriver akkurat lige nu. De vil i et vist omfang faktatjekke dine sætninger, de vil whitewashe dine tekster for krænkende udtryk, og de vil tilbyde at færdiggøre mange af dine sætninger i et fejlfrit sprog.
I praksis har vi allerede stiftet bekendtskab med robot-assistenter. I årevis har de rettet vores stavefejl, og det seneste år er vi også begyndt at se en ny type, som forstår mere end bare enkelte ord, fx Smart Compose i Gmail:
Det kan godt være, det virker uendeligt langt fra journalistisk håndværk, når en robot-assistent færdiggør en sætning om tacos. Det er det på overfladen også, men systemet, som kobler salsa og guacamole sammen med tacos, kunne principielt lige så godt have hjulpet dig med at formulere en ekstremt kompleks pointe omkring de socio-økonomiske konsekvenser af Brexit.
Google har læst milliarder af sætninger for at kunne snakke om bl.a. tacos. I takt med at robotterne pløjer sig igennem billioner af sætninger, og algoritmerne generelt forbedres, vil deres forståelse af flere og flere områder øges eksponentielt.
The forced draft mode in @textato is brutal pic.twitter.com/6bOv5Nzxxt
— Morten Just (@mortenjust) December 18, 2019
Morten Just (@MortenJust) har lavet et skriveredskab til Max, Textato, der giver et glimt af, hvordan en skriveproces kan se ud i robotfremtiden.
Det er ikke kun Google, som er i gang med de her ting. I de nyeste udgaver af Microsoft Word lurer der assistenter, som hjælper dig, ikke kun med at stave rigtigt, men også med at skrive bedre. Her i februar 2020 offentliggjorde Microsoft, at de har udviklet en robot, som kan forstå og skrive artikler på baggrund af ikke mindre end 17 milliarder datapunkter.
Det er et astronomisk tal, især når man tænker på, at de ’dumme’ skabeloner, som vi lige nu bruger til robotjournalistik, typisk bruger under 500 datapunkter for at skrive en artikel.
De første eksempler fra Microsofts nye Turing NLG-algoritme viser en nærmest skræmmende evne til at skrive referater af selv ret komplicerede tekster.
Men når vi snakker om de her super-avancerede teknologier, som assisterer i skriveprocessen, må vi næsten også nævne et af de helt store flop.
I starten af 2019 meddelte OpenAI, at selskabet havde skabt en algoritme, som var så god til at skrive, at det af frygt for konsekvenserne ikke turde offentliggøre den fulde kildekode. Et genialt markedsføringstrick, som skabte en enorm hype, der dog faldt fuldstændigt sammen, da den fulde version endelig blev frigivet, og det stod klart, at det var ren volapyk, som kom ud af den.
Med tiden mindskes behovet for (mange) journalister. Tilbage sidder de helt exceptionelle talenter. Dem, der graver sammenhænge frem, som ingen robot i vores levetid nogensinde vil kunne forstå.
Hele miseren med algoritmen indeholder en vigtig lektie:
Udviklingen af disse teknologier kommer ikke pludseligt. Den kommer drypvist, nærmest lidt umærkeligt, og det gør, at vi ikke rigtigt opdager og forstår det.
På den korte bane vil alt dette føles fantastisk, og jeg tror, det er disse perspektiver, som forfører folk som Geir Terje Ruud, når han antyder, at fremtiden er lys.
På den lange bane, og her snakker vi +10 år, er der dog noget langt mere skummelt på spil.
Journalistens arbejde bliver i stigende grad som en dukkefører, der som en anden Tom Cruise i ’Minority Report’, stykker robot-assistenternes uendelige strøm af elementer sammen i et fuldendt hele.
I denne virkelighed vil en Super-Bot som Microsofts Turing NLG-algoritme stortrives.
De rene robot-artikler er guf for Super-Bottens deep learning-algoritme. Ikke et komma i et kamp-referat eller i en finansiel nyhed er tilfældigt placeret. Alt følger skabelonens strenge regler, og med titusindvis af skabeloner og millioner af forskellige robot-artikler omhandlende den samme Liverpool-kamp, vil Super-Botten lynhurtigt dechifrere de relativt få datapunkter i kampen og være i stand til at skrive nye artikler i et hvilket som helst sprog, du ønsker, i en hvilken som helst form, du ønsker.
Ønsker du en tabloid udgave? Eller en tør detaljeret udgave? Super-Botten vil sprøjte det ud ad infinitum.
De mere avancerede artikler, som er skabt i samarbejdet mellem robot-assistenterne og journalisterne/dukkeførerne, vil selvfølgelig være sværere at ‘forstå’ for Super-Botten, men fordi de indeholder en stigende grad af input fra robot-assistenterne, vil det blive nemmere og nemmere for Super-Bots at dechifrere dem og distribuere alternative udgaver.
Vi bevæger os således i en slags selvforstærkende cyklus, hvor der kontinuerligt kommer mere (og bedre) robot-genereret indhold, som igen dygtiggør vores robotassistenter, som så igen øger det algoritmiske element i journalisternes artikler.
Og så videre og så videre og så videre.
Med tiden mindskes behovet for (mange) journalister. Tilbage sidder de helt exceptionelle talenter. Dem, der graver sammenhænge frem, som ingen robot i vores levetid nogensinde vil kunne forstå.
Disse tilbageblivende journalister skriver mindre og mindre selv. I stedet perfektionerer de arbejdet som dukkeførere for den uendelige strøm af information, som robotassistenterne stiller til rådighed. Men ganske få læsere vil stifte bekendtskab med de originale artikler, som kommer fra disse journalister.
Få sekunder efter udgivelsen af deres artikler vil Super-Bots nemlig have endevendt, ædt, omformuleret og vinklet original-artiklerne og videreformidlet dem i tusinde udgaver på ganske få platforme ejet af tech-giganterne.
Tech-giganterne, som er de eneste, der har CPU-ressourcerne og kompetencerne til at drive Super-Bots, bliver den helt store vinder i denne udvikling. De vil endevende alt indhold fra de tilbageværende medier, og som tak for en gratis udnyttelse af original-indholdet vil de stille avancerede robot-assistenter til rådighed og derved sikre en kontinuerlig tilgang af nyt indhold fra en udmagret slavehær af mediehuse.
Vi ser allerede fremtiden lidt i dag.
Søger du på emner som valgresultater, sportsresultater eller vejret, har Google allerede i dag koblet de originale websites fuldstændigt ud af kredsløbet. De fungerer alene som usynlige leverandører af originalt indhold.

I fremtiden vil alle søgninger resultere i robotjournalistik. Hvorfor henvise til en original kilde, når du på et nanosekund kan generere en artikel om emnet tilpasset lige netop dine behov?
Velkommen til den næsten journalistfrie fremtid.
Rettet den 14/02 klokken 11.44. I indledningen var SDU-fellow Andreas Marckmann Andreassen citeret for noget, han aldrig har sagt. Det er fjernet fra indlægget. Journalisten beklager fejlen.
2 Kommentarer
Du skal være logget ind med dit DJ-login for at kunne kommentere på artiklen.
http://djeye.dk