search

Hvem har ansvaret, når robotter skriver noget, der er forkert?

Der er ingen robotlov, som fastslår, hvem der har det mediejuridiske ansvar, hvis robotter begår fejl. Men ansvaret ligger sandsynligvis hos chefredaktøren, siger ekspert Peter Lind Nielsen

Netflix’ aktie var faldet med 71 procent på kun et halvt år.

Det kunne Associated Press rapportere i 2015, hvor en robot havde skrevet en artikel om Netflix’ kvartalsregnskab. Faktisk var aktien fordoblet, men algoritmen havde ikke fanget, at Netflix-aktien undergik en såkaldt 7-til-1 split, hvor selskabet delte sine aktier i mange dele for at øge virksomhedens likviditet.

Selv om artiklen blev rettet kort efter udgivelsen, kunne aktiehandlere eller Netflix potentielt have mistet en formue på sådan en artikel.

Eksemplet rejser spørgsmålet om, hvem der har det juridiske ansvar for robotartikler, hvis de eksempelvis er baseret på dårlige data, eller hvis algoritmen fejlfortolker den.

Første dilemma: Ansvar for fejl

Og det er faktisk noget, som selv jurister grubler over. For mens lovgivningen er ligetil for artikler skrevet af en menneskehånd, er det modsatte tilfældet for robotjournalistikken, fortæller advokat Peter Lind Nielsen, som er specialist i it-ret hos Bech-Bruun.

”Der findes ingen robotlov og ingen retssager at ligge til grund, så mine svar er baseret på fornemmelser og juridiske vurderinger,” siger han.

Robotter kan blandt andet bruges til at prioritere forsidehistorierne på nyhedsmedier, layoute avissider eller omsætte data til nyhedsartikler. Det er især i forbindelse med den sidste form for robotarbejde, at der kan opstå problemer med at placere et juridisk ansvar for en fejl. For eksempel når to navne bliver byttet om, så en artikel indeholder et ærekrænkende udsagn.

Hvor kommer fejlen fra?

Det første skridt i den slags tilfælde er ifølge Peter Lind Nielsen at afklare, hvor fejlen er opstået: Bygger artiklen på forkerte data fra databasen, fejlfortolker robotten data, eller indeholder algoritmen simpelthen en fejl?

Og for at gøre det mere komplekst indeholder nogle algoritmer machine learning, hvor robotten selv lærer – eller andre træner den. Er det så programmøren eller robottræneren, der vil have ansvaret?

Problemets kerne – set ud fra et juridisk synspunkt – er, at algoritmerne ofte er meget komplekse og utilgængelige.

”Det er ikke som i en bil, hvor bremserne svigter, og hvor vi kan skille den ad for at se, hvor problemet ligger. Derfor diskuterer vi også på EU-plan, hvor gennemsigtig en algoritme skal være,” forklarer Peter Lind Nielsen.

Ifølge Peter Lind Nielsen vil chefredaktøren efter al sandsynlighed blive set som den juridisk ansvarlige.

”Hvis medierne er omfattet af medieansvarsloven, og hvis artiklen ikke har en navngivet forfatter, ligger ansvaret sandsynligvis hos chefredaktøren,” forklarer han.

Kommentarer
0

Husk at skrive dit fulde navn og en gyldig mail-adresse i felterne ovenfor, ellers vil din kommentar blive fjernet. Du kan se Journalistens regler for kommentarer her.
Tak fordi du deltager i debatten!

keyboard_arrow_up
Tilbage til toppen