Til forsiden

9. juli 2023

Reguleringsparadokset

Regulering av teknologi kan skape motsatt resultat av hva man ønsker seg.

Av KJERSTI LØKEN STAVRUM, CEO Tinius Trust

Den morgenen jeg skulle ha eksamen i bokmål skriftlig på videregående skole (det er veldig lenge siden), var lokalavisen innom gymsalen der vi satt for å lage en reportasje. Jeg sa ja til å bli fotografert – i en noe påtatt tenkende positur. Bildet kom på trykk i avisen, og senere ble jeg gjort oppmerksom på at det ble brukt som et illustrasjonsfoto i andre aviser.

Illustrasjonsfoto er en solid innarbeidet sjanger i aviser og magasiner. Dette er bilder som egentlig ikke har noe med saken å gjøre, som ikke er tatt til den saken det handler om og personene som er avbildet har heller ingenting med teksten å gjøre. Men, slike bilder – som også illustrerer denne teksten – skaper en ramme, eller en stemning og frister til lesning. Uten ville det blitt veldig kjedelig.

Etiske regler for KI

Nå kan man lage illustrasjonsbilder ved hjelp av kunstig intelligens (KI). Man kan bare beskrive hvordan det skal se ut, og vips – et kunstig bilde som kan lyse opp teksten. Dette – og muligheten til å lage tekster ved hjelp av KI – har fått redaksjoner over hele verden til å utvikle særlige etiske regler for KI.

Transparens, eller åpenhet, overfor leserne er et nøkkelord.

Man bør skrive at dette bildet er laget ved hjelp av KI, eller at denne teksten er delvis laget av KI osv.

Hvis man skulle hatt tilsvarende presisjon tidligere, kunne man for eksempel skrevet at «Dette bildet er av en jente fra Askim, hun vet ikke at hun blir brukt som illustrasjonsbilde til denne teksten. Hun har uansett ikke noe med saken å gjøre». Det ville vært sant, men ville ført til at man sluttet å bruke slike illustrasjonsbilder, vil jeg tro. Etisk var det i alle fall ikke.

Hvis bilder laget av KI heretter skal merkes, vil det kanskje skape en mer generell tydelighet om illustrasjonsbilder.

Helt frem til KI og ChatGPT gjorde det mulig å bidra i den redaksjonelle prosessen, har det vært utbredt å bruke internett og googlesøk i research-fasen. Det har ikke vært vanlig å informere leserne om det.

Nå vil mange gjøre det klart at de har brukt KI i teksten. Det kan man jo gjøre, men det viktigste for leserne vil nok fortsatt være at det er riktig det som står der og at man har kilder for fakta og påstander. Altså at innholdet etterlever det punktet som allerede står i den norske Vær varsom-plakaten (punkt 3.2.) og som sier at redaksjonen skal være kritisk i valg av kilder og at man må kontrollere at opplysninger som gis er korrekte. Dessuten er det ifølge samme punkt «god presseskikk å tilstrebe bredde og relevans i valg av kilder». Det betinger at man faktisk vet hvor innholdet kommer fra.

Dødsangst

Ny teknologi skaper alltid usikkerhet. Med ChatGPT ble det skapt dødsangst.

Da 350 internasjonale teknologiledere, forskere og ingeniører for en måneds tid siden (det virker lenger) undertegnet et brev der de ba om å bremse KI, var argumentet at KI kan utrydde menneskeheten. Da er det alvor, det skjønte alle.

En av dem som undertegnet, var Twitter-sjef Elon Musk.

Hans signatur kan kanskje sammenlignes med tegnefilmfiguren Bart Simpson som forsøker å presse seg gjennom folkemengden som står og ser på en bilulykke og argumenterer med at de må slippe ham igjennom for han kom sent.

Kort tid etter oppropet startet Musk en konkurrent til ChatGPT.

Møtt med åpne armer

En annen som undertegnet brevet, var Sam Altman, direktøren for OpenAI og tjenesten ChatGPT.

Altman ivrer for regulering av KI og har allerede vært på høring i Kongressen om dette. Han har slått alarm. For de andre tech-lederne tok det flere år før de ble innkalt til Kongressen for å gjøre rede for seg og sin enorme markedsmakt.

Altman ble møtt med åpne armer. De var jo på samme banehalvdel, selv om det var et gedigent kompetansegap mellom ham og politikerne. Kongressen ville gjerne være imøtekommende og regulere, men hva skulle de regulere? Til slutt spurte en av dem Altman direkte: Hvis du skulle regulere, hva ville du regulert da? Og Altman ville – ikke overraskende – lage reguleringer i form av lisensiering som vil sikre at hans OpenAI får en rød løper hele veien frem, men andre selskaper risikerer en hard stopp.

Et spill for galleriet

Det minner om den gangen Facebook-sjef Mark Zuckerberg også ba om å bli regulert, i trygg forvissning om at en mulig regulering ville ramme andre hardere enn Facebook. Dessuten at han ville kunne leve på godvilje av sin positive innstilling til regulering.

Altman har reist verden rundt dette året og snakket for fulle hus om behovet for en global regulering av AI. Men, viser dokumenter fra Europakommisjonen som magasinet TIME har fått tilgang på, i ly av disse foredragene har han lobbet hardt for å utvanne EUs regulering av kunstig intelligens. Han og OpenAI har spilt inn tekstforslag til EUs «AI Act» som nå er en del av de siste forhandlingene. Blant annet har de sluppet å bli sortert under selskap som representerer «høy risiko» – noe som ville påført selskapet større krav til transparens, sporbarhet og menneskelig kontroll.

Paradokser

Regulering kan alltid slå begge veier. Med de store plattformselskapene ble uttrykket «reguleringsparadoks» født.

Begrepet er en advarsel om at reguleringer i sum kan få motsatt effekt enn antatt av og øke de store selskapenes makt av tre årsaker:

  1. Det er ofte kun de største selskapene som har muskler til å etterleve kravene som stilles.
  2. Reguleringen kan være kostnadskrevende – små selskap ikke har råd til å etterleve dem.
  3. Detaljerte krav til hva man kan formidle gir særlig de store selskapene makt over ytringsrommet.

Så langt har de store selskapene klart seg bra i møte med alle forsøk på reguleringer. Og det er dette Altman må ha vært bevisst på.

Verden er alltid ung i møte med ny teknologi. Nettopp derfor er det viktig med en løpende skarp debatt, og at man knesetter prinsipper for god forretningsdrift som man venter at etterleves. Det er også viktig å være aktsom for å sikre at regulering ikke spenner ben på fremskrittene og utilsiktet favoriserer noen aktører fremfor andre.

Kronikken er skrevet av Kjersti Løken Stavrum, administrerende direktør i Stiftelsen Tinius. Den ble først publisert av Dagens Næringsliv 7. juli 2023.

Bildet til denne artikkelen er generert av kunstig intelligens.

Flere nyheter

Bilde fra et møte i PFU i mars 2023.Bilde fra et møte i PFU i mars 2023.

7. januar 2024

Takk for etikken

Effekten av et godt presseetisk system kan ikke overvurderes.

Jaan Ivar Semlitsch er nytt styremedlem i Stiftelsen Tinius. Jaan Ivar Semlitsch er nytt styremedlem i Stiftelsen Tinius.

4. januar 2024

Nytt styremedlem i Stiftelsen Tinius

Jaan Ivar Semlitsch er utpekt til nytt styremedlem i Stiftelsen Tinius: – En svært meningsfylt og motiverende oppgave.

Styreleder i Stiftelsen Tinius, Ole Jacob Sunde, og daglig leder Kjersti Løken Stavrum. Foto: Lars RollandStyreleder i Stiftelsen Tinius, Ole Jacob Sunde, og daglig leder Kjersti Løken Stavrum. Foto: Lars Rolland

11. desember 2023

Stiftelsen Tinius vil kjøpe Schibsteds nyhetsmedier

– Stiftelsen Tinius’ oppgave er å forvalte eierskapet til det beste for hele Schibsted. Det teknologiske veiskillet vi står foran krever nye grep, sier styreleder Ole Jacob Sunde i Stiftelsen Tinius.

Elon MuskElon Musk

12. november 2023

Elon Musk: Løs kanon i frontlinjen

Hva kan vi gjøre med Elon Musk?

Se alle nyheter

Meld deg på nyhetsbrevet