Det er ingen tvil om at internett, sosiale medier og søkemotorer har vært positivt for ytringsfriheten og informasjonsfriheten. Samtidig har noen få store, globale aktører gjennom sin portvokterrolle fått enorm makt over hva slags innhold vi eksponeres for. Disse aktørene kontrollerer distribusjon og inntektsstrømmer for digital informasjon verden over, og deres forretningsmessige mål er ikke nødvendigvis i samsvar med det som tjener demokratiet.

Den teknologiske utviklingen gjør at det ikke bare er blitt enklere å produsere og spre informasjon, men også desinformasjon. Dette kan i ytterste konsekvens utfordre tilliten til demokratiet, demokratiske institusjoner og demokratiske valg. Sosiale medier og søkemotorer har betydelig påvirkningskraft over hva som møter oss i feeden, fordi dette i stor grad styres av plattformenes anbefalingsalgoritmer. Plattformene har derfor et stort ansvar, både for å motvirke risikoer i egen systemdesign, og for å moderere innholdet som formidles på deres plattformer. Bransjenormen skal bidra til å redusere risikoen ved spredning og forsterkning av desinformasjon, og er basert på frivillighet. Plattformene som har signert bransjenormen, som YouTube, Facebook, Instagram, LinkedIn og Tiktok, har forpliktet seg til å jevnlig rapportere blant annet hvordan de forholder seg til desinformasjon, faktasjekking og politisk reklame. Dette gjør oss bedre i stand til å forstå omfanget av desinformasjon, hva de globale aktørene gjør for å bekjempe dette på sine plattformer, og til å diskutere og treffe adekvate mottiltak.

Medietilsynet har siden i fjor, på oppdrag fra Kultur- og likestillingsdepartementet, gjennomgått plattformenes rapporter. Vi ser en utvikling i positiv retning i årets rapport, og selskapene rapporterer om mange ulike tiltak knyttet til desinformasjon og uønsket valgpåvirkning. De rapporterer også om tiltak mot betalt forsterkning av politisk innhold og oppfølging av egne brukervilkår.

Plattformene sier imidlertid lite om hva de gjør for å motvirke risikoen knyttet til design på egne tjenester, der forsterkende algoritmer er et kjerneproblem. Slike algoritmer kan bidra til å forsterke desinformasjon, slik vi for eksempel så etter knivangrepet i Southport i sommer, der tre små barn mistet livet. I etterkant brøt det ut voldelige opptøyer over hele Storbritannia, drevet av feilinformasjon som spredte seg raskt gjennom sosiale medier i form av tekst og KI-genererte bilder. Vi trenger vi mer innsikt i plattformenes data og i den svarte boksen av anbefalingsalgoritmer.

Ytringsfriheten har svært gode vilkår i Norge, noe Ytringsfrihetskommisjonen også pekte på i 2022. Samtidig må vi ha med oss at norske brukere sårbare, fordi en høy andel av befolkningen bruker sosiale medier, som er den viktigste kanalen for spredning av desinformasjon. I tillegg er verktøy for generativ kunstig intelligens blitt mer avansert, enklere å bruke og mer tilgjengelig. Det er vanskelig og tidkrevende å skille mellom ekte og syntetisk tekst, bilde, lyd og video. Ny teknologi er allerede brukt til uønsket politisk påvirkning, blant annet i forbindelse med valg i USA og Slovakia.

Alt dette gjør det helt nødvendig at de store globale aktørene nå tar et større ansvar for det som skjer på deres plattformer. Heldigvis har vi fått et nytt EU-regelverk, forordningen for digitale tjenester, DSA, som kommer til å bidra positivt. Forordningen gjelder allerede i EU-landene, men det haster å få regelverket på plass også i Norge.

En norsk DSA-koordinator får det øverste ansvaret for å håndheve DSA i Norge, og får fast plass i samarbeidsorganet mellom Europakommisjonen og andre lands koordinatorer. Dette gir reell innflytelse også på den europeiske håndhevingen. Her blir ytringsfrihetskompetanse svært viktig, og derfor er det naturlig å legge koordinatoransvaret til Medietilsynet. Dette har også presseorganisasjonene i Norge gått inn for.

De nye europeiske reguleringene løser ikke alt, men er viktige skritt i riktig retning. Derfor er det avgjørende at implementering, hensiktsmessig organisering og effektiv håndheving prioriteres. I tillegg må plattformene selv gjennomføre tiltak mot desinformasjon og stramme opp sin egenrapportering. Vi trenger dessuten uavhengige analyser for å forstå omfanget av desinformasjon på plattformene, og effekten av tiltakene de gjennomfører i en norsk kontekst.