Teknologigigantene har i en årrekke benyttet seg av våre datasignaler sammen med kunstig intelligens til å forbedre deres tjenester i form av personalisering av resultatene vi får når vi googler på nett eller hvordan våre respektive «feeder» tilpasses våre interesser i sosiale medier. De siste årene har enorme mengder med offentlig data også blitt brukt til å trene opp diverse språkmodeller, i form av den generative kunstige intelligensen.

Sistnevnte har blitt gjenstand for mange diskusjoner blant de redaktørstyrte mediene, anført av Norges største avis, VG, etter at det ble kjent at Meta vil begynne å bruke våre offentlige delte bilder og poster til å trene opp deres språkmodell, og det uten å ha innhentet eksplisitt samtykke fra oss som brukere. VGs kommentator Astrid Meland gikk så langt som å påstå at «Facebook og Instagram prøver å rappe bildene våre». Samtidig benytter VG seg selv av KI-teknologier som heller ikke har innhentet eksplisitt samtykke fra alle sine respektive brukere.

OpenAI, selskapet bak blant annet ChatGPT, har brukt offentlig tilgjengelig data til å trene sine modeller. Dette inkluderer data som er samlet inn fra nettet gjennom såkalt «web crawling». Her skal det for øvrig legges til at OpenAI ekskluderer data fra kilder som de vet har betalingsmurer eller hovedsakelig samler inn personlig identifiserbar informasjon, men det er fortsatt en stor mengde data som benyttes uten eksplisitt samtykke fra alle de som har bidratt med innholdet. I 2023 ble det kjent at VG hadde valgt å blokkere ChatGPT, fordi de ikke vil dele sin journalistikk for å gjøre ChatGPT til en bedre språkmodell, samtidig som de selv benytter seg av OpenAI sin ChatGPT-teknologi til å skrive nyhetsbrev og OpenAI sin Whisper-teknologi til å transkribere video og lyd gjennom deres Jojo-app. VG opplyser videre at de også bruker Anthropic sin Claude-språkmodell, Google Gemini og ElevenLabs sin AI-modell for syntetiske stemmer.

Felles for disse verktøyene er at de alle er trent på store mengder data hentet fra internett og sosiale medier (inkludert offentlige poster på Facebook) uten at de nødvendigvis har innhentet eksplisitt samtykke fra oss brukere. Ved å bruke disse verktøyene, drar VG nytte av data som er samlet inn uten eksplisitt samtykke, samtidig som de kritiserer Meta for tilsvarende praksis. Dette hykleriet undergraver avisens troverdighet og setter lys på en viktig dobbelstandard.

Det er viktig å anerkjenne at KI-modeller som får tilgang til store mengder data kan gi betydelige fordeler. Men det er også avgjørende å sikre at disse dataene blir brukt på en etisk måte, med respekt for personvern og samtykke. VGs dobbeltmoral kommer også til syne når de på den ene siden forbyr sine ansatte å være på TikTok, samtidig som de selv bruker plattformen til å dele nyheter. Denne inkonsekvensen er et klart eksempel på hvordan VG praktiserer forskjellige standarder for seg selv og andre.

Å balansere mellom personvern og teknologisk fremgang er avgjørende. VG må sørge for at de ikke bare kritiserer andre, men også følger de samme etiske standardene selv. Dette inkluderer å sikre eksplisitt samtykke for bruk av data i KI-trening, både for deres egne verktøy og de tjenestene de benytter seg av. Ved å gjøre dette kan VG bidra til en mer transparent og ansvarlig bruk av teknologi, samtidig som de bidrar til å styrke troverdigheten og tilliten til de redaktørstyrte mediene. Slik VG (og stort sett alle andre redaktørstyrte medier) holder på i dag, gjør de i stedet det motsatte. Og det er ikke bra, gitt at tilliten til norske medier er på en fallende trend.