Av Ram Ramanathan, direktør for Facebooks AI Product Management Team

Visste du at over 60% av verdens befolkning nå har tilgang til internett?

Etter hvert som internettet har utviklet seg til å innlemme flere nettverk og enheter, har folk over hele verden fått flere muligheter til å holde kontakten og flere steder å finne informasjon. Men noen av problemene som menneskeheten har slitt med gjennom hele sin historie – som hatefulle ytringer og bevisst villedende informasjon – har vokst frem også på nettet.

Heldigvis har det vært gjort store fremskritt innen kunstig intelligens som kan bidra til å løse disse utfordringene. Som direktør for Facebooks AI Product Management Team har jeg kunnet følge på nært hold utviklingen av de nyeste fremskrittene som gjøres for å bevare integriteten til elektroniske plattformer, skjerme publikum fra skadelig og villedende innhold, og opprettholde sikkerheten for annonsørers merkevarer.

Det å avdekke problematisk innhold i svært stor skala er en utrolig vanskelig oppgave, men med kunstig intelligens som verktøy blir det enklere å gjøre det raskt og mer effektivt.

Finner og fjerner hatefulle ytringer

For å forbedre brukernes sikkerhet og holde skadelig innhold ute fra våre plattformer, har vi utarbeidet retningslinjer som regulerer hva som er akseptabel atferd på både Facebook og Instagram. Vi er nå i stand til å trene opp komplekse AI-nettverk slik at de på bare brøkdeler av et sekund kan skanne nye innlegg for å kunne vurdere om de ser ut til å være i brudd med disse retningslinjene.

Mens ukvemsord og bruk av hatefulle symboler ofte ligger oppe i dagen, finnes det mange forekomster av hatefulle ytringer som er langt mer komplekse. Slike ytringer er ofte forkledd som sarkasme og slang, eller fordekt i tilsynelatende uskyldige bilder som kan oppfattes ulikt i forskjellige kulturer. Når de som ytrer seg gjør det mer subtilt og med klangbunn i en større kontekst, byr det også på større, tekniske utfordringer å korrekt avdekke dette som hatefulle ytringer. Det er derfor det er så viktig at det de siste årene har skjedd store fremskritt i den kunstige intelligensens evne til dypere forståelse av dette innholdet.

Som den siste delen av vår Community Standards Enforcement Report viser, avdekket AI 96,8% av de 25,2 millioner hatefulle ytringene som vi fjernet i løpet av første kvartal 2021. I samme periode reduserte vi også forekomsten av hatefulle ytringer til bare 6 av hver 10.000 innholdsvisning på Facebook. Dette måltallet er av særlig betydning for annonsører som ønsker å forstå den potensielle risikoen for at en annonse vises ved siden av innhold som bryter mot våre standarder.

Kunstig intelligens hjelper oss med å skalere opp gjennomgangen av innholdet ved å automatisere enkelte avgjørelser. På denne måten bidrar systemet til å prioritere hvilke saker som er så komplekse at de bør gjennomgås og vurderes av mennesker. Prosessen skåner samtidig våre ansatte fra å måtte se noe av det mest problematiske innholdet med sine egne øyne.

Identifiserer feilinformasjon

Når modellene våre forutsier at et innlegg sannsynligvis inneholder misledende eller feilaktig informasjon, eskaleres det til eksterne faktasjekkere for gjennomgang. Hvis de vurderer innholdet som feilaktig, merker vi innlegget med en advarende etikett og setter det i kontekst. Disse virkemidlene har vist seg svært effektive. Vår interne undersøkelse har vist at når folk blir forevist etiketter som advarte dem om at innholdet var vurdert som galt eller feilaktig, lot de være å se innholdet 95% av gangene.

Hvert innlegg med feilinformasjon som vi finner, kan kopieres og deles tusenvis av ganger av brukerne. Kunstig intelligens benyttes nå til å oppdage disse nærmest nøyaktige duplikatene og merke hver kopi med en etikett, noe som gjør en forskjell i kampen mot feilinformasjon.

Når nye utfordringer oppstår, utnytter vi kunstig intelligens kontinuerlig for å bidra til å håndheve våre retningslinjer. For eksempel har vi på global basis siden pandemien begynte fjernet mer enn 16 millioner innlegg på Facebook og Instagram som inneholdt informasjon om COVID-19 eller vaksiner som har vært tilbakevist av helseeksperter.

Klar for morgendagens største utfordringer

Hatefulle «memes» og «deepfakes» – medier der en video eller et bilde er digitalt manipulert for å få det til å fremstå som en annen – er to av de største utfordringene vi for tiden trener opp AI-modeller til å bekjempe.

Fremstilling av memes innebærer å sette tekst og bilder sammen på en måte som ofte er nyansert eller ironisk. Innholdet i et bilde eller en tekst på en meme er kanskje ikke støtende når de sees hver for seg, men i noen tilfeller blir resultatet ondsinnet når de settes i kombinasjon med hverandre. Systemene våre blir stadig bedre til å evaluere bilder og tekst i sammenheng, og blir stadig bedre til å forstå sammenhenger og til å fjerne hatefulle memes.

Samlet sett støtter hele kompetansemiljøet rundt kunstig intelligens proaktivt opp om kunnskapsdeling, og miljøet arbeider sammen for å skape bedre internettopplevelser. Våre nylige kampanjer Hateful Meme Challenge og Deepfake Detection Challenge ble etablert for å skaffe nye og åpne deteksjonsmodeller som kan komme alle til gode. Gjennom å dedikere ressurser til åpen og reproduserbar vitenskap, holder forskere innen kunstig intelligens hverandre ansvarlige – samtidig som gjør ny teknologi enklere tilgjengelig.

Kunstig intelligens gir stadig bedre nettopplevelser

Mitt team har som mål å bygge tilgjengelige løsninger som gjør det praktisk mulig å håndtere skadelig innhold på en balansert måte. Det er vår hensikt at plattformene våre skal være åpne for at folk skal få uttrykke det de har på hjertet, men uten å skade andre. Og vi ønsker at næringslivet skal kunne delta i samtalen uten å assosieres med skadelig eller villedende innhold.

Vårt viktigste mål er å tilby en tryggest mulig plattform for kommunikasjon. Kunstig intelligens er ikke det eneste svaret på problematisk innhold, men det er ett av flere verktøy som gjør det mulig for oss å skalere og tilpasse oss raskere og mer effektivt enn hva som ville vært mulig med en menneskelig arbeidsstyrke alene. Vi vet at det fortsatt gjenstår mer arbeid å gjøre, og vi er sterkt engasjert i kampen for å få det til.

Hvis du ønsker å lære mer om våre open source-verktøy og forskningen vi gjør, oppfordrer vi deg til å se nærmere på denne informasjonen på internett!