Koronakrisen lærer oss mye. Ikke minst har vi lært hvordan teknologi kan brukes til å gjøre hverdagen vår enklere i en vanskelig tid. Vi handler matvarer på nett, møter kolleger på video og ser på Netflix for å få tiden til å gå mens vi sitter hjemme. Mye av teknologien vi benytter oss av har vært mulig og tilgjengelig takket være kunstig intelligens (KI) - eller AI (Artificial Intelligence) som mange omtaler det som.
Som Kampanje skrev tidligere i november øker vi nå vår forskningsinnsats innen AI i Norge. Vi benytter oss også, i økende grad, av AI-teknologi innenfor våre forretningsområder der bruken spenner fra å minimere vår miljøpåvirkningen til å lage smarte redaksjonsverktøy.
Vi er stolte av å kunne bidra til å gjøre folks liv enklere, tryggere og rikere gjennom teknologien vi utvikler - deriblant innenfor AI. Samtidig ser vi at det å utvikle teknologi som vil være en stor del av folks liv, som kunstig intelligens, kommer med et stort samfunnsansvar.
- Hvordan sørger vi for at vi bruker AI-teknologi på en ansvarlig måte?
Et grunnleggende spørsmål for oss er: Hvordan sørger vi for at vi bruker AI-teknologi på en ansvarlig måte? Vi ser at vi trenger en bedre forståelse av de potensielle risikoene vi står overfor for å bedre kunne systematisere arbeidet vårt.
For å øke vår egen kunnskap om konsekvensene av det vi gjør, har vi studert faglige rapporter om potensielle etiske implikasjoner knyttet til AI-bruk i digitale medier og forbrukerrettede varemerker. I tillegg har vi gjennomført interne studier der vi har testet og diskutert funnene sammen med Schibsted-ansatte. Her fokuserte vi på sporbarhet og tolkbarhet, pålitelighet, tilpasning og marginalisering, da vi mener at det er risiko knyttet til disse temaene som i ulik grad kan påvirke samfunnet negativt. Spesielt hvis de som utvikler tjenestene ikke er klar over dem. Vi deler noen tanker rundt disse temaene i min nylig lanserte blogpost her.
Vi trenger mange ulike typer kompetanse for på en helhetlig måte å kunne tilnærme oss potensielle risikoer. Det er ikke alltid at disse er representert i egen organisasjon, og det er derfor viktig for oss med en åpen dialog med eksterne parter. Mange snakker i dag i store trekk om risikoen forbundet med AI, men få gir konkrete eksempler. Jeg mener dette må endres.
Ingen vil lage teknologi som kan påvirke samfunnet på en negativ måte. Samtidig er det en risiko når man utvikler teknologi som er så omfattende som mye knyttet til AI er, og når man ikke ser hva slags påvirkning teknologien kan ha på samfunnet som helhet.
Når man utvikler teknologi som potensielt kan endre verden har man et ansvar for ikke bare å sette den ene foten foran den andre, men også for å tegne opp hvilken sti man vil følge.
Kommentér