Meta tapte to rettssaker om barns sikkerhet – intern forskning ble selskapets største belastning

6 min lesing

For over ti år siden hentet Meta, den gang kjent som Facebook, inn samfunnsforskere for å analysere hvordan selskapets tjenester påvirket brukerne. Målet var å vise at bransjen tok både gevinster og risiko på alvor.

Men denne ukens nederlag i retten illustrerer at slik forskning også kan bli en belastning. Brian Boland, en tidligere Facebook-leder som vitnet i to saker – én i New Mexico og én i Los Angeles – mener de mest belastende funnene fra interne undersøkelser og dokumenter sto i kontrast til hvordan selskapet fremstilte seg offentlig. I begge sakene konkluderte juryene med at Meta i for liten grad overvåket plattformene sine, og at barn dermed ble utsatt for skade.

Meta strammet inn på forskningsmiljøene sine for noen år siden, etter at Frances Haugen sto fram som varsler. I etterkant har en ny generasjon teknologiselskaper, som OpenAI og Anthropic, investert tungt i forskere som skal undersøke hvordan moderne kunstig intelligens påvirker brukere – og publisere funnene.

Samtidig får AI stadig mer oppmerksomhet for negative konsekvenser hos enkelte brukere. Det reiser et ubehagelig spørsmål for selskapene: Er det i deres interesse å fortsette å finansiere forskning som kan brukes mot dem, eller vil presset øke for å dempe eller stoppe slike undersøkelser?

– Det var en periode der interne team ble etablert for å se nærmere på problemstillinger, og i et kort tidsvindu hadde man fremragende forskere som kunne jobbe friere enn det jeg forstår de kan i dag, sa Boland i et intervju.

Til tross for at de to rettssakene handlet om ulike forhold, hadde de et fellestrekk: Meta delte ikke i tilstrekkelig grad det selskapet visste om skadevirkninger, med offentligheten.

Millioner av dokumenter og ubehagelige funn

Juryene måtte gå gjennom store mengder materiale, blant annet leder-e-poster, presentasjoner og intern forskning. Dokumentene omfattet interne undersøkelser som antydet at en bekymringsfull andel tenåringer mottok uønskede seksuelle tilnærmelser på Instagram. Det ble også vist til forskning Meta senere stanset, som pekte på at personer som reduserte bruken av Facebook, kunne bli mindre deprimerte og mindre engstelige.

Saksøkernes advokater baserte seg ikke utelukkende på intern forskning, men studiene styrket argumentene deres om Metas ansvar. Forsvarerne hevdet på sin side at enkelte studier var gamle, tatt ut av sammenheng og ga et misvisende bilde av hvordan selskapet jobber og tenker rundt sikkerhet.

– Begge sider ble hørt

– Juryen fikk høre begge sider av saken og en svært rettferdig gjennomgang av fakta, og kunne ta en beslutning basert på det de så, sa Boland. – Og begge juryene, i to svært forskjellige saker, kom tilbake med tydelige avgjørelser.

Meta og Google-eide YouTube, som også var saksøkt i Los Angeles-saken, har opplyst at de vil anke.

Psykolog og advokat Lisa Strohman, som jobbet som intern ekspertkonsulent i saken i New Mexico, sier ledere i Meta og i teknologibransjen kan ha trodd intern forskning ville gi dem tillit i offentligheten.

– Jeg tror de ikke forsto at forskere også er foreldre og familiemedlemmer. Og jeg tror de ikke skjønte at disse menneskene ikke lot seg kjøpe, sa Strohman.

Ifølge Strohman slo strategien tilbake da forskningen begynte å komme ut. For Meta ble det mest skadelige vendepunktet i 2021, da Haugen lekket en stor mengde dokumenter som tydet på at selskapet kjente til mulige skadevirkninger av produktene sine.

Varsling, kutt og mindre innsyn

Kate Blocker, forsknings- og programdirektør i ideelle organisasjonen Children and Screens: Institute of Digital Media and Child Development, sier lekkasjene var et tydelig vendepunkt.

– Avsløringene var et betydelig vendepunkt globalt – ikke bare for selskapene selv, men for forskere, politikere og offentligheten, sier Blocker.

Lekkene bidro også til endringer i bransjen. Flere selskaper reduserte forskning som kunne oppfattes som ufordelaktig, og team som jobbet med etikk, skadevirkninger og sikkerhet ble i mange tilfeller kuttet. Enkelte aktører fjernet også verktøy og funksjoner som eksterne forskere brukte for å studere plattformene.

– Selskaper kan nå se på løpende forskning som en risiko, men uavhengig, tredjeparts forskning må fortsatt støttes, sier Blocker.

Sacha Haworth, leder for Tech Oversight Project, mener mye av materialet som ble brukt i rettssakene, ikke var helt nytt, og at mange dokumenter tidligere var gjort kjent gjennom andre varslere. Det rettssakene likevel tilfører, sier hun, er detaljene som setter alt i sammenheng: e-postene, formuleringene, skjermbildene, interne markedsføringspresentasjoner og notater.

AI-presset øker

Når teknologibransjen nå går hardt inn i kunstig intelligens, mener flere at selskaper som Meta, OpenAI og Google i økende grad prioriterer produktutvikling framfor forskning og sikkerhet. Blocker sier det skaper bekymring, fordi offentligheten har begrenset innsyn i hva AI-selskaper faktisk undersøker om egne produkter.

Hun peker på at mye forskning ser ut til å dreie seg om selve modellene – hvordan de oppfører seg, hvordan de kan forklares, og hvordan de kan tilpasses ønskede mål – mens kunnskapshullene er store når det gjelder konsekvensene av chatboter og digitale assistenter for barns utvikling.

– AI-selskaper har en mulighet til å ikke gjenta fortidens feil. Vi må raskt etablere systemer for åpenhet og tilgang, slik at det som selskapene vet om plattformene sine, deles med offentligheten og kan vurderes uavhengig, sier Blocker.

Del denne artikkelen
Journalist
Jeg er teknologijournalist med interesse for innovasjon, digitale trender og fremtidens løsninger. Jeg dekker alt fra kunstig intelligens og oppstartsbedrifter til forbrukerteknologi, og forklarer hvordan teknologi påvirker samfunnet og hverdagen vår.
Ingen kommentarer

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *