5 Plattformenes rolle
5.1 Innledning
Det er liten tvil om at den teknologiske utviklingen de siste årene har gått raskt, og tempoet skrus stadig opp. Vi skal ikke gå gjennom den historiske digitale utviklingen i detalj i denne utredningen, men noen årstall kan være verdt å merke seg: I 2007 ble iPhone lansert, og året etter kom den til Norge. I 2006 ble Facebook lansert internasjonalt, og snart ble plattformen det første store sosiale mediet slik vi kjenner dem i dag. Det er altså under 20 år siden sosiale medier og smarttelefoner ble allemannseie. I løpet av denne perioden har det skjedd en enorm teknologisk utvikling som har påvirket måten vi lever på, og som påvirker barn og unges oppvekst.
De aller fleste norske barn og unge har sin egen mobiltelefon allerede når de er mellom ni og elleve år gamle.1 Minst ni av ti tolvåringer bruker sosiale medier daglig, og omtrent sju av ti gutter spiller dataspill daglig. Både i undersøkelser2 og i skjermbrukutvalgets samtaler med barn og unge kommer det tydelig frem at mange ungdommer opplever at de bruker mer tid på skjermen enn de ønsker. Så hva er det som gjør mobilen og andre skjermer så vanskelige å legge fra seg? For å forstå det er det nødvendig å først forstå de økonomiske drivkreftene bak plattformene som tilbyr sosiale digitale tjenester som barn og unge bruker, og mekanismene i tjenestene. I dette kapittelet går vi også inn på hvordan dataspill, sosiale medier og annet medieinnhold reguleres, og hva selskapene som tilbyr slike tjenester gjør selv for å lage tryggere tjenester for barn og unge.
5.2 Økonomiske drivkrefter
De fleste sosiale medier er gratis å bruke. Men når tjenesten er gratis, er det «du som er varen». Sosiale medier og andre digitale tjenester er drevet av det som ofte kalles oppmerksomhetsøkonomi. Det betyr at de designes for å holde mest mulig på brukernes tid og oppmerksomhet.3 Bruken genererer data, som plattformene kan bruke til å forutsi hva du kan komme til å gjøre og kjøpe, og de kan tjene penger på å la annonsører drive målrettet reklame. Jo mer tid som en person bruker på plattformen, desto flere annonser kan plattformen vise brukeren, og desto mer informasjon om seg selv legger personen igjen.
Spill skal være underholdende og medrivende, og mange dataspill er i tillegg designet med belønningssystemer for å holde spillerne engasjerte.4 Historisk sett har spillselskapenes inntekter kommet fra salg av dataspill, men med årene har forretningsmodellen utviklet seg. Selv om mange spill fortsatt gir selskapene inntekter på «gamlemåten», har salg av ekstra innhold inne i de enkelte spillene, for eksempel lootbokser (se beskrivelse i avsnitt 5.5.2), også blitt en av de største inntektskildene for dataspillselskapene.5 TikTok har også nylig lansert en versjon med belønningssystemer for interaksjon i appen – TikTok Lite. Foreløpig er tjenesten trukket fra det europeiske markedet på grunn av at EU-kommisjonen uttrykte bekymring om avhengighetsskapende mekanismer.6
Organisasjoner som Amnesty International mener forretningsmodellen til selskaper som Google og Meta truer menneskerettigheter som retten til privatliv og ytringsfrihet.7 Enkelte mener at oppmerksomhetsøkonomien er del av en ny form for kapitalisme: overvåkningskapitalismen.8 I denne formen for kapitalisme er menneskets tilværelse et råmateriale som benyttes av kommersielle aktører for å hente inn og selge informasjon til målrettet markedsføring. Utviklingen går i retning av at disse selskapene nå ikke bare kjenner atferden vår, men også former den. Fordi selskapene vet så mye om oss og vi så lite om hva de vet, kan selskapene uforstyrret forutsi og dermed manipulere og påvirke vår atferd. Dette truer både demokratiet og menneskenes frie vilje.
Kritikere av teorien om overvåkningskapitalismen mener at den overdriver hvor ny og annerledes denne formen for kapitalisme er, og at den overvurderer hvor lett det er å manipulere brukerne.9 Selv om brukere tilbringer mye tid på plattformene, får de fleste også mange andre impulser og et mangfold av informasjon, noe som har blitt brukt til å moderere teorier om «ekkokamrenes påvirkningskraft».10 Det er imidlertid liten tvil om at plattformselskapenes forretningsmodell ikke primært er drevet av hensynet til barns beste, og at de økonomiske drivkreftene bak plattformene påvirker design og mekanismer som igjen betyr noe for hvordan plattformene brukes.
5.3 Manipulerende design
Uavhengig av om det er en enhet som en mobiltelefon, en nettside, et dataspill eller en sosial medieplattform kan teknologiens grensesnitt, egenskaper og designvalg påvirke hvordan og hvor mye man bruker digital teknologi. I dette delkapittelet går vi gjennom noen av disse mekanismene, som ofte beskrives som former for overtalende eller manipulerende design.
Personvernkommisjonen beskriver manipulerende design som et samlebegrep om brukerdesign og -grensesnitt som er laget for å lede forbrukerne til å ta valg som er i tjenesteleverandørens interesse, ofte på bekostning av forbrukerens egne interesser.11 Hensikten bak manipulerende design er å få forbrukeren til å legge igjen mer tid, penger og persondata. I dataspill kalles slike design gjerne dark game design patterns.12 Forbrukerrådets rapport om hvordan spillindustrien utnytter forbrukerne gjennom såkalte lootbokser, peker på en rekke forhold som gjør lootbokser særlig problematiske, inkludert hvordan lootboksene gjøres tilgjengelige og utformes, pågående og skjult markedsføring, mangelfull og villedende informasjon om vinnersannsynligheter, skjulte kostnader, ubalanserte valg og effektive algoritmer.13
Sosiale medier og smarttelefoner bruker også en rekke mekanismer og designvalg som kan påvirke hvordan vi bruker dem, og hvor mye tid vi bruker. Center for Humane Technology beskriver flere designvalg i sosiale medier og på smarttelefoner som er gjort for at vi skal sjekke mobilen oftere og tilbringe mer tid på den.14 For eksempel kan varslinger eller røde merker med antall uleste notifikasjoner være egnet til å stresse oss og få oss til å sjekke telefonen og reagere.15
Boks 5.1 Innspill til utvalget fra barn og unge om skjerm og teknologien bak
De fleste barn og unge som utvalget har snakket med ønsker å bruke appene til det de ser på som deres hovedfunksjon: kommunikasjon med andre og underholdning. De ønsker å beholde de gode sidene ved teknologien, og begrense de dårlige.
Skjermbrukutvalgets ekspertgruppe av ungdom ser flere utfordringer ved situasjonen slik den er i dag. De opplever at det er vanskelig å vite hva som er sant på nett og at plattformene utnytter at vi lett blir fristet. Andre hovedutfordringer som de trekker frem, er at det er for lite variasjon i innholdet de ser, og at de konsumerer mer enn de skaper. De opplever at algoritmene er med på å begrense informasjonen de får inn, selv om internett i utgangspunktet skal kunne gi tilgang på all informasjon.
De fleste barn og unge som utvalget har snakket med forteller at de bruker mer tid på skjerm enn de ønsker. Barn og unge i alle aldersgrupper trekker frem spesielt TikTok og skrolling på uendelig algoritmestyrt innhold. De opplever at de ikke får så mye ut av det, men at det er vanskelig å legge det fra seg.
«Tror det handler om at apper er designet for å holde oss der – vanskelig å slutte når det kommer nytt innhold kontinuerlig» (gutt, vg2)
5.4 Sosiale medier
I dag er det særlig sosiale medier som blir beskyldt for å gjøre barn og unge avhengige, og å skade barn og unges psykiske helse. Men hva er et sosialt medium? Da Facebook ble lansert hadde plattformen for eksempel helt andre egenskaper enn det den har i dag, og Facebook i dag skiller seg også fra andre sosiale medier som YouTube, Discord og TikTok. Leksikondefinisjonen av sosiale medier er «nettsider og apper som tilrettelegger for å skape og dele innhold, og å delta i sosiale nettverk».16 Dette er en vid definisjon, og slike nettsider og apper kan være designet på ulike måter, som igjen kan ha stor betydning for hvordan de brukes, oppleves og påvirker barn og unge.
Da utvalget møtte representanter fra selskapene bak noen av de største sosiale mediene som brukes av norske barn og unge i januar 2024, var det påfallende at flere av selskapene ønsket å understreke at deres tjenester ikke var å regne som sosiale medier. TikTok omtalte seg for eksempel som en underholdningsplattform, og Snapchat ville i stedet være en visuell kommunikasjonsapp. Det kan tyde på at sosiale medier har begynt å få et litt frynsete rykte. Man skal heller ikke se bort fra at eventuelle nye lovbestemmelser om høyere aldersgrenser for sosiale medier kan påvirke hvordan tjenestene profilerer seg. Men det er også reelle forskjeller mellom de ulike tjenestene vi tenker på når vi diskuterer sosiale medier. Det kan også være vanskelig å skille hva som er et sosialt medium og ikke, ettersom de fleste digitale medier som dataspill, nettaviser og ulike tjenester på nett inneholder sosiale elementer som chatfunksjoner og diskusjonsforum og ofte gir brukerne mulighet til å påvirke innholdet eller legge ut eget innhold.
Når man snakker om sosiale medier, er det som oftest de store plattformselskapenes tjenester som nevnes. Fire plattformer står i en særstilling blant norske 9–18-åringer: YouTube (Google), Snapchat (Snap Inc.), Instagram (Meta) og Tiktok (Bytedance).17 Derfor er det disse sosiale mediene vi nevner spesifikt i dette kapittelet. Alle disse fire plattformene er apper som tilrettelegger for å skape og dele innhold og for å delta i sosiale nettverk. Men de skiller seg også fra hverandre på mange måter.
Snapchat er bygget opp rundt en chattetjeneste for å kommunisere med dem man selv legger til, ofte personer man kjenner fra før. Innholdet man deler i Snapchat, forsvinner enten med en gang man har sett det, eller ligger ute i maksimalt et døgn, og det er i mindre grad lagt opp til respons fra andre i form av likerklikk, slik som i Instagram, som er en tjeneste for deling av bilder og videoer til kjente og ukjente. TikTok er i større grad basert på interesser og algoritmestyring enn hvem man kjenner, og har spesialisert seg på deling av korte videoer. YouTube har tradisjonelt vært mer basert på lengre videoer.
Samtidig blir plattformene stadig likere fordi de kopierer hverandres populære formater. Etter den enorme populariteten til TikTok har både YouTube og Instagram innlemmet lignende videotjenester som TikTok, gjennom YouTube Shorts og Instagram Reels. Snapchat har også tatt inn mer innhold fra profesjonelle innholdsprodusenter på sin «Utforsk»-side, og appen promoterer nå også kontoer fra personer man ikke kjenner.
Det er ulike mekanismer i de sosiale mediene som kan gjøre at man bruker mer tid på dem enn man ønsker. I det følgende går vi gjennom noen av de mest fremtredende.
5.4.1 Evig skrolling og autoavspilling
Da sosiale medier som Instagram ble lansert, var innholdsstrømmen ordnet kronologisk, og man fikk bare opp innhold som var delt av de brukerne man valgte å følge. Men i dag er de fleste sosiale medier satt opp på en annen måte, blant annet med mekanismer som infinite scroll (evig skrolling) og autoplay (autoavspilling). Det innebærer at nytt innhold kontinuerlig lastes inn slik at man aldri når slutten av strømmen av innhold i sosiale medier, og at videoene starter av seg selv. Slike mekanismer kan være en årsak til at mange bruker mer tid på plattformene enn det de hadde tenkt eller ønsker.
5.4.2 Algoritmer, kaninhull og skadelig innhold
Plattformene bruker algoritmer og maskinlæring for å velge ut hvilket innhold som skal presenteres for brukerne.18 En algoritme er enkelt sagt en nøyaktig oppskrift på hvordan en oppgave kan løses trinn for trinn. Maskinlæring er en spesialisering innenfor kunstig intelligens der datamaskiner bruker statistiske metoder for å finne mønstre i store datamengder.19 Algoritmene i sosiale medier kan beskytte unge brukere ved å tilpasse innholdet bedre, og det kan gjøre innholdet relevant og interessant for brukerne. Men det kan også være negative sider ved algoritmer som leder til at man får veldig mye innhold om ett tema som man har vist interesse for. Et mye brukt eksempel er at en ungdom som viser interesse for treningsinnhold, kan bli ledet videre til mer ekstremt innhold som for eksempel promoterer spiseforstyrrelser. Dette omtales ofte som kaninhull, der man raskt kan komme ned i mer ekstremt, og potensielt skadelig, materiale. Algoritmene kan også styre hvem og hvilke grupper man kommer i kontakt med, noe som også kan utsette barna eller ungdommene for risiko.
Amnesty Internationals rapport om TikTok beskriver hvordan unge på plattformen kan bli utsatt for store mengder innhold om psykisk uhelse dersom de viser interesse for innhold om mental helse:
With each hour spent on TikTok’s ‘For You’ feed, more of the video clips «recommended» to the teenage account show children and young people crying, or alone in the dark overlaid with text expressing depressive thoughts or faceless voices describing their suffering, self-harm and suicidal thoughts.20
Det er verdt å nevne her at sosiale medier også har skapt et marked for en ny type markedsføring gjennom «influensere» eller «påvirkere». Disse har egne kanaler i sosiale medier der personlige innlegg ofte blandes med kommersielle innlegg. Mange barn og unge følger influensere som promoterer produkter og tjenester rettet mot kropp og utseende, og selv om reklameinnhold skal merkes, kan det være krevende å forstå hva som er hva. Utvalget går nærmere inn på sosiale medier, kroppspress og influenseres rolle i kapittel 7 om skjermen som sosial arena.
En annen bekymring rundt anbefalingsalgoritmer er at det dannes såkalte ekkokamre i sosiale medier som kan bidra til å polarisere det offentlige ordskiftet. Frykten er at algoritmene bidrar til at man i liten grad blir eksponert for andre syn enn de man har selv. Ytringsfrihetskommisjonen har gått igjennom forskning på ekkokammereffekten og viser til at empiriske studier nyanserer bildet av informasjonsutvalget som presenteres i sosiale medier, og hvordan dette eventuelt påvirker folks holdninger:
En forskningsgjennomgang som oppsummerte kunnskapsstatus i 2020, konkluderte slik: Selv om de fleste samtaler på sosiale medier skjer mellom folk som mener det samme, er interaksjoner på tvers av meninger mer vanlig enn mange tror, eksponeringen for nyheter med ulikt budskap er høyere enn for andre typer medier og anbefalingsalgoritmene har ikke stor påvirkning på den ideologiske balansen i nyhetskonsumet.21
Kommisjonen konkluderer med at informasjonstilfanget og mulighetene for meningsutveksling for de aller fleste er langt større med nettet og sosiale medier enn de var tidligere.
Medietilsynets undersøkelser om barn og medier gir innsikt i hvordan norske barn og unge eksponeres for innhold som kan virke skadelig.22 Undersøkelsen fra 2022 viser blant annet at litt over halvparten av 13 til 18-åringene har sett skremmende eller voldelige bilder eller filmer én eller flere ganger siste tolv måneder. I løpet av det siste året har 40 prosent av 13 til 18-åringene sett innhold på nett om hvordan man kan bli svært tynn. Tre av ti 13 til 18-åringer har sett innhold på nett som handler om å planlegge slåssing eller slåsskamper. Det siste året har til sammen 24 prosent av 13 til 18-åringene sett innhold på nett om måter å skade seg selv fysisk på.
Hvilket medieinnhold som reelt påfører barn og unge skade er et komplekst tema, og har ikke vært et hovedanliggende for skjermbrukutvalget. Medieskadelighetsutvalget, som leverte sin NOU i 2021, har beskrevet og vurdert barns eksponering (tilgang og bruk) for skadelig innhold på elektroniske medieplattformer.23 Et hovedbudskap fra medieskadelighetsutvalget er at det ikke lenger gir mening å skille mellom medieinnhold og mediebruk. Dagens medier brukes på ulike måter, og barn og unge er ikke i dag bare passive mottakere som eksponeres for medieinnhold – de er også produsenter og deltakere.
5.5 Dataspill
Dataspill rommer veldig mye forskjellig – alt fra online spill med åpne verdener du utforsker alene eller der du konkurrerer med andre spillere i sanntid, til enkle mobilspill som minner om klassisk Tetris.24 I aldersgruppen 9 til 18 år er det nå klart flest som spiller Fortnite, Roblox og Minecraft, og derfor er det disse spillene vi spesifikt nevner i dette delkapittelet.25 Dette er spill som er populære i hele aldersgruppen, men som brukes mest av de yngste. Når barna er yngre, er det mindre variasjon i hva de spiller, og hvilke spillplattformer de bruker, men når barna blir eldre, er det større spredning og færre som oppgir de samme spillene.
Fortnite er et overlevelses-, bygge- og skytespill på nett.26 Man kan spille med venner og bekjente eller med andre brukere som er pålogget samtidig. Fortnite har også utviklet seg til å bli en spillplattform der man kan laste ned og publisere ulike spill, tilsvarende Roblox. I Fortnite og Roblox finner man bilspill, labyrinter, skrekkspill, rollespill og mye mer.27 Spillene er rettet mot barn og unge i alle aldre. I spillene er det også sosiale elementer og man kan chatte (stemme og tekst) med andre brukere, og skillene mellom «sosiale» medier og «spillmedier» kan være uklare.
Minecraft er et byggespill der man kan lage ting med kvadratiske klosser som har ulike farger og funksjon.28 Man kan spille Minecraft på ulike måter: I kreativ modus er målet å bygge og lage ting. I overlevelsesdelen kan spillfiguren ta skade av omgivelsene, og byggematerialer og ressurser må sankes inn før man kan bruke dem. I tillegg har Minecraft tilgang til offentlige servere. Her kan man møte på og chatte med spillere fra hele verden. Minecraft inneholder også en rekke minispill, for eksempel der man skal kjempe mot andre for å overleve. Det finnes også en egen skoleversjon av spillet. Minecraft er også et sosialt spill der man kan invitere venner inn i spillet dersom de er lagt til som kontakter.
5.5.1 Free to play, pay to win
Spillplattformer som Fortnite og Roblox er gratis å spille, men innebærer mange muligheter for kjøp inne i spillene. Dette kalles ofte en «freemium»-løsning. Noen spill baserer seg også på det som noen ganger kalles «free to play, pay to win», og innebærer at du kan spille gratis, men at du må eller kan betale for å få progresjon i spillet. Modellen øker sannsynligheten for at spillerne investerer tid og holder seg lojal mot spillet.29 Slike modeller kritiseres for å være både økonomisk uetiske og manipulative, spesielt hvis de er rettet mot barn og unge. Mange barn og unge handler i spill, og så mange som 63 prosent av 9–18-åringer har kjøpt noe med ekte penger i spill, enten selv eller ved at foreldrene har kjøpt noe for dem.30 Noen plattformer, som Roblox, tilbyr også månedlige abonnement. Varianter av autoavspilling er også vanlig i dataspill, og et nytt spill starter ofte med en gang, slik at man bruker mer tid i spillet.
I tillegg til disse spillene er mobilspill populære. I Medietilsynets Barn og medier-undersøkelse fra 2024 regnes 20 prosent av 9 til 18-åringene som storbrukere av mobilspill.31 Storbrukere er dem som bruker mer enn tre timer på mobilen på en enkeltaktivitet hver dag. Mobilspill har ofte sterke innslag av «pay to win»-mekanismer og belønningssystemer som skal holde brukeren på telefonen.
5.5.2 Lootbokser og kjøp i spill
I Medietilsynets undersøkelse om barn og medier er barna spurt om pengebruk i spill. Andelen av 9–18-åringene som har kjøpt noe med ekte penger i spill, har økt fra 58 prosent i 2022 til 63 prosent i underøklsen fra 2022.32 13 prosent svarer at de bruker for mye penger på spilling.
Store deler av inntektene i dataspillmarkedet genereres av mikrotransaksjoner i spillene.33 Mikrotransaksjoner består av at spillere skaffer seg gjenstander som kan brukes i spillet, eller for å låse opp innhold, for eksempel nye karakterer eller neste nivå i spillet, ved å betale for dem direkte med penger eller ved å kjøpe virtuell valuta.34 Slike mikrotransaksjoner i spill har fått oppmerksomhet fordi de kan ligne på gambling, og flere er bekymret for at mikrotransaksjonene kan føre til problematisk spilling og avhengighet, fordi det benyttes kjente mekanismer fra pengespill.35 Eksempler er lootbokser, lykkehjul og spilleautomater i spillene.36Lootbokser kan kjøpes for ekte penger eller vinnes i spillet. Innholdet er ukjent frem til man åpner boksen, men innholdet gir ofte spilleren fordeler videre i spillet eller gir spilleren gjenstander som fungerer som kosmetisk tilbehør til spillfiguren, såkalte skins. Skins kan også brukes som valuta på enkelte gamblingsider.37 Forbrukerrådets rapport om lootbokser fra 2022 peker på at spillselskaper benytter problematiske strategier for å markedsføre lootbokser til barn.38 Så langt er det forsket lite på effektene, men en kunnskapsgjennomgang har vist en sammenheng mellom kjøp av lootbokser i dataspill (med penger eller opptjente virtuelle penger) og grad av gamblingproblemer.39
Mange spill bruker også egne valutaer som man må kjøpe med ekte penger. Det kan gjøre at spillerne mister kontroll over pengebruken fordi den reelle prisen for det du kjøper, blir uklar. Selskapene kan også selv forandre prisen og verdien når som helst, og bruker slike valutaer til å manipulere spillerne til å bruke mest mulig penger, ifølge en rapport fra Forbrukerrådet.40 Derfor har Forbrukerrådet gått sammen med andre europeiske forbrukerorganisasjoner og klaget inn en rekke spillselskaper til europeiske forbrukermyndigheter.
5.6 Regulering av plattformene og medieinnhold
Fremveksten av globale plattformer og sosiale medier har skapt nye arenaer der barn og unge blir eksponert for innhold som kan være skadelig. De nye arenaene utfordrer også reguleringen på området.41 I dette delkapittelet går vi gjennom noe av reguleringen av plattformer og medieinnhold som allerede finnes, eller som er på trappene.
Bildeprogramloven regulerer innholdet i kinofilm, TV og audiovisuelle bestillingstjenester (inkludert norske strømmetjenester).42 Etter loven skal enhver som tilgjengeliggjør bildeprogram, iverksette egnede tiltak for å beskytte mindreårige mot skadelig og alvorlig skadelig innhold. Loven slår fast at bildeprogram med alvorlig skadelig innhold skal ha 18-årsgrense. Mye av innholdet på internett, for eksempel i sosiale medier, er ikke omfattet av bildeprogramloven.
I det reviderte EU-direktivet om audiovisuelle medietjenester (AMT-direktivet) ble «videodelingsplattformer» omfattet av direktivet. Det inkluderer plattformer som YouTube og TikTok. Det innebærer blant annet krav om å sørge for systemer for tilgangskontroll, styrt av sluttbrukeren, med hensyn til innhold som kan skade mindreåriges fysiske, mentale eller moralske utvikling.43 I tråd med direktivet er det aktuelt å blant annet opprette og drifte systemer for alderskontroll og sørge for å ha foreldrekontrollmekanismer. I norsk rett skal direktivet gjennomføres blant annet ved å lovfeste en plikt for tilbydere av videodelingsplattformer til å treffe hensiktsmessige tiltak for å beskytte mindreårige mot skadelig og alvorlig skadelig innhold i kringkastingsloven. De fleste plattformselskapene er etablert i andre land, og norske myndigheter har derfor ikke jurisdiksjon.
For øvrig er det i stor grad plattformene selv som regulerer i sine egne brukervilkår hvilket innhold som skal tolereres på plattformene. Det har lenge vært et juridisk tomrom når det gjelder regulering av innhold på plattformene.44 I EU har tomrommet blitt fylt med innføringen av forordningen om digitale tjenester (DSA). Den trådte i kraft november 2022. DSA vil gjelde for Norge når regelverket innlemmes i EØS-avtalen, men er fortsatt til vurdering i EØS EFTA-landene. Pliktene i DSA er differensiert etter type tjeneste og plattformenes størrelse. Her er noen av de mest relevante kravene etter DSA:45
-
Alle tjenester som er rettet mot barn eller primært brukes av barn, bør ha avtalevilkår som er lette å forstå for mindreårige.
-
Plattformer som barn har tilgang til bør innføre tiltak for å sikre barns personvern, trygghet og sikkerhet når de bruker tjenesten, for eksempel ved at det høyeste nivået av personvern, trygghet og sikkerhet settes som standard for mindreårige brukere.
-
Plattformer skal ikke vise annonser som er basert på profilering, jf. artikkel 4.4 i personvernforordningen (GDPR) når de er rimelig klar over at brukeren er mindreårig. Dette skal ikke forplikte tilbydere til å behandle mer personopplysninger for å vurdere brukerens alder.
-
De aller største plattformene og søkemotorene, med mer enn 45 millioner månedlige brukere, må hvert år vurdere potensielle risikoer ved tjenesten deres og vise at de reduserer risikoen på en effektiv og proporsjonal måte. Hvis ikke kan de risikere bøter opp mot 6 prosent av deres årlige omsetning.
-
Forbud mot manipulerende design. Det betyr at tilbyderne ikke har lov til å manipulere brukerne til å gjøre valg i strid med egne interesser.
-
De største plattformene må dele data med myndigheter og forskere.
-
Alle plattformer skal ha systemer for at brukerne kan varsle om innhold som er ulovlig eller bryter med avtalevilkårene.
-
Nasjonale myndigheter kan pålegge plattformene å fjerne ulovlig innhold.
-
Brukerne har rett til å klage hvis plattformen fjerner innhold eller en konto, og få klagen behandlet av en uavhengig klageinstans.
EU-kommisjonen arbeider også med retningslinjer for beskyttelse av mindreårige på nett, som gir plattformene råd om hvordan de kan følge opp kravene i DSA om å sikre barns personvern, trygghet og sikkerhet når de bruker tjenesten.46
I oktober 2023 publiserte indremarkeds- og forbrukerkomiteen i Europaparlamentet (IMCO) en rapport der de advarer om de vanedannende designfunksjonene til visse digitale tjenester som nettspill, sosiale medier, strømmetjenester og nettbaserte markedsplasser som utnytter folks sårbarhet for å fange oppmerksomheten deres og tjene penger.47 IMCO-komiteen er spesielt bekymret for at barn og unge utvikler digital avhengighet, og de krever mer forskning og regulering på området. IMCO-komiteen ber om at EU-kommisjonen i sin gjennomgang av eksisterende EU-lovgivning legger frem en digital «rett til ikke å bli forstyrret». IMCO-rapporten gir en rekke innspill til arbeidet med å gjøre digitale plattformer mindre avhengighetsskapende. Kommisjonen anmodes blant annet om å vurdere å forby ulike praksiser, inkludert mekanismer som «infinite scroll, default auto play, constant push and read receipt notifications».48
Det har også blitt rettet mer politisk oppmerksomhet mot manipulerende design i dataspill, særlig i forbindelse med regulering av lootbokser. Lootbokser er som hovedregel ikke å regne som pengespill og er ikke omfattet av den nye pengespilloven.49 Barne- og familiedepartementet leder arbeidet med regjeringens gjennomgang av barns forbrukervern i digitale medier, hvor lootbokser og andre problematiske aspekter ved markedsføring og transaksjoner i spill er blant temaene.
5.6.1 Aldersgrenser
Det er ikke ulovlig for barn under 13 år å være på sosiale medier. Det er derimot ulovlig for selskapene å samle inn personopplysninger om personer under 13 år, jf. personopplysningslovens regler om samtykke.50 Det slås fast i EUs personvernlov (GDPR), som også gjelder i Norge. GDPR legger opp til en aldersgrense på 16 år, men åpner for at landene kan ha en nedre aldersgrense på 13 år. Foresatte har anledning til å gi samtykke på vegne av barn under 13 år, og aldersbekreftelse er basert på selv-identifisering. Land som Tyskland, Frankrike og Danmark har satt en høyere aldersgrense enn Norge, men det er mye som tyder på at plattformene ikke følger aldersgrensen.51
I tillegg setter plattformene egne aldersgrenser i sine brukervilkår.52 Både TikTok, Instagram og Snapchat setter som vilkår at brukeren må være 13 år for å bruke tjenesten deres. YouTube har tilsvarende vilkår, men YouTube tillater likevel at barn i alle aldre kan bruke tjenesten hvis den er aktivert av en forelder eller verge.53 Det er da forelderen eller vergen som er ansvarlig for barnets aktivitet knyttet til tjenesten.
Distribusjonsplattformer som App Store og Google Play setter også aldersgrenser for bruk. Dette er anbefalinger for å veilede brukerne om hvem appene er egnet for. Aldersgrensene her kan være annerledes enn det tjenestene selv har satt. TikTok og Snapchat er for eksempel merket med aldersgrensen 12+ i App Store. Det betyr at App Store mener appen ikke er egnet for barn under tolv år.
For å beskytte barn og unge fra skadelig innhold som vold, banning og seksuelt innhold settes det aldersgrenser på dataspill. Den europeiske standarden for aldersmerking, som også brukes i Norge, heter PEGI (Pan-European-Game-Information).54 Det finnes også andre merkeordninger, for eksempel setter Apple egne aldersgrenser.55 Plattformer som Roblox og Fortnite blir merket i PEGI med «Foreldreveiledning», som betyr at det er en bredde av innhold som er laget av brukere, eller foreldreinnstillinger som er tilpasset ulike aldre. Foreldre anbefales derfor å veilede barna og å sette seg inn i foreldreinnstillingene. Minecraft har fått aldersanbefaling fra 9+ år i App Store og 7 år i Google Play. Spillet er merket 7 år fra PEGI på spillkonsoller og datamaskin.
5.6.2 Verifisering av alder
De færreste plattformene har gode løsninger for å verifisere hvor gamle brukerne faktisk er.56 Mange plattformer bruker kun egenerklæring fra brukerne, og dermed er det lett å omgå aldersgrensen. Det er bare å oppgi en annen alder. En annen metode er at plattformene sannsynliggjør alder gjennom informasjonen de samler inn om brukerne sine. Det er en bekymring for at en slik metode vil være inngripende for personvernet. En tredje metode er aldersverifisering ved hjelp av elektronisk identifikasjon (eID).57 Fordelene ved en slik aldersverifisering er at det kan bidra til å beskytte barn mot innhold og tjenester som ikke er tilpasset mindreårige, og gi myndighetene bedre kontroll over at regelverk overholdes. Et generelt krav om å verifisere sin identitet for å delta i den offentlige samtalen i sosiale medier kan også ha negative sider. Et slikt krav kan ha uheldige konsekvenser for personvernet og rettigheter om ytringsfrihet og informasjonsfrihet.58
Aldersverifisering er et viktig tiltak i det reviderte EU-direktivet om audiovisuelle tjenester for å beskytte mindreårige på videodelingsplattformer.59 Det er imidlertid store forskjeller mellom medlemslandene i hvordan dette er implementert. Noen land, blant annet Tyskland, Frankrike og Storbritannia, har gjort det klart at egenrapportering av alder ikke er tilstrekkelig til å bli ansett som aldersverifisering etter direktivet. Det er også flere prosesser i gang for å utvikle standarder for aldersverifisering på nett. Flere medlemsstater i EU, og det norske Medietilsynet, deltar nå i en internasjonal arbeidsgruppe for aldersverifisering, som kan bidra til bedre standardisering på dette området.60
En verifiseringsordning gjennom norsk regulering alene kan være vanskelig å gjennomføre. I EU-kommisjonen pågår et arbeid for å utforme retningslinjer for aldersverifisering, i forbindelse med innføringen av DSA.61 Forordningen om elektronisk identifisering og tillitstjenester for elektroniske transaksjoner i det indre markedet (eIDAS 2) er nylig revidert, og vil bli en del av norsk lov.62 eIDAS pålegger de største plattformene, som TikTok, Snapchat, Instagram og YouTube å tilby tilgangskontroll basert på den europeiske standarden for eID. Dette gjør det mulig å ha en reell aldersverifisering på disse plattformene.
5.6.3 Alderstilpasset design
Europakommisjonen arbeider med en atferdsnorm om alderstilpasset design,63 som ett av tiltakene i EU-kommisjonens strategi «Better Internet for Kids+».64 Atferdsnormen handler blant annet om personvern og beskyttelse mot vold og overgrep. Atferdsnormen, samt praksis, veiledninger og standarder etter DSA, ventes å ha betydning for hvordan tilbydere tar hensyn til barns rettigheter i de digitale tjenestene fremover.
Storbritannia var først ute med en egen veiledning om alderstilpasset design (Age Appropriate Design Code).65 Den skal bidra til at tilbydere av digitale tjenester tar hensyn til og overholder barns rettigheter når de utformer tjenester. Den inneholder 15 prinsipper om alderstilpasset design. Kravene er risikobasert og tar utgangspunkt i standardinnstillinger som skal medvirke til at barn har best mulig tilgang til nettjenester, samtidig som minst mulig personopplysninger samles inn og brukes. Normen er ikke rettslig bindende, men personvernmyndigheten (Information Commissioner’s Office) vil bruke den som et verktøy når den vurderer om tilbydere har brutt Storbritannias personvernlovgivning. Tilnærmingen i normen har også inspirert Californias Age Appropriate Design Code.66
5.7 Hva gjør selskapene selv?
I januar 2024 møtte skjermbrukutvalget representanter fra selskapene som eier de sosiale mediene som er mest brukt blant norske barn og unge. Selskapene formidlet at de ønsker å legge til rette for at unge brukere har en trygg og positiv opplevelse, og la frem en rekke tiltak som er innført for å trygge opplevelsen. I denne delen oppsummerer vi noen av tiltakene som selskapene selv har innført. Utvalget understreker at dette ikke er en uttømmende liste over alle tiltak og ressurser som kan bidra til å beskytte mindreårige på plattformene, og tar forbehold om at tiltakene kan ha endret seg før publisering av skjermbrukutvalgets rapport. På bakgrunn av bestemmelsene i DSA stilles det nå strengere krav til at plattformene iverksetter tiltak for å beskytte mindreårige.67 Vi går også kort gjennom noen av mulighetene for foreldrekontroll i Roblox, Fortnite og Minecraft, basert på Barnevaktens anmeldelser.68
TikTok
TikTok har mulighet for foreldrekontroll der man kan administrere og velge tryggere innstillinger for tenåringens konto.69 Brukere under 18 år får en automatisk skjermtidbegrensning på 60 minutter per dag. De får også et ukentlig varsel om hvor mye tid de har brukt på plattformen. Hvis tenåringen og foreldrene kobler kontoene sine sammen, kan foreldrene også styre hvor mye skjermtid tenåringen får bruke i appen, og til hvilke tidspunkt, for eksempel slik at den ikke er mulig å bruke i skoletiden.
Snapchat
Snapchat har foreldreinnstillinger som kan koble tenåringens konto til en forelder.70 Da kan man som forelder blant annet se hvem barna har i kontaktlisten, hvem de nylig har kommunisert med, og skru på et innholdsfilter som begrenser sensitivt innhold. Foreldrene får ikke tilgang til barnets meldinger. Snapchat har også lansert en rekke nye tiltak rettet mot brukere i tenårene, som en mer «alderstilpasset innholdsopplevelse» og sikkerhetsadvarsler dersom de kontaktes av noen de ikke har felles venner med.
YouTube
På YouTube kan man opprette en versjon med tilsyn som administreres av foreldrene hvis brukeren er under 13 år.71 Da kan foreldre også velge en innstilling som begrenser videoene og musikken som barn under 13 år kan finne og spille av. YouTube har også en rekke standardinnstillinger for unge brukere, blant annet påminnelser om å ta pauser, påminnelser om sengetid og at auto-avspilling er slått av. YouTube har også laget en egen foreldreveiledning som skal hjelpe foreldre å støtte tenåringen når hen ønsker å dele innhold på plattformen, i samarbeid med Common Sense Networks.72
Google er det eneste selskapet som har laget en egen plattform tilpasset barn: YouTube Kids.73 Barn kan ha egne brukere som er knyttet til en voksens Google-konto. YouTube Kids filtrerer ut innhold som ikke er egnet for barn, og man kan definere innhold basert på barnets alder.
Instagram har også foreldreinnstillinger, der en forelder kan koble tenåringens konto til sin egen. Da kan forelderen se blant annet hvor mye tid barnet bruker, og eventuelt sette tidsgrenser, se hvilke kontoer barna følger, og få oversikt over hvem som kan kontakte barnet. Instagrams hjelpesenter inneholder tips til både foreldre og brukerne selv, for eksempel om hva man bør gjøre for å takle konflikter eller utskjelling på plattformen.74 Det finnes også egne sider med råd om hva man bør gjøre hvis man ser innhold som handler om selvmord, selvskading eller spiseforstyrrelser (ikke spesielt rettet mot tenåringer). Høsten 2024 lanserte Meta nye sikkerhetsinnstillinger for Instagram for ungdom i alderen 13–17 år.75 Ungdom under 16 år må ha foreldregodkjenning for å endre disse innstillingene. Nytt er blant annet at alle kontoer blir private, at de kun kan få meldinger fra personer de følger eller allerede har en forbindelse med, strengere begrensninger på såkalt «sensitivt innhold» og at varsler skrus av mellom kl. 22.00 og 07.00.
Fortnite, Roblox og Minecraft
Epic Games, som eier Fortnite, har innlemmet innstillinger for foreldrekontroll.76 Man kan sette opp innstillingene via systemet til Epic Games eller inne på Fortnite-plattformen. Med foreldrekontroll kan man angi en aldersgrense for minispillene barna kan få tilgang til, kreve PIN-kode for å legge til nye venner og man kan velge hvem barna kan chatte med (stemmechat). Man kan også motta en ukentlig rapport om barnets spilltid. Foreldre kan også sette begrensninger for pengebruk i spillet. I Roblox får barn under 13 år strengere innstillinger for hvem som kan kontakte.77 Det finnes også foreldrekontroll med de samme funksjonene som i Fortnite. Minecraft kan knyttes til foreldres Microsoft-bruker, og man kan da for eksempel begrense mulighetene for chat og stenge for nettspill.78
5.8 Innspill til utvalget
Utover innspill fra referansegruppen, og innspill fra barn og unge (se tekstbokser), har utvalget mottatt innspill fra enkeltpersoner og organisasjoner på utvalgets nettside og i utvalgsmøter. Flere av innspillene til utvalget argumenterer for at plattformene ikke er nøytrale arenaer, men at de er drevet av kommersielle hensyn og at de i mange tilfeller ikke er egnet for barn og unge. Redd Barna mener at mandatet er mangelfullt fordi det ikke tematiserer hvordan plattformer, teknologiselskaper og annonsører har innvirkning på barns helse, læring, søvn og oppvekst.79 Redd Barna mener videre at utvalget bør synliggjøre plattformenes makt og rolle i det å profittere på barns tid og oppmerksomhet. IT-Selskapet Climbr peker på at sosiale medier er verdens største og mest effektive markedsplasser, som bruker etablerte og dokumenterte teorier for å få oss hektet og engasjert, og at barn og unge spores i enorm skala uten å være klar over det.80
Forbrukerrådet peker på at barn er sårbare for avhengighetsskapende teknologi, og at en viktig årsak til utfordringer med barns skjermbruk er teknologiselskapenes forretningsmodell der det handler om å holde lengst mulig på brukernes oppmerksomhet.81 Forbrukerrådet mener at det er avgjørende å ikke skyve byrden over på foreldre og barn, men å i stedet holde de profesjonelle aktørene ansvarlige. Videre skriver Forbrukerrådet at bransjen hevder at den legger til rette for valgmulighet, tidsstyring, sikkerhet og personvern ved at brukere kan justere på innstillingene, men at selskapene vet at svært få forbrukere faktisk justerer disse innstillingene. Derfor peker Forbrukerrådet på grunninnstillinger som et svært kraftfullt verktøy.
Rusfeltets samarbeidsorgan, Actis, mener utvalget må ha fokus på pengespillelementer og manipulativt design i dataspill og apper som retter seg mot barn og unge.82 Actis mener barn og unge fortjener skjerming fra pengespillelementer og reklame i det som er hverdagsunderholdning og glede for mange.
Opprop for 16-års aldersgrense på sosiale medier leverte i sitt innspill 11 059 underskrifter som krever innføring av 16-års aldersgrense på sosiale medier og håndheving av aldersgrensen gjennom verifisering.83 Ifølge oppropet er det foreldre, men også personer som tilhører faggrupper som jobber tett med barn og unge innenfor helse og opplæring, som i stor grad har signert.
Utvalget inviterte representanter fra Google, Meta, SnapInc og TikTok til et av utvalgets møter. Selskapene gikk gjennom hva de gjør for å beskytte barn og unge på deres plattformer. Selskapene viste til en rekke tiltak som skal beskytte barn, særlig under 13 år, på deres plattformer. Blant annet presenterte de tiltak for aldersverifisering, tilpasset design på plattformene og muligheter for foreldrekontroll. På spørsmål om hva som kan forbedres pekte flere av selskapene på bedre metoder for aldersverifisering. Meta ønsker verifisering av alder på plattformer der man laster ned apper (app store age verification) slik at dette ikke er opp til hver enkelt tjeneste. Snap etterlyste en bransjestandard for alderstilpasning, og pekte på at aldersverifisering er en veldig liten del i det å tilby en alderstilpasset opplevelse.
5.9 Kunnskapshull
Om vi skal forstå hvordan plattformene påvirker samfunnet og barn og unge bedre må uavhengige forskere få tilgang til data fra sosiale medier og dataspill. Så langt har tilgangen vært svært begrenset, og vi har derfor lite god forskning på hvordan mekanismene i plattformene faktisk fungerer. DSA vil stille krav om at de største plattformene må dele data med myndigheter og forskere, men det gjenstår å se hvor mye åpenhet plattformene faktisk kommer til å legge til rette for.
Boks 5.2 Innspill fra utvalgets referansegruppe om plattformenes rolle
Nasjonalforeningen for folkehelsen mener at tiden er moden for å regulere barn og unges skjermbruk på en langt mer systematisk måte enn det som er tilfelle i dag. Det er behov for regulering av skjermbruken fordi utfordringene er for store til at den enkelte familie eller det enkelte foreldremøte i klassen kan løse det selv. De mener at ansvaret må legges på plattformene og de kommersielle aktørene. Det kan ikke være opp til foreldrenes overskudd eller foreldregruppers kapasitet til å beskytte barna mot negativ skjermbruk. Det trengs tydeligere grep for å minske tiden barn og unge bruker på skjerm. Regulering vil bidra til å redusere sosial ulikhet og særlig beskytte de sårbare barna.
Unge funksjonshemmede mener at det finnes mye nyttig informasjon på digitale plattformer og flater, samtidig florerer det også mye feilinformasjon, blant annet om funksjonshemmede. De opplever også at det er en utfordring at algoritmene styrer hva man får opp på for eksempel sosiale medier. Algoritmene fører til at det vil være vilkårlig hvor representativt mangfoldet som vises er. Funksjonshemmede er ofte dårlig representert i ulike medier. Synliggjøring av mangfoldet på sosiale medier og digitale flater vil dermed kunne bidra til å fremme positive holdninger og øke bevisstheten rundt funksjonsmangfoldet som finnes.
Foreldreutvalget for barnehage (FUB) mener at det er viktig for foreldre at barna møter en sikker og trygg digital teknologi, hvor barna for eksempel ikke møter avhengighetsskapende design eller reklame.
5.10 Oppsummering
De fleste sosiale medier er gratis å bruke. Men når tjenesten er gratis er det «du som er varen». Sosiale medier og andre tjenester designes for å holde mest mulig på brukernes tid og oppmerksomhet. Bruken genererer data som plattformen kan tjene penger på gjennom målrettet reklame.
Spill skal være underholdende og medrivende, og mange dataspill er også designet med belønningssystemer for å holde spillerne engasjerte. Historisk sett har spillselskapenes inntekter kommet av at de selger dataspill, men med årene har forretningsmodellen utviklet seg. Selv om mange spill fortsatt selges på «gamlemåten», har salg av ekstra innhold inne i de enkelte spillene, for eksempel lootbokser og mikrotransaksjoner, også blitt en av de største kildene til inntekt for dataspillselskapene.
Uavhengig av om det gjelder en enhet som en mobiltelefon, en nettside, et dataspill eller en sosial medieplattform, kan teknologiens grensesnitt, egenskaper og designvalg påvirke hvordan og hvor mye man bruker digital teknologi. Noen av mekanismene plattformene bruker, kan kalles manipulerende. De kan bidra til at man bruker mer tid eller tar andre valg på plattformene enn man hadde tenkt. Algoritmer som tar brukeren med ned i såkalte kaninhull, kan føre til at barn og unge blir eksponert for stadig mer ekstremt innhold innenfor et tema. Det kan virke skadelig for noen barn og unge. Sosiale medieplattformer og dataspillplattformer tilbyr samtidig flere muligheter for foreldrekontroll som kan gjøre brukeropplevelsen for barn og unge tryggere, men det er ikke alle som benytter seg av disse mulighetene.
For dataspill er det utarbeidet en europeisk standard for aldersmerking, som også brukes i Norge (PEGI). I sosiale medier finnes ingen reell aldersgrense i dag. Sosiale medier og dataspill har lenge operert i et lovtomt rom, uten regulering av innhold eller mekanismer i plattformene. Det er nå gjennomført større lovarbeider i EU for å fylle tomrommet, og det pågår ytterligere arbeid både i EU og nasjonalt for å regulere plattformene i større grad. Det største grepet på EU-nivå er forordningen om digitale tjenester (DSA), som stiller strengere krav til beskyttelse av barn, og som blant annet forbyr manipulerende design. Det pågår også arbeid på europeisk nivå som kan gi mulighet for reell aldersverifisering.
5.11 Utvalgets vurderinger
Mandatet til utvalget går ikke inn på teknologien og de økonomiske drivkreftene bak barn og unges skjermbruk. Utvalget mener likevel det er avgjørende for å svare på mandatet å forstå og belyse mekanismene som ligger bak sosiale medieplattformer og dataspill som barn og unge bruker så mye av tiden sin på. Dette er ikke nøytrale arenaer, slik blant andre Redd Barna og Forbrukerrådet har understreket i sine innspill til utvalget.
I dataspill kan pengebruk og pengespill-lignende mekanismer i spillene være et problem for unge brukere. Egne valutaer i spillene kan gjøre det vanskelig å holde oversikt over pengebruken. I de yngre aldersgruppene spiller mange de samme spillene, og det blir etter hvert også en viktig sosial arena, som vi kommer tilbake til i kapittel 7. Mange spill er i utgangspunktet gratis, men man kan også betale for ulike fordeler, eller for «skins» som kan gi spilleren høyere status. Dette kan gjøre sosiale forskjeller mer synlige, og være en digital barriere som kan bidra til utenforskap.
Det kan være sosiale forskjeller i hvor sårbare barn og unge er for de manipulerende mekanismene i plattformene. Vi vet at barn og unge fra familier med lavere sosioøkonomisk status, målt gjennom foreldrenes utdanning, bruker mer tid på skjerm. Men utvalget vil understreke at de ulike sosiale mediene også fungerer forskjellig og har ulike egenskaper. Til en viss grad har plattformene også kommersielle insentiver til å skape tryggere plattformer for yngre brukere, slik at de ikke blir sperret fra å bruke plattformene enten av foreldrene sine eller av myndighetene. Det er likevel ikke nok å tilby muligheter for foreldrekontroll når vi vet at mange foreldre ikke bruker slike innstillinger.
Det finnes ikke en reell aldersgrense for sosiale medier i dag, men de mest brukte sosiale mediene i dag har 13-årsgrense i sine brukervilkår. Innholdet er dermed ikke tilpasset brukere under denne alderen. Likevel bruker halvparten av alle norske niåringer sosiale medier. Det innebærer at en stor andel av norske barn har tilgang til innhold som er ment for eldre brukere. I tillegg kan barna utsettes for annen risiko blant annet gjennom manipulerende design eller ved å komme i kontakt med fremmede som ikke vil dem vel.
I utvalgets samtaler med barn og unge er det særlig sosiale medier med en uendelig strøm av korte filmer (reels) som trekkes frem som vanskelig å legge fra seg. Dette er innhold som presenteres raskt, som spilles av automatisk, og som er en kontinuerlig og uendelig strøm. Dette er design som kan ha negative konsekvenser for barn og unge, og som utvalget mener bør reguleres strengere.
Utvalget viser til kapittel 17 for en samlet vurdering av tiltak og anbefalinger om regulering av plattformene.
Fotnoter
Medietilsynet (2022a)
Medietilsynet (2022a)
NOU 2022: 11
Steinnes mfl. (2023)
Kultur- og likestillingsdepartementet (2023)
Fung (2024)
Amnesty International (2023)
Zuboff (2021)
DiBella (2019)
Brandslet (2021)
NOU 2022: 11
Steinnes mfl. (2023)
Forbrukerrådet (2022)
Center for Humane Technology (2021)
Center for Humane Technology (2021)
Enli & Aalen (2023)
Medietilsynet (2022a)
NOU 2022: 9
Amnesty International (2023)
NOU 2022: 9, s. 80-81
Medietilsynet (2022a)
NOU 2021: 3
NTE blogg (2022)
Medietilsynet (2022a)
Barnevakten.no (2024b)
Barnevakten.no (2024b), Barnevakten.no (2024c)
Barnevakten.no (2023)
Steinnes mfl. (2023)
Medietilsynet (2022a)
Medietilsynet (2024d)
Medietilsynet (2022a)
Forbrukerrådet (2022)
Schwiddessen & Karius (2018)
Griffiths (2019)
Steinnes mfl. (2023)
Jørgensen (2021)
Forbrukerrådet (2022)
Gibson mfl. (2022)
Forbrukerrådet (2024a)
Medietilsynet (2024h)
Bildeprogramloven (2015)
Prop. 66 LS (2023–2024) §28 h
Regjeringen.no (2022)
EUR-Lex (2022) – Forenklet oppsummering gjort av skjermbrukutvalget
EU-kommisjonen (2024b)
Stortinget.no (2023)
Europalov (2024), Handelspraksisdirektivet om urimelig handelspraksis overfor forbrukere
Kultur- og likestillingsdepartementet (2023)
Personopplysningsloven (2018)
Herskind (2024)
Medietilsynet (2024g)
Google: YouTube Kids (2024c)
Medietilsynet (2023b)
Kultur- og likestillingsdepartementet (2023)
Raiz Shaffique & van der Hof (2024)
Digitaliseringsdirektoratet (2024)
Lindahl (2023)
EU-Lex (2018)
Ofcom (2023)
EU-parlamentet (2023)
EUR-Lex (2024)
EU-kommisjonen (2023)
EU-kommisjonen (2024a)
Information Commissioner’s Office (2020)
California Legislative Information website (2022)
EUR-Lex (2022)
Barnevakten.no (2024a)
Barnevakten.no (2024d)
Snapchat (2024)
Google: YouTube Kids (2024c)
Google: YouTube Kids (2024a)
Google: YouTube Kids (2024b)
Meta (2024a)
Meta (2024b)
Barnevakten.no (2024b)
Redd Barna (2024)
IT-selskapet Climbr (2024)
Forbrukerrådet (2024b)
Actis (2024)
Born (2024)