DEBATT:

Må lesernes bilder dø?

Tenåringer som slåss. Kolleger som kliner. Som dreper hverandre. Hjemløse menn hjemme på kjøkkenet ditt. Hva skal redaksjonene gjøre med framtidas tipsinnboks?

Snap. KI
Publisert
Lesetid: 3 min
  • Dette er et debattinnlegg. Innlegget uttrykker skribentens egne synspunkter.

Denne uka har vi sett rystende bilder på NRK og i Aftenposten. NRK fortalte om en ny funksjon i Snapchat og viste fram: Journalistene tok helt normale bilder av seg selv, og fikk generert både nakenhet, drap og selvmord. 

Aftenposten fortalte om bekymrede britiske og amerikanske foreldre som var utsatt for TikTok-trenden «Homeless man AI prank challenge» på Tiktok. Barn sender bilder hjemmefra, og forteller om en hjemløs mann som forsyner seg på kjøkkenet eller sover i gangen. Foreldrene ringte – såklart – politiet. 

Fellesnevneren er at ingen av disse bildene er ekte, men de er skapt med svært enkel bruk av generativ KI. I NRKs tilfelle Snapchats nye «Imagine»-funksjon, som lar sine brukere generere helt naturtro versjoner av bildet du har tatt, nær sagt uten guardrails, altså tekniske restriksjoner som skal stoppe generering av skadelig innhold.

Fellesnevneren er at ingen av disse bildene er ekte, men de er skapt med svært enkel bruk av generativ KI.

Teknologien disse tjenestene bruker er ikke gammel, men framskrittene skjer raskt. Framveksten av stadig mer naturtro AI slop er allerede et stort, demokratisk problem, og det kommer til å bli verre.

Jeg bruker en del av min tid til å lære norske journalister og redaksjoner i verifisering av innhold og avdekking av manipulerte bilder og videoer. Norske redaksjoner skjønte for alvor at det var viktig etter utbruddet av krigen i Ukraina i 2022, og de store mediehusene startet samarbeidsdesken Faktisk Verifiserbar for å få på plass metodikk for verifisering.

På den tiden var det meste av falskt innhold fra konfliktområder oftest cheapfakes, altså ekte innhold der konteksten var forfalsket. Et tidligere publisert bilde, ofte fra en annen konflikt, men der teksten påsto noe annet. På den tida drev vi også kursing av journalister, og vi kunne si at det var sjelden vi kom over troverdige deepfakes, altså helt KI-generert innhold.

En verifisering kan ta minutter å gjennomføre, men den kan også ta timer, dager, uker og måneder.

Men nå er vi i 2025, og vi er ikke der lenger. Og manipulasjon er ikke noe vi bare ser fra konfliktområder, med statlige og halvstatlige aktører som bruker mye ressurser for å forsøke å påvirke opinionen. Propagandisten kan likegodt sitte i et rekkehus på Ås, i Førde eller på Stord, og med siste generasjon av generative verktøy er det lett for hvem som helst å skape nye løgner. Dette sliter norske redaksjoner allerede med

KI- og medieåret 2024 startet med et smell, da NRK Sørlandet ble lurt av reklamebyrået Maverix. NRK hadde bedt om lesernes beste vinterbilder, og en av Maverix' ansatte sendte inn bildet av Trude Ailin Winther i gul bikini i snødrevet på Sørlandet. 

– Fristelsen ble for stor til å kunne motstå, forklarte mannen som sto bak.

Når jeg snakker med journalistene, forsøker jeg å hamre inn at publikum, og åpenbart enkelte reklamebyråer, mangler bevissthet om tillit og troverdighet. De leser ikke Vær Varsom-plakaten, og forstår ikke hvorfor det er så viktig for oss å verne om det journalistiske bildets troverdighet.

Det får heller ingen konsekvenser når en tipser å sende inn falske bilder, men for redaksjonene kan følgene være tap av tillit, ikke bare for sin egen av avis, men for hele mediebransjen.

Det får heller ingen konsekvenser når en tipser å sende inn falske bilder, men for redaksjonene kan følgene være tap av tillit.

Ikke minst kan det medføre en fellelse i PFU, etter Vær Varsom-plakatens 4.11:

«Vern om det journalistiske fotografiets troverdighet. Bilder som brukes som dokumentasjon må ikke endres slik at de skaper et falskt inntrykk. Manipulerte bilder kan bare aksepteres som illustrasjon når det tydelig fremgår at det dreier seg om en montasje.»

Når verktøyene nå er så umiddelbare og grenseløse, vil det måtte ha konsekvenser for hvordan avisene jobber med lesernes tips, og det går ikke lenger å problemfritt lage bildekarusell av leserbilder av nordlys, snødrev og folkefest, for hvert eneste bilde kan være manipulert. Disse karusellene har vært en enkel og billig vei til engasjement og klikk, men nå kan kostnaden bli for høy, om hvert eneste bilde må sjekkes og godkjennes

Så hva skal norske redaksjoner gjøre?

I mine forelesninger snakker jeg om metadata, KI-detektorer og metodikk for verifisering, men det finnes ikke ett enkelt verktøy som enkelt kan hjelpe oss - og alt kan forfalskes. Alle bildepåstander må ettergås nøye og metodisk, og om nødvendig må journalistene gjøre en nøyere undersøkelse med andre kilder.

Alt dette tar tid, og det står i rak motsetning til redaksjonenes mål om å ha det første pushet, men troverdigheten står på spill.

Her er noen tips:

  • Sjekk metadata på bildet. Stemmer plasseringen av bildet med det tipseren sier?
  • Finnes ikke metadata? Har dere fått videresendt en video fra en annen? Gå til originalkilden.
  • Sosiale medier skrubber metadata når innhold blir lastet opp. Be alltid om originalfilen.
  • Verktøyet Veridash (fra Mediafutures i Bergen) kan hjelpe med rask videobehandling.
  • Gå gjennom denne læringspakka, det er en gratis innføring i verifisering. 
  • Ikke tenk at verifisering er noe noen andre i redaksjonen skal drive med. Det er alle journalisters ansvar å jobbe opp denne kompetansen.

Konsekvensen av å bli lurt kan være enorm. Hvor mange klikk er tilliten verdt?

Powered by Labrador CMS