DEBATT:
Må lesernes bilder dø?
Tenåringer som slåss. Kolleger som kliner. Som dreper hverandre. Hjemløse menn hjemme på kjøkkenet ditt. Hva skal redaksjonene gjøre med framtidas tipsinnboks?
Illustrasjon: Skjermdump NRK og ElisaRiva / Pixaby. Montasje
- Dette er et debattinnlegg. Innlegget uttrykker skribentens egne synspunkter.
Denne uka har vi sett
rystende bilder på NRK og i Aftenposten. NRK fortalte om en ny funksjon i
Snapchat og viste fram: Journalistene tok helt normale bilder av seg selv, og
fikk generert både nakenhet, drap og selvmord.
Aftenposten fortalte
om bekymrede britiske og amerikanske foreldre som var utsatt for TikTok-trenden «Homeless man AI prank
challenge» på Tiktok. Barn sender bilder hjemmefra, og forteller om en hjemløs
mann som forsyner seg på kjøkkenet eller sover i gangen. Foreldrene ringte –
såklart – politiet.
Fellesnevneren er at
ingen av disse bildene er ekte, men de er skapt med svært enkel bruk av
generativ KI. I NRKs tilfelle Snapchats nye «Imagine»-funksjon, som lar sine
brukere generere helt naturtro versjoner av bildet du har tatt, nær sagt uten guardrails,
altså tekniske restriksjoner som skal stoppe generering av skadelig innhold.
Fellesnevneren er at ingen av disse bildene er ekte, men de er skapt med svært enkel bruk av generativ KI.
Teknologien disse
tjenestene bruker er ikke gammel, men framskrittene skjer raskt. Framveksten av
stadig mer naturtro AI slop er allerede et stort, demokratisk problem, og det
kommer til å bli verre.
Jeg bruker en del av
min tid til å lære norske journalister og redaksjoner i verifisering av innhold
og avdekking av manipulerte bilder og videoer. Norske redaksjoner skjønte for
alvor at det var viktig etter utbruddet av krigen i Ukraina i 2022, og de store
mediehusene startet samarbeidsdesken Faktisk Verifiserbar for å få på plass
metodikk for verifisering.
På den tiden var det
meste av falskt innhold fra konfliktområder oftest cheapfakes, altså
ekte innhold der konteksten var forfalsket. Et tidligere publisert bilde, ofte
fra en annen konflikt, men der teksten påsto noe annet. På den tida drev vi
også kursing av journalister, og vi kunne si at det var sjelden vi kom over
troverdige deepfakes, altså helt KI-generert innhold.
En verifisering kan
ta minutter å gjennomføre, men den kan også ta timer, dager, uker og måneder.
Men nå er vi i 2025,
og vi er ikke der lenger. Og manipulasjon er ikke noe vi bare ser fra
konfliktområder, med statlige og halvstatlige aktører som bruker mye ressurser
for å forsøke å påvirke opinionen. Propagandisten kan likegodt sitte i et
rekkehus på Ås, i Førde eller på Stord, og med siste generasjon av generative
verktøy er det lett for hvem som helst å skape nye løgner. Dette sliter norske
redaksjoner allerede med
KI- og medieåret 2024
startet med et smell, da NRK Sørlandet ble lurt av reklamebyrået Maverix. NRK
hadde bedt om lesernes beste vinterbilder, og en av Maverix' ansatte sendte inn
bildet av Trude Ailin Winther i gul bikini i snødrevet på Sørlandet.
– Fristelsen
ble for stor til å kunne motstå, forklarte mannen som sto bak.
Når jeg snakker med
journalistene, forsøker jeg å hamre inn at publikum, og åpenbart enkelte
reklamebyråer, mangler bevissthet om tillit og troverdighet. De leser ikke Vær
Varsom-plakaten, og forstår ikke hvorfor det er så viktig for oss å verne om
det journalistiske bildets troverdighet.
Det får heller ingen
konsekvenser når en tipser å sende inn falske bilder, men for redaksjonene kan
følgene være tap av tillit, ikke bare for sin egen av avis, men for hele
mediebransjen.
Det får heller ingen konsekvenser når en tipser å sende inn falske bilder, men for redaksjonene kan følgene være tap av tillit.
Ikke minst kan det
medføre en fellelse i PFU, etter Vær Varsom-plakatens 4.11:
«Vern om
det journalistiske fotografiets troverdighet. Bilder som brukes som
dokumentasjon må ikke endres slik at de skaper et falskt inntrykk. Manipulerte
bilder kan bare aksepteres som illustrasjon når det tydelig fremgår at det
dreier seg om en montasje.»
Når verktøyene nå er
så umiddelbare og grenseløse, vil det måtte ha konsekvenser for hvordan avisene
jobber med lesernes tips, og det går ikke lenger å problemfritt lage
bildekarusell av leserbilder av nordlys, snødrev og folkefest, for hvert eneste
bilde kan være manipulert. Disse karusellene har vært en enkel og billig
vei til engasjement og klikk, men nå kan kostnaden bli for høy, om hvert eneste
bilde må sjekkes og godkjennes
Så hva skal norske
redaksjoner gjøre?
I mine forelesninger
snakker jeg om metadata, KI-detektorer og metodikk for verifisering, men det
finnes ikke ett enkelt verktøy som enkelt kan hjelpe oss - og alt kan
forfalskes. Alle bildepåstander må ettergås nøye og metodisk, og om nødvendig
må journalistene gjøre en nøyere undersøkelse med andre kilder.
Alt dette tar tid, og
det står i rak motsetning til redaksjonenes mål om å ha det første pushet, men
troverdigheten står på spill.
Her er noen tips:
- Sjekk
metadata på bildet. Stemmer plasseringen av bildet med det tipseren sier?
- Finnes
ikke metadata? Har dere fått videresendt en video fra en annen? Gå til
originalkilden.
- Sosiale
medier skrubber metadata når innhold blir lastet opp. Be alltid om
originalfilen.
- Verktøyet
Veridash (fra Mediafutures i Bergen) kan hjelpe med rask videobehandling.
- Gå
gjennom denne læringspakka, det er en gratis innføring i verifisering.
- Ikke tenk
at verifisering er noe noen andre i redaksjonen skal drive med. Det er alle
journalisters ansvar å jobbe opp denne kompetansen.
Konsekvensen av å bli
lurt kan være enorm. Hvor mange klikk er tilliten verdt?