AI
«De som lager modeller og prinsipper for KI-verktøy, tenker ofte bare på om teknikken fungerer, og bruker sjelden tid på å forstå hva det betyr for brukerne», skriver Christoph Trattner, senterleder ved MediaFutures.

DEBATT:

Vi trenger en Vær varsom-plakat for utvikling av KI

Foreslår etisk regelverk for kunstig intelligens-utvikling inspirert av Vær varsom-plakaten.

Publisert
  • Dette er et debattinnlegg. Innlegget uttrykker skribentens egne synspunkter.

Alle er opptatt av etisk bruk av kunstig intelligens (KI). Du kan snakke med flere mennesker fra forskjellige bransjer, og alle har en mening om hva som er viktig for å skape ansvarlig KI. Så hvordan kan vi utvikle KI-verktøy som er til fordel for samfunnet og som opprettholder våre verdier?

Det lønner seg å se nærmere på journalistikken. Journalistikken har tilpasset seg til teknologiske endringer, samtidig som den har beholdt etiske prinsipper som kommer samfunnet til gode. 

I Norge har journalister et etablert etisk rammeverk i form av Vær varsom-plakaten, som legger grunnlaget for ansvarlig samfunnsarbeid. En tilsvarende standard eksisterer ikke for de som utvikler KI-modeller. Ved å innføre lignende etiske retningslinjer i KI-utvikling, kan vi sikre at teknologien vi skaper er til det beste for samfunnet.

De som lager modeller og prinsipper for KI-verktøy, tenker ofte bare på om teknikken fungerer, og bruker sjelden tid på å forstå hva det betyr for brukerne. Istedenfor å lage en blackbox, må informatikere også forstå effekten av de enkle prosessene. De har verktøy for så mange ting, men det er nødvendig med retningslinjer som beskriver hva det betyr for samfunnet.

Løsningen er bransjespesifikke retningslinjer som er basert på felles verdier innenfor den aktuelle bransjen. Informatikere, ingeniører og alle som lager KI-modeller kan ta sine bransjespesifiske verdiene som et utgangspunkt for design, ingeniørarbeid og evaluering av ansvarlige KI-systemer.

Det er tre trinn for å jobbe etisk med KI. Først design, hvor nøkkelverdien i bransjen må brukes som grunnlag for å lage noe nytt. Deretter må prinsippene implementeres i lagingsprosessen som for eksempel i treningsdata for KIen. Til slutt må produktet evalueres ved å bruke etikkbasert revisjon som en metode for å sjekke at verdiene er brukt.

Retningslinjer som overholdes under lagingsprosessen i enhver bransje, kan hjelpe oss med å ha etisk KI. Derfor anbefaler forskere ved SFI MediaFutures å lage etiske koder for å finjustere eksisterende generative KI-modeller, som ChatGPT, slik at de er mindre skadelige for samfunnet. Bransjespesifikke profesjonelle atferdskoder gir oss en forståelse av viktige verdier som vil veilede oss mot mer ansvarlige valg i praksis for bruk av KI.

Denne meningsartikkelen om forklarbarhet i KI er publisert i Communication of the ACM, fagmagasinet til et av verdens største vitenskapelige og pedagogiske selskap for informatikk.

Powered by Labrador CMS