Einstein skal engang have sagt, at han anså radioen som et medie der kunne skabe en oplyst befolkning, fordi information blev tilgængelig for alle. Samtidig muliggjorde den kulturel og politisk udveksling mellem lande og dermed større forståelse for andre kulturer.
Radioen var med andre ord, for Einstein, et medie der ved at skabe fælles horisonter og øget samhørighed, kunne reducere risikoen for det vi i dag ville kalde ideologiske eller holdningsmæssige ekkokamre, og for at befolkninger kan hidses op mod hinanden. Hvad Einstein ikke så, var radioens potentiale for det modsatte: øjeblikkelig spredning af propaganda og politisk motiveret desinformation. Således var radioen et centralt redskab i den nazistiske propagandaindsats for at kontrollere folkestemningen.
På samme måde som radioen, blev internettet i dets tidlige stadier hyldet som teknologien, der ville muliggøre interkulturel udveksling, og derved skabe fælles og større gensidig forståelse mellem og indenfor folkeslag. Og selvom internettet også i stor stil bliver brugt til disse formål, må man konstatere at det i allerhøjeste grad også bliver brugt til det modsatte.
Disinformation, altså falsk eller forvrænget information produceret for at vildlede, er i dag så udbredt en udfordring, at det står højt på agendaen hos både FN og EU, som et problem der udfordrer demokratiet, folkesundheden mm. Og selvom de fleste vil mene, at de godt kan genkende desinformation, når de støder på det, er der masser eksempler på hvordan det kan bruges til at vildlede og til at opildne individer og især grupper.
Militærjuntaen i Myanmar førte desinformationskampagner på sociale medier, der var og er stærkt medvirkende til undertrykkelsen og forfølgelsen af Rohingya-folket. I hele den vestlige verden så vi hvordan disinformation om COVID-19 var med til at forværre konsekvenserne af pandemien og radikalisere flere grupper af samfundet. På samme måde søger Rusland at militarisere desinformation som en del af invasionen af Ukraine.
Med den generative AI’s indtog ser vi ind i en skærpelse af den udfordring, vi allerede stod overfor med at håndtere desinformation på internettet. Generativ AI som ChatGPT, DALL-E 2 og AutoGPT, muliggør nemlig en masseproduktion og -spredning af disinformationstekst og billeder. Eksemplet med totalitære regimer der ønsker at undertrykke al dissens ved f.eks.at drukne debat på sociale medier med en syndflod af AI-genererede brugere og disses indlæg, har været turneret i medierne allerede. Men udfordringen er bestemt ikke mindre for den demokratiske samtale i lande som Danmark.
Og hvad gør man så?
Både radio og internet er gode eksempler på, at teknologi i sig selv ikke løser vores menneskelige udfordringer – disse udfordringer er nemlig sociale af natur, og har en tendens til at blive reproduceret i de teknologier vi opfinder, hvis vi ikke gør en aktiv og tidlig indsats for at tøjle teknologien på en måde, der stadigvæk muliggør at få det bedste ud af den. Hvilken indflydelse teknologien har, afhænger helt og aldeles af hvilke rammer vi sætter for den, og hvordan den bruges indenfor disse rammer. Og så er vi tilbage ved de forskellige tilgange til disinformation.
En typisk tilgang til sådan en udfordring er at betragte den som en juridisk udfordring og derfor fokusere på regulering som løsningen. Det har vi også set foreslået, både i forhold til disinformation og sociale mediers rolle i udbredelsen heraf, samt i forhold til AI. En regulering af sociale medier er notorisk svær. På den ene fløj står de der mener at sociale medier skal være ansvarlige og stilles til regnskab for de aktiviteter, der foregår på deres platforme. På den anden står de sociale medier, der påpeger umuligheden af at monitorere og moderere al aktivitet, der foregår på deres platforme.
Hvad AI angår er der ikke meget tvivl om, at der er behov for øget regulering i forhold til tingenes tilstand i dag. Her bliver det spændende at følge i hvilket omfang EU’s AI Act kan løfte denne udfordring. Men udfordringen med denne juridiske tilgang er, at det er stort set umuligt at lave en regulering uden smuthuller, hvis den både skal tilgodese de anvendelser vi gerne vil have og dæmme op for dem, vi ikke vil have. Så selvom god regulering i et eller andet omfang er forudsætningen for vellykket udbredelse af teknologi i samfundet, kan vi ikke alene regulere os ud af de problemer, der opstår med generativ AI.
En anden klassisk reaktion er at fikse et teknisk problem med en teknisk løsning – lidt fortegnet kunne man kalde det for ”there’s an app for that”-tilgangen. Her har vi også allerede set OpenAI både forsøge sig og samtidig demonstrere sin egen utilstrækkelighed ved at lancere et værktøj, der skulle kunne identificere AI-generet tekst og indhold. Det genkendte bare kun AI-genereret tekst i 26 procent af tilfældene, og havde samtidig 9 procent falske positive.
På samme måde er det besnærende at kalde på en AI-løsning, der kan identificere disinformation. Opstil nogle parametre for hvad der er desinformation og så kører vi. Problemet er bare, at mens det ikke nødvendigvis er svært at lave en teknisk definition af disinformation, giver den ikke altid lige god mening, når den støder på virkeligheden. I sidste ende bunder det i samme udfordring der gælder for regulering af sociale medier: det er svært at fastsætte en gældende sandhedsnorm, ud fra hvilken man kan sortere al information.
Socialt fænomen
En tredje tilgang er at se disinformation som et socialt fænomen. Disinformation er et resultat af menneskelig adfærd, og dermed er det også påvirkning af menneskelig adfærd gennem oplysning og uddannelse, der er løsningen på udfordringen. Almindelige mennesker skal lære at genkende disinformation og forstå dets negative konsekvenser, ud fra logikken om at hvis vi hver især kan genkende disinformation, vil vi også afstå fra at dele det, og dermed vil spredningen blive radikalt begrænset. Det har man blandt andet søgt at adressere ved fakta-tjek sider, som f.eks. tjekdet.dk, hvor journalister gennemgår sandhedsværdien i diverse historier der florerer.
Udfordringen her, har forskning vist, er at folk meget ofte handler affektivt fremfor rationelt, når de deler information på sociale medier. Og fordi disinformation er skræddersyet til at få os i affekt, er samspillet med sociale mediers klik-genererende algoritmer så effektiv en motor for spredning af disinformation. En supplerende tilgang er derfor at tilbyde folk et refleksionsrum i den situation, hvor de finder deres nyheder. Og her er vi tilbage ved et af de konstruktive potentialer, der også ligger i AI.
Et AI-system kan trænes til at genkende hvilke typer af indhold, der bringer et individ i affekt og som dermed øger risikoen for at man deler desinformation. Systemet kan dermed gøre individet opmærksom på sin egen tendens til ukritisk at sprede information om bestemte emner. Det er blandt andet dét det EU-finansierede TITAN-projekt forsøger at gøre ved hjælp af en AI-baseret intelligent coach, der bruger store sprogmodellers teknologi til at stille brugeren kritiske spørgsmål og indgå i en sokratisk dialog og få brugeren til at reflektere over den information vedkommende stilles overfor.
TITAN-systemet skal således højne brugerens refleksionsniveau og give dem værktøjerne til kritisk at forholde sig til den information de stilles overfor. Men ligesom med de andre løsninger kan denne heller ikke stå alene. For det første fordi, dem der allerede har købt ind på konspirationsteorier, aldrig vil anvende et sådant system, og for det andet fordi den placerer ansvaret for at håndtere disinformation alene hos den enkelte, hvilket aldrig vil løse et samfundsproblem.
Her har jeg kun nævnt tre tilgange til at håndtere de udfordringer, vi står overfor med desinformation og teknologier som generativ AI, men der er selvsagt flere, og den helt central pointe her er, at udfordringer som f.eks. disinformation ikke kan løses ved at håndtere dem med én tilgang. Det er transverselle udfordringer, der kræver tværfaglige og multiaktør-tilgange og perspektiver. De tre nævnte måder at adressere disinformation kan være gode og nyttige, men fælles for dem er, at de ikke kan løse udfordringen alene. Hver af tilgangene beror på specifik ekspertise – skal vi løse udfordringen skal disse bringes i samspil.
Så faktisk er det der er brug for, på sin vis det samme som Einstein håbede at radioen kunne løse – tværgående udveksling af perspektiver fra forskellige ”kulturer”, som f.eks. fagfællesskaber indenfor IT, Jura og politologi, virksomheder, og ikke mindst helt almindelige borgere. Kun ved at skabe rummet for fælles dialog, skaber vi løsninger der tager hensyn til hvordan udfordringerne ser ud fra alle dele af samfundet.
Hvis vi skal løse samfundets store udfordringer, skal vi også turde bruge hele samfundet til at gøre det.
