
En ny studie publicerad i Proceedings of the National Academy of Sciences (PNAS) av Emma Hoes och Fabrizio Gilardi (2025) undersöker hur narrativ om existentiella risker kopplade till artificiell intelligens (AI) påverkar allmänhetens uppfattning om dess omedelbara skador. Studien utmanar den så kallade ”distraktionshypotesen”, som hävdar att fokus på långsiktiga katastrofrisker kan minska uppmärksamheten på de mer akuta problem som AI orsakar idag.
Bakgrund: Risknarrativ om AI
AI har länge varit föremål för debatt, där riskerna delas in i två huvudsakliga kategorier:
- Existentiella risker: Hypotetiska scenarier där AI hotar mänsklighetens överlevnad, exempelvis genom att utveckla superintelligens.
- Omedelbara skador: Konkreta problem som AI redan orsakar, såsom algoritmisk partiskhet, spridning av desinformation och påverkan på arbetsmarknaden.
Distraktionshypotesen föreslår att narrativ om existentiella risker kan avleda uppmärksamheten från dessa omedelbara problem, vilket kan försvåra arbetet med att hantera dem.
Metod
Forskarna genomförde tre förregistrerade onlineexperiment med totalt 10 800 deltagare från USA och Storbritannien. Deltagarna exponerades för olika typer av nyhetsrubriker som:
- Betonar AI:s existentiella risker.
- Lyfter fram AI:s omedelbara samhällspåverkan.
- Fokuserar på AI:s potentiella fördelar.
Deltagarna ombads sedan att bedöma AI:s förmåga att orsaka olika typer av skador, sannolikheten för att dessa skador inträffar och deras potentiella påverkan.
Resultat
Studien fann att:
- Omedelbara risker prioriteras:
- Deltagarna uttryckte större oro för AI:s omedelbara skador, såsom partiskhet och desinformation, än för existentiella risker.
- Omedelbara risker rankades högre både i termer av sannolikhet och påverkan.
- Existentiella narrativ ökar oro för katastrofrisker:
- När deltagarna exponerades för rubriker om existentiella risker ökade deras oro för dessa långsiktiga hot.
- Detta minskade dock inte deras oro för omedelbara skador.
- Ingen konkurrens mellan risktyper:
- Studien visade att allmänheten kan hålla två tankar i huvudet samtidigt: de kan vara oroade över både omedelbara och långsiktiga risker utan att den ena typen av oro underminerar den andra.
Betydelse och implikationer
För AI-debatten:
- Resultaten utmanar idén att diskussioner om existentiella risker distraherar från omedelbara problem. Istället visar studien att båda typerna av risker kan diskuteras parallellt.
- Detta understryker vikten av en balanserad debatt som adresserar både dagens konkreta problem och framtida potentiella hot.
För policy och reglering:
- Policymakare bör fokusera på att hantera omedelbara skador, såsom att minska algoritmisk partiskhet och reglera desinformation, samtidigt som de investerar i forskning om långsiktiga risker.
- En holistisk strategi som tar hänsyn till hela spektrumet av AI:s risker är avgörande för att maximera dess fördelar och minimera dess negativa effekter.
Slutsats
Studien av Hoes och Gilardi visar att narrativ om existentiella risker inte distraherar från omedelbara skador orsakade av AI. Istället kan dessa narrativ samexistera och bidra till en mer nyanserad förståelse av AI:s samhällspåverkan. Detta ger viktiga insikter för både forskare och beslutsfattare som arbetar med att hantera AI:s risker.
Referens
- Hoes, E., & Gilardi, F. (2025). Existential risk narratives about AI do not distract from its immediate harms. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.2419055122