San Francisco, Kalifornien
Publicerat: 21 november 2024, 14:00
Artificiell intelligens (AI) utvecklas snabbt och erbjuder stora möjligheter inom biovetenskap och medicinsk forskning. Men experter varnar för att samma teknik som kan användas för att utveckla läkemedel och vaccin kan missbrukas för att designa farliga patogener, vilket kan leda till pandemier. Vid ett möte i San Francisco denna vecka diskuterar forskare, regeringar och AI-utvecklare hur man bäst kan mildra dessa risker och säkerställa att AI används etiskt och säkert.
AI:s potential och risker
AI-modeller som GPT-4o och dess efterföljare kan automatisera laboratorieexperiment och designa molekyler och proteiner med hög precision. Tidigare studier har visat att AI kan:
- Utforma antikroppar mot SARS-CoV-2:s spikeprotein.
- Automatisera biologiska experiment med minimalt mänskligt ingripande.
- Designa potenta nanokroppar för att bekämpa sjukdomar.
Samtidigt kan samma teknik möjliggöra:
- Design av patogener som kan undvika immunitet: AI kan utveckla virusstammar som undgår immunförsvar, vilket ökar risken för pandemier.
- Modifiering av virus för ökad smittspridning: Genom att använda genetisk data kan AI skapa mutationer som gör patogener mer överförbara mellan arter.
- Utveckling av selektiva patogener: AI kan integrera mänsklig genomdata med patogendata för att skapa virus som är riktade mot specifika populationer.
Bristen på reglering och enhetliga tester
Trots att regeringar har vidtagit vissa åtgärder, som USA:s exekutiva order om AI-säkerhet och FN:s initiativ för AI-reglering, saknas en tydlig och global strategi för att hantera biohot från AI. Tester för att identifiera potentiellt skadliga AI-funktioner är ofta resurskrävande, vilket gör dem svåra för mindre företag och akademiska institutioner att genomföra.
Rekommendationer för säker användning av AI
Experter från Johns Hopkins Center for Health Security och RAND föreslår följande åtgärder:
- Prioritera pandemiskala risker: Fokusera på AI-förmågor som kan orsaka global störning, som utveckling av smittsamma patogener.
- Skapa oberoende granskningsinstanser: AI-säkerhetsinstitut i länder som USA och Storbritannien bör utveckla standarder och metoder för riskhantering.
- Automatisera säkerhetstester: Precis som inom cybersäkerhet bör AI-tester göras enklare och mer tillgängliga genom automatisering.
- Bygg objektiv vetenskaplig konsensus: Samla experter från olika discipliner för att enas om vilka risker som kräver mest uppmärksamhet och hur de ska mildras.
Nästa steg
Den globala AI Action Summit i Paris i februari 2025 kommer att samla statsledare och industriledare för att utveckla en global strategi för säker AI-användning. Målet är att bygga tillit till AI baserat på vetenskapligt konsensus och gemensamma säkerhetsstandarder.
Källa: Nature
Taggar: AI-säkerhet, Bioteknik, Bioterrorism, Pandemirisker, Bioetik