Översikt av den nationella säkerheten 2026

Spionage och påverkan

Generativ artificiell intelligens skapar effektivare påverkan

De stora språkmodellerna har förändrat världen på många sätt. Utvecklingen av artificiell intelligens ger ovänliga statliga aktörer verktyg för ny och effektivare påverkan.

Datacenter

Utvecklingen av generativ artificiell intelligens har dominerat teknologisektorn på 2020- talet. Med hjälp av statistiskt resonemang skapar de stora språkmodellerna ny trovärdig  text utgående från sitt utbildningsmaterial. Interaktiva konsumentapplikationer, till  exempel ChatGPT, har gjort språkmodellerna tillgängliga för alla i vardagen. Med  generiska modeller kan man också mycket snabbt skapa nytt bild- och videomaterial.

Även fientliga påverkare har märkt fördelarna med artificiell intelligens. Man har upptäckt att kommersiella AI-applikationer utnyttjas till exempel för att skapa polariserande innehåll i sociala medier och för att koda sådana hjälpmedel som behövs för  påverkansverksamhet. I framtiden kan artificiell intelligens utmana den nationella säkerheten på oväntade sätt.

Det går snabbt och enkelt att skapa desinformation också på finska

Tack vare språkmodellerna har det blivit betydligt lättare att effektivt skapa desinformation på sällsynta språk, som till exempel finska. Det kan vara mycket svårt att  skilja åt en text som producerats av språkmodeller och en text som skrivits av en  människa. När det gäller informationspåverkan är snabbhet det centrala: med hjälp av AI- agenter som grundar sig på språkmodeller är det lätt att snabbt reagera till exempel på  aktuella nyhetshändelser.

Man kan dra nytta av den här snabba reaktionsförmågan till exempel i valpåverkan. Med  förfalskat bildmaterial (djupfejk) kan man skapa förvirring i informationsmiljön och med  hjälp av falska påståenden ifrågasätta sanningen. Med AI-agenter kan man också  automatisera förekomsten av så kallade trollarméer och till exempel snabbt skapa falska  webbplatser som framstår som mycket äkta.

Språkmodellerna utmanar medieläskunnigheten och sprider snedvriden information

AI-modellerna kan, beroende på sitt utbildningsmaterial och ursprung, innehålla  snedvridningar eller inbyggd propaganda, till exempel förvrängd historia som redigerats  av auktoritära stater. De här snedvridningarna kan gå i arv från äldre språkmodeller till nya.

Många människor förhåller sig reservationslöst till AI-producerad information i vardagen, eftersom den vid första anblicken verkar trovärdig. Alla kan till exempel inte skilja  sökmotorernas AI-sammandrag från de egentliga sökresultaten. Medieläskunnighet innebär att man förstår den artificiella intelligensens begränsningar: även om den text  som språkmodellerna producerar framstår som trovärdig, förstår språkmodellerna i verkligheten ingenting. Modellerna är fortfarande en slags ”svart låda” och det går inte alltid att bedöma om den producerade informationen är korrekt. Språkmodellernas  statistiska språkproduktion skapar ofta texter som saknar verklighetsgrund och är i linje  med användarens tankar. Utvecklarna fastställer ibland också begränsningar för modellerna, som därför ibland undviker att svara på vissa frågor.

Bristande AI-läskunnighet kan påverka fenomen som hotar den nationella säkerheten, till exempel ifall diskussioner som förts med språkmodellerna leder till fördjupad  radikalisering.

Kritiska system som kodats med artificiell intelligens kan innehålla sårbarheter

Språkmodellerna har i hög grad effektiverat programvaruutvecklingen. Vibe-kodning är  en metod där artificiell intelligens producerar en programkod i enlighet med en  människas instruktioner (prompt). Vibe-kodning försämrar i synnerhet på lång sikt oerfarna utvecklares förståelse för hur programvarorna fungerar, vilket är en risk  särskilt i kritiska infrastruktursystem. AI-assisterad programvaruutveckling kan leda till att  kritiska system innehåller programmeringsfel, säkerhetssårbarheter eller till och med en  skadlig kod som avsiktligt smugits in i språkmodellens utbildningsmaterial.

AI-applikationerna på nätet kan ta till vara alla inmatade data

Språkmodeller som fungerar på nätet leder till betydande risker för informationsläckor.  AI-applikationer kan spara alla data som matats in i dem till exempel för att utbilda  språkmodeller. Den sparade informationen kan många år senare hamna hos eller läcka till fientliga aktörer. Även om användarna är medvetna om informationssäkerhetsriskerna med språkmodellerna, kan applikationernas användbarhet få användarna att försumma informationssäkerhetsanvisningarna. Även i Finland hamnar känslig information i  offentliga AI-applikationer både av misstag och till följd av likgiltigt handlande.