Generativ artificiell intelligens skapar effektivare påverkan
De stora språkmodellerna har förändrat världen på många sätt. Utvecklingen av artificiell intelligens ger ovänliga statliga aktörer verktyg för ny och effektivare påverkan.
Utvecklingen av generativ artificiell intelligens har dominerat teknologisektorn på 2020- talet. Med hjälp av statistiskt resonemang skapar de stora språkmodellerna ny trovärdig text utgående från sitt utbildningsmaterial. Interaktiva konsumentapplikationer, till exempel ChatGPT, har gjort språkmodellerna tillgängliga för alla i vardagen. Med generiska modeller kan man också mycket snabbt skapa nytt bild- och videomaterial.
Även fientliga påverkare har märkt fördelarna med artificiell intelligens. Man har upptäckt att kommersiella AI-applikationer utnyttjas till exempel för att skapa polariserande innehåll i sociala medier och för att koda sådana hjälpmedel som behövs för påverkansverksamhet. I framtiden kan artificiell intelligens utmana den nationella säkerheten på oväntade sätt.
Det går snabbt och enkelt att skapa desinformation också på finska
Tack vare språkmodellerna har det blivit betydligt lättare att effektivt skapa desinformation på sällsynta språk, som till exempel finska. Det kan vara mycket svårt att skilja åt en text som producerats av språkmodeller och en text som skrivits av en människa. När det gäller informationspåverkan är snabbhet det centrala: med hjälp av AI- agenter som grundar sig på språkmodeller är det lätt att snabbt reagera till exempel på aktuella nyhetshändelser.
Man kan dra nytta av den här snabba reaktionsförmågan till exempel i valpåverkan. Med förfalskat bildmaterial (djupfejk) kan man skapa förvirring i informationsmiljön och med hjälp av falska påståenden ifrågasätta sanningen. Med AI-agenter kan man också automatisera förekomsten av så kallade trollarméer och till exempel snabbt skapa falska webbplatser som framstår som mycket äkta.
Språkmodellerna utmanar medieläskunnigheten och sprider snedvriden information
AI-modellerna kan, beroende på sitt utbildningsmaterial och ursprung, innehålla snedvridningar eller inbyggd propaganda, till exempel förvrängd historia som redigerats av auktoritära stater. De här snedvridningarna kan gå i arv från äldre språkmodeller till nya.
Många människor förhåller sig reservationslöst till AI-producerad information i vardagen, eftersom den vid första anblicken verkar trovärdig. Alla kan till exempel inte skilja sökmotorernas AI-sammandrag från de egentliga sökresultaten. Medieläskunnighet innebär att man förstår den artificiella intelligensens begränsningar: även om den text som språkmodellerna producerar framstår som trovärdig, förstår språkmodellerna i verkligheten ingenting. Modellerna är fortfarande en slags ”svart låda” och det går inte alltid att bedöma om den producerade informationen är korrekt. Språkmodellernas statistiska språkproduktion skapar ofta texter som saknar verklighetsgrund och är i linje med användarens tankar. Utvecklarna fastställer ibland också begränsningar för modellerna, som därför ibland undviker att svara på vissa frågor.
Bristande AI-läskunnighet kan påverka fenomen som hotar den nationella säkerheten, till exempel ifall diskussioner som förts med språkmodellerna leder till fördjupad radikalisering.
Kritiska system som kodats med artificiell intelligens kan innehålla sårbarheter
Språkmodellerna har i hög grad effektiverat programvaruutvecklingen. Vibe-kodning är en metod där artificiell intelligens producerar en programkod i enlighet med en människas instruktioner (prompt). Vibe-kodning försämrar i synnerhet på lång sikt oerfarna utvecklares förståelse för hur programvarorna fungerar, vilket är en risk särskilt i kritiska infrastruktursystem. AI-assisterad programvaruutveckling kan leda till att kritiska system innehåller programmeringsfel, säkerhetssårbarheter eller till och med en skadlig kod som avsiktligt smugits in i språkmodellens utbildningsmaterial.
AI-applikationerna på nätet kan ta till vara alla inmatade data
Språkmodeller som fungerar på nätet leder till betydande risker för informationsläckor. AI-applikationer kan spara alla data som matats in i dem till exempel för att utbilda språkmodeller. Den sparade informationen kan många år senare hamna hos eller läcka till fientliga aktörer. Även om användarna är medvetna om informationssäkerhetsriskerna med språkmodellerna, kan applikationernas användbarhet få användarna att försumma informationssäkerhetsanvisningarna. Även i Finland hamnar känslig information i offentliga AI-applikationer både av misstag och till följd av likgiltigt handlande.