AI-agenter blir en alltmer integrerad del av organisationers arbetsflöden – de fungerar som digitala medarbetare, med förmåga att anropa API:er, sätta i gång arbetsflöden, påverka produktionssystem och agera i maskinhastighet. Det innebär betydande möjligheter till effektivisering. Men det synliggör också var ansvar och styrning kan brista, och var mänsklig övervakning inte längre kan garanteras.
I Sverige har DORA-förordningen börjat gälla för finansiella aktörer sedan den 17 januari 2025. NIS2 har utvidgat kraven på hantering av cyberrisker till 18 kritiska sektorer och lagt ett uttryckligt ansvar för dessa risker på den högsta ledningen. Och den 2 augusti 2026 börjar merparten av reglerna i EU:s AI-förordning att tillämpas, däribland bestämmelserna för högrisk-AI och inledningen av tillsynen. För svenska organisationer är styrning därför inte längre en framtidsfråga – det är redan ett operativt krav.
Världsekonomiskt forum uppger i en undersökning att 94 procent av de tillfrågade förväntar sig att AI blir den främsta drivkraften bakom förändringar inom cybersäkerhet det kommande året. Organisationen konstaterar också att 65 procent av de stora företagen ser sårbarheter hos tredje part och i leveranskedjan som det största hindret för cyberresiliens.
Den sista punkten är särskilt viktig för Sverige, där organisationer är beroende av långa digitala värdekedjor: molnplattformar, SaaS-verktyg, betalningssystem, outsourcade verksamheter, integrationer mellan offentlig och privat sektor samt internationella leverantörskedjor för mjukvara. När en AI-agent agerar över dessa lager blir identiteten både möjliggörare och riskfaktor.
Trots detta försöker de flesta organisationer fortfarande styra dessa nya arbetsflöden med en modell som är byggd för en äldre värld: en människa loggar in, ett system beviljar åtkomst, en åtgärd utförs och loggarna förklarar i efterhand vad som hänt.
I sådana situationer är den avgörande frågan inte om systemet vid någon tidpunkt har autentiserats. Frågan är om åtgärden över huvud taget borde ha fått ske autonomt. Det kan hanteras genom att prioritera en auktoriseringsmodell med human in the loop – en kraftfull ny arkitektur för tillförlitlig AI som identifierar specifika kategorier av åtgärder där mänsklig auktorisering krävs.
Detta är den princip som jag menar att styrelser bör anta redan nu: alla AI-åtgärder kräver inte en människa, men varje högriskåtgärd som utförs av AI kräver ett bevisbart mänskligt beslut. Det innebär att trösklar måste definieras innan agenter släpps in i produktionsmiljön: en överföring över ett visst belopp, en betalning till en ny motpart, åtkomst till känslig immateriell egendom eller reglerade data, en produktionssättning i en kritisk miljö eller en säkerhetsåtgärd som kan slå ut tjänster.
Human in the loop bör fungera som en kontrollmekanism: policystyrd och reserverad för de punkter där ansvar faktiskt spelar roll. Med rätt utformning så bromsar den inte automatiseringen, utan den möjliggör den. Den gör det möjligt för organisationer att automatisera offensivt där risken är låg, samtidigt som verifierad mänsklig auktorisering reserveras för den mindre grupp åtgärder där konsekvenserna är betydande.
För ledningsgrupper är agendan nu förvånansvärt konkret. Vilka åtgärder ska en AI-agent få utföra på egen hand? Vilka åtgärder kräver mänskligt godkännande? Och hur ska organisationen kunna bevisa vem som godkände vad, enligt vilken policy och med vilken säkerhetsnivå? Vi behöver samlas kring dessa frågor för att hjälpa ledningsgrupper att besvara dem och därmed rusta sig för att styra agentisk AI.
Bli medlem och hjälp oss försvara företagarnas villkor
Vi är en fri röst för företagare – utan presstöd eller särintressen. Med ditt stöd kan vi fortsätta granska
myndigheter, dela kunskap och driva debatt i frågor som påverkar dig som företagare.
Tillsammans gör vi skillnad för landets värdeskapare.