Det er måske tre år siden, at lanceringen af ChatGPT startede et nyt teknologisk våbenkapløb, men alle øjne er nu rettet mod agentisk AI. Fortalere hævder, at den vil gå et skridt videre end generativ AI (GenAI) ved at arbejde uafhængigt for at udføre opgaver for sine menneskelige mestre. Næsten to tredjedele (62%) af organisationerne eksperimenterer allerede i det mindste med AI-agenter, mens større virksomheder skalerer ud over pilotfasen, ifølge McKinsey.
Men med autonomi følger risiko. Lige i sidste måned, Antropisk afsløret hvad den hævdede at være den første "AI-orkestrerede cyberspionagekampagne", der brugte sin Claude-chatbot til at målrette snesevis af organisationer. Det er en trussel, som analytikermiljøet også advarer om.
Forresters vigtige forudsigelser om cybersikkerhed For 2026 er udbredelsen af en agentisk AI, der vil forårsage et offentligt rapporteret brud, hvilket vil føre til afskedigelse af medarbejdere. Spørgsmålet er, om organisationer har værktøjerne, rammerne og knowhow til at håndtere sådanne risici, samtidig med at de udnytter de enorme forretningsmæssige fordele ved teknologien.
Sådan fungerer agentisk AI
Mens GenAI blot opsummerer og skaber indhold baseret på brugerprompter, er agentiske AI-systemer designet til at fungere uden konstant menneskelig overvågning for at fuldføre opgaver. For at gøre dette indsamler de information fra databaser, sensorer, brugere og API'er. Derefter behandler de disse data for at udtrække indsigt og kontekst. Dernæst sætter AI'en sig mål baseret på foruddefinerede mål eller brugerinput, finder ud af, hvordan de skal nås, og bruger ræsonnement til at vælge det bedste ud af flere mulige handlinger.
Dernæst kommer udførelsen af handlingen, normalt ved at interagere med tredjepartssystemer og -data. Og derefter evaluering af resultatet samt kontinuerlig forbedring og læring. Det er AI'ens evne til at udføre komplekse opgaver i flere faser på denne måde – potentielt dynamisk justering, efterhånden som nye oplysninger dukker op – der gør den så nyttig. Anvendelsesmulighederne er næsten ubegrænsede. Teknologien kan drive alt fra prædiktive vedligeholdelsesworkflows i industrielle miljøer til styring af kunderejser for e-handelsaktører.
Hvis den implementeres fornuftig, kan agentisk AI eliminere menneskelige fejl i manuelle opgaver, frigøre personale til at fokusere på arbejde med højere værdi og dramatisk forbedre den operationelle effektivitet og produktivitet. Disse effektiviseringer burde kunne reducere omkostningerne. Og AI-agenter kan også give et betydeligt løft til kundeoplevelsen i visse brancher.
Hvordan et brud kan ske
Men fordi der er mindre tilsyn med AI'en, er der større mulighed for ondsindet manipulation eller utilsigtet lækage af data, før sikkerhedsteams overhovedet ved, at der er noget galt. Jo vigtigere beslutninger en agent har beføjelse til at træffe, desto større er den potentielle risiko. Hurtig indsprøjtning er en stor bekymring. Ved at integrere ondsindede instruktioner i noget, som en agent behandler – såsom et dokument, en webside eller en online kommentar – kan en trusselsaktør narre den til at lække følsomme data.
Lækager kan også ske ved et uheld, hvis rækværk ikke er korrekt installeret. Agenter med overprivilegier og agentspredning øger sandsynligheden for, at noget går galt.
Forrester advarer om, at sikkerhedsbrud er mulige på grund af en "kaskade af fejl". Senioranalytiker Paddy Harrington giver ISMS.online tre scenarier:
For meget adgang til data: "I et kapløb med at implementere agentisk AI kan afdelinger og teams ignorere standardretningslinjer for zero trust-adgang. Og da det er et 'program' og ikke en person, kan de antage, at så længe de kun beordrer det til at få adgang til bestemte datasæt, bør det begrænse dets omfang," forklarer han. "Desværre, som man har lært ved ikke at have korrekt bruger- eller enhedssegmentering, kan enhver agent, der kan få adgang til data, manipuleres til at få adgang til disse data. Hvis man tilføjer tyveri af et godkendelsestoken, kan mængden af data, der kan suges op, lamme en virksomhed."
Dårlig godkendelseshygiejne: "Agenterne skal have autorisation for at få adgang til data, hvilket betyder godkendelse. Hvis godkendelsesmetoderne er for simple – statiske tokens er forkert lagret, eller måske en for bred autorisation – kan disse agenter manipuleres af trusselsaktører," siger Harrington. "Hvis en bruger opretter en agentisk arbejdsgang, og hvis der ikke er retningslinjer, er det muligt, at de sender data til eksterne lagre eller tilgår følsomme data via disse autonome arbejdsgange. Hvis der ikke er nogen beskyttelsesrækværk, kan det betyde, at HR-, økonomiske eller endda godkendelsesoplysninger afsløres."
Tillid til information med lav nøjagtighed: "Nøjagtigheden af mange probabilistiske modeller kan variere fra 60 % ned til 10 %. Hvis man sætter det i kontekst af IT- eller sikkerhedsadvarsler, kan man med en model, der lanceres hurtigt på markedet, have en række falske positiver eller, værre endnu, falske negative advarsler," argumenterer Harrington. "Dette kan distrahere teamene fra de faktiske problemer eller få dem til at overse dem fuldstændigt. Hvad angår kaskaden, når man opretter den agentiske arbejdsgang, hvor agenterne arbejder sammen, kan en løgn i en af dem få de efterfølgende agenter i arbejdsgangen til at leve af den løgn, generere deres egen og få dette til at fortsætte, så outputtet eller de endelige handlinger bliver et sikkerheds-/IT-mareridt."
Gelændere og politikker
Forresters råd er at følge deres Agentic AI Guardrails For Information Security (AEGIS) rammerDet er baseret på seks "domæner":
- Governance, risiko og compliance (GRC)
- Identitets- og adgangsstyring (IAM)
- Datasikkerhed og privatliv
- Ansøgningssikkerhed
- Trusselsstyring
- Zero Trust arkitektur
Analytikeren anbefaler at starte med GRC – etablering af governance, opbygning af agentinventarsystemer og definition af acceptabel brug. Den opfordrer sikkerhedsteams til derefter at opbygge IAM og datasikkerhed og behandle agenter som en "ny identitetsklasse". Dernæst bør der komme forbedringer af DevSecOps for at sikre agentlivscyklussen og opdage hallucinationer. Og endelig optimering via Zero Trust for at håndhæve minimumsindflydelse, overvåge uplanlagt adfærd og isolere uønskede agenter.
Best practice-standarder som ISO 42001 kan også hjælpe her, da der er en betydelig overlapning med AEGIS-tilgangen, siger Harrington. Uanset deres endelige metode opfordrer han organisationer til at sikre, at sikkerhed er indbygget i agentiske AI-projekter fra starten.
"Alle bevæger sig for hurtigt til, at den rette beskyttelse kan implementeres. Virksomhedsledere ser implementeringen af AI-agenter og agentworkflows som en kilde til enorme omkostningsbesparelser og øget effektivitet," konkluderer han.
"Sikkerhed, eller 'nej'-afdelingen, er ofte en hindring for hastighed, fordi vi fortæller folk, at de skal tage sig tid til at følge sikre driftspraksisser. Og disse fartbump ses som en hindring. Men stort set hver gang [sikkerhed ignoreres], ender det i sidste ende med smerte."










