Da Nationalt Center for Cybersikkerhed (NCSC) offentliggjorde sin første forudsigelser omkring AI I 2024 var det et alvorligt øjeblik for cybersikkerhedsmiljøet. Her var en velovervejet vurdering af den kortsigtede trussel fra ondsindet brug af teknologien. Dens advarsel – om at AI “næsten helt sikkert ville øge mængden og forstærke virkningen af cyberangreb i løbet af de næste to år” var et wake-up call for mange netværksforsvarere.
Efter at have set mange af NCSC's forudsigelser gå i opfyldelse, har samfundet ingen undskyldninger nu, hvor agenturet har offentliggjort sin opfølgende vurdering. Eksperter argumenterer for, at organisationer skal tage skridt nu for at sikre, at de ikke befinder sig på siden af en voksende digital kløft mellem dem, der er i stand til at håndtere truslen, og dem, der ikke er i stand til det.
Hvad NCSC siger
NCSC-rapporten endnu engang er det dyster læsning. Den advarer om, at AI vil fortsætte med at gøre cyberindbrud mere effektivt, og at et stigende antal trusselsaktører vil få adgang til sådanne værktøjer i løbet af de næste to år. Den tilføjer, at øget brug af AI blandt organisationer – især udbydere af kritisk infrastruktur (CNI) – også vil udvide deres angrebsflade betydeligt.
Her er disse vurderinger mere detaljeret:
1. En stigning i "hyppigheden og intensiteten" af cybertrusler
Trusselsaktører bruger allerede AI til at forbedre rekognoscering, sårbarhedsforskning og udvikling af udnyttelser (VRED), social engineering, generering af grundlæggende malware og exfiltrering af data. Dette vil øge "mængden og effekten" af indtrængen i løbet af de næste to år i stedet for at drive nye angreb. AI-assisteret VRED vil sandsynligvis være det "mest betydningsfulde" anvendelsesscenario.
2. Flere trusselsaktører bruger AI
Kriminel brug af AI vil stige frem til 2027, efterhånden som det indarbejdes i flere produkter. Trusselaktører vil blive bedre til at omgå beskyttelsesrækværker, der er indbygget i legitime modeller, og AI-drevne pentestværktøjer vil blive implementeret i "as-a-service"-tilbud, hvilket vil give en opmuntring til nye aktører.
3. Automatisering er på vej
Et "fuldautomatiseret, end-to-end avanceret cyberangreb" er usandsynligt før 2027. Men trusselsaktører vil eksperimentere med at automatisere nogle elementer i kill chain. Disse omfatter identifikation og udnyttelse af sårbarheder og hurtig opdatering af malware/infrastruktur for at undgå opdagelse. Dette vil gøre det mere udfordrende at identificere, spore og afbøde trusler uden AI.
4. En voksende zero-day-trussel fra avancerede aktører
Dygtige aktører, der er i stand til at "finjustere" AI-modeller eller bygge "suveræne AI-systemer", vil bruge dem til at konstruere zero-day-angreb – hvilket vil gøre kritiske systemer mere sårbare inden 2027.
5. AI udvider virksomheders angrebsflade
AI er i stigende grad forbundet med virksomhedssystemer (herunder OT) og data. Dette udgør en voksende risiko via direkte prompt injektion, softwaresårbarheder, indirekte prompt injektion og angreb i forsyningskæden. Disse teknikker er allerede i stand til at udnytte AI til bredere systemadgang.
AI-udviklere kan forværre disse risici ved at bringe usikre produkter på markedet, som indsamler omfattende datasæt, hvilket øger risikoen for at afmaskere brugere til målrettede angreb. Andre sikkerhedsproblemer kan omfatte:
- Svag kryptering (gør data sårbare over for aflytning)
- Dårlig identitetsstyring og -lagring (øger risikoen for tyveri af legitimationsoplysninger)
6. Cybersikkerhed i stor skala bliver kritisk
Efterhånden som flere trusselsaktører bruger AI til VRED til at udnytte systemer i stor skala og yderligere reducerer tiden mellem afsløring og udnyttelse, vil CNI- og OT-systemer i stigende grad blive eksponeret. En "digital kløft" kan vokse mellem systemer, der kan håndtere denne AI-aktiverede trussel, og et større antal, der er mere sårbare.
Den rigtige side af kløften
"På begge sider af hegnet sparer automatisering tid og øger produktiviteten. Ondsindede aktører er dog ofte de hurtigste til at få øje på fordelene ved teknologiske fremskridt," advarer Andy James, administrerende direktør for MSSP Custodian360.
"Vi går ind i en verden, hvor der er organisationer, der tror, de har tilstrækkelige kontroller og beskyttelser på plads, og dem, der ved, at de ikke har, men er parate til at acceptere risiciene. I virkeligheden ved ingen af dem, om de har tilstrækkelige kontroller på plads, og travlheden med at udnytte disse svagheder vil kun stige."
Han fortæller ISMS.online, at bedre medarbejderuddannelse og -bevidsthed vil hjælpe brugerne med at få øje på AI-baserede social engineering-tiltag, selvom disse hurtigt bliver mere og mere sofistikerede. De trusler, der er skitseret af NCSC, bør også være en drivkraft for større udbredelse af nultillid i virksomheder, argumenterer James.
Ruth Wandhöfer fra Center for Cybersikkerhed og Politik for Virksomheders Modstandsdygtighed (CSBR)) tilføjer, at organisationer bør droppe forældede værktøjer som SIEM og ineffektive værktøjer såsom firewalls og proaktivt anvende AI-drevet "direkte trusselsintelligens" (DTI).
"I modsætning til generel cybertrusselsefterretning (CTI), som giver dig en masse data, der uundgåeligt indeholder mængder af falske positiver og irrelevante datapunkter, giver DTI organisationer evidensbaseret trusselsefterretning, der er specifikt designet til din specifikke organisation," fortæller hun til ISMS.online.
"Når den er bedst, leverer denne teknologi et sofistikeret system, hvor AI og maskinlæring analyserer angrebsmønstre og giver trusselsovervågning i realtid. Denne organisationsspecifikke DTI er kurateret og automatisk integreret i virksomhedens sikkerhedsstak og fungerer som et automatiseret forsvarslag mod indgående trusler."
Det handler om at forhindre angreb, før de kan påvirke en organisation, ved at profilere modstandere, deres infrastruktur og TTP'er.
"Dette er endnu mere kritisk i forbindelse med stigende lovgivningsmæssige krav til organisationers egen og tredjeparts cybersikkerhedspolitik, såsom i DORA og NIS 2," tilføjer Wandhöfer.
Hvad angår AI som mål: Hun råder organisationer til at udvikle løsninger som store sprogmodeller (LLM'er) internt i stedet for at forbinde følsomme interne systemer til eksterne open source AI-løsninger.
"Med hensyn til AI, der udvider angrebsflader, er fremkomsten af agentisk AI en anden hurtigt voksende risikorealitet," advarer Wandhöfer. "Agentisk AI kan hackes, forgiftes med malware for at udtrække data eller udføre svigagtige aktiviteter og meget mere."
En redning for underressourcede IT-teams kunne være et forbedret samarbejde mellem sikkerhedsmiljøet.
"Med den endelige vedtagelse af dataloven (brug og adgang) håbes det, at større deling af efterretninger mellem industrien og den offentlige sektor samt på tværs af brancher vil afbøde virkningen af ondsindet kunstig intelligens," konkluderer hun.
I mellemtiden vil IT- og compliance-ledere gøre klogt i at holde øje med den seneste udvikling og for alvor begynde at indarbejde AI-trusler i deres risikoplanlægning.










