vil Storbritanniens ai-vækstplaner også mainline cybertrusler blog

Vil Storbritanniens AI-vækstplaner også "mainline" cybertrusler?

Storbritannien har i over et årti været en økonomisk underpræster. Siden finanskrisen i 2008-9 er produktiviteten knap steget, hvilket øger landets eksponering for økonomiske chok, har ført til folkelig utilfredshed og ført til forringede offentlige tjenester. Den nye regering mener, at den har et svar: AI. En stor ny handlingsplan for AI-muligheder afsløret i januar er designet til at levere et "årti med national fornyelse" ved at "mainline AI i denne driftige nations årer".

Men som eksperter har advaret, introducerer det også betydelige nye muligheder for trusselsaktører til at stjæle, sabotere, afpresse og forstyrre. Nøglen vil være at sikre, at de organisationer, der er tilmeldt til at gøre planen til virkelighed, designer deres AI-infrastruktur og -systemer med sikkerhed i tankerne helt fra starten.

Hvad er i planen?

Selve planen, som regeringen hævder, at den vil vedtage fuldt ud, mangler bestemt ikke ambitioner. Der er otte nøgleelementer:

Grundlæggende med AI-infrastruktur

Dette omfatter opbygning af en dedikeret AI-forskningsressource (AIRR) af avancerede AI-kompatible computere og etablering af "AI-vækstzoner" for at fremskynde opførelsen af ​​datacenter i den private sektor.

Oplåsning af dataaktiver

Udvikling af et nationalt databibliotek (NDL), som vil gøre offentlige datasæt tilgængelige "sikkert og etisk" for AI-forskere og innovatører. Disse planer vil også involvere opbygning af den offentlige sektors dataindsamlingsinfrastruktur, finansiering af oprettelsen af ​​nye datasæt af høj værdi og tilskyndelse til industrien til at "kuratere og låse op for private datasæt."

Træning og færdigheder

Vurdering af kløften i AI-kompetencer, forbedring af mangfoldigheden i talentpuljen, støtte til videregående uddannelser for at øge antallet af AI-kandidater og tiltrække faglærte arbejdere fra udlandet.

Regulering, sikkerhed og sikring

Udvikling af AI Safety Institute, gør "UK tekst- og datamining-regimet" mere konkurrencedygtigt, finansierer "hurtigt" regulatorer for at forbedre deres AI-ekspertise og sikrer, at alle sponsorafdelinger prioriterer "sikker AI-innovation". Planen nævner også pro-innovationsinitiativer som regulatoriske sandkasser og opbygning af statsstøttede "værktøjer til sikring af høj kvalitet" til at vurdere AI-sikkerhed.

Brug en "Scan > Pilot > Skala" tilgang

Foregribelse af fremtidige AI-udviklinger, konsekvent og hurtig pilotering og prototyping og fokus på skalering til titusinder eller hundreder af millioner af borgerinteraktioner i hele Storbritannien. Denne fase refererer også til behovet for infrastrukturinteroperabilitet, kodegenanvendelighed og open sourcing.

Forstærkning af den offentlige og private sektor

Regeringen planlægger at bruge sin omfattende og nybyggede digitale infrastruktur til at skabe nye muligheder for innovatører, skabe en AI-videnhub og drive den private sektors interesse for Scan > Pilot > Scale-tilgangen til hurtige gevinster.

Håndter brugeradoptionsbarrierer

Forbedre adoptionen af ​​den offentlige og private sektor via sektorspecifikke AI-forkæmpere og en ny industriel strategi.

Avanceret AI

Opret en ny regeringsenhed med magten til at samarbejde med den private sektor for at maksimere Storbritanniens andel i grænseoverskridende AI.

Mere end læbeservice?

Som det er typisk med større regeringsmeddelelser, mangler mange af detaljerne at blive udarbejdet. Så selvom "sikkerhed" er nævnt 14 gange i planen, er det kun i de mest vage vendinger, såsom at regeringen "er forpligtet til at bygge banebrydende, sikker og bæredygtig AI-infrastruktur", eller at den "ansvarligt, sikkert og etisk vil låse op for værdien af ​​den offentlige sektors dataaktiver".

Alligevel er der god grund til at være bekymret over konsekvenserne. Ifølge World Economic Forum (WEF) 's Global Risks Report 2025, "Uønskede resultater fra AI-teknologier" blev af virksomhedsledere og eksperter rangeret som den sjette mest alvorlige risiko i løbet af det næste årti. Disse resultater kan komme fra dårligt designede modeller eller ondsindede handlinger som data/modelforgiftning. I sidstnævnte scenarie får trusselsaktører adgang til AI-systemer for at ødelægge træningsdataene eller manipulere modelparametre til enten at sabotere eller forårsage specifikke, uønskede output.

De kunne bruge den samme adgang til AI-infrastruktur til at stjæle følsomme virksomheds- og kundetræningsdata, eller endda en stor sprogmodel (LLM), hvis den er blevet finjusteret af en organisation til et specifikt formål og derfor repræsenterer værdifuld IP i sig selv.

Desværre afslører forskning, at nøglekomponenterne i næste generations AI-tilgange som retrieval augmented generation (RAG) og autonom "agent AI" er fyldt med sikkerhedsfejl. En rapport hævder at have fundet flere sårbarheder i LLM-hostingværktøjer og -platforme som llama.cpp og Ollama, samt vektordatabaser som ChromaDB. Den afslører også snesevis af offentligt eksponerede servere og instanser forbundet med sådanne værktøjer, hvoraf mange ikke kræver godkendelse. Det er ikke for at nævne risikoen ved kompromitterede legitimationsoplysninger.

"En høj procentdel af cyberangreb bruger stjålne legitimationsoplysninger - så angribere logger ind i stedet for at hacke ind," siger SoSafe CSO Andrew Rose til ISMS.online. "Mange firmaer skaber AI-chatbots for at hjælpe deres personale, men få har gennemtænkt scenariet med, at deres chatbot bliver medskyldig i et angreb ved at hjælpe angriberen med at indsamle følsomme data, identificere nøglepersoner og nyttig virksomhedsindsigt."

Eksperter hejser røde flag

Andre sikkerhedseksperter har også slået alarm over regeringens planer. Michael Adjei, direktør for systemteknik hos Illumio, advarer om et "skjult lag" af proprietær og utilstrækkeligt undersøgt AI-teknologi, som trusselsaktører kan målrette mod via de modstridende dataforgiftningsangreb forklaret ovenfor.

"Udfordringen er, at de skjulte lag af AI fungerer gennem 'lærte repræsentationer', hvilket er svært for sikkerhedsteams at fortolke og overvåge for sårbarheder. Dette gør det sværere at opdage manipulerede AI-modeller, især i systemer, der fungerer autonomt eller i realtid,” siger han til ISMS.online.

"AI-forsyningskæden udgør yderligere risici. Kompromitterede tredjepartsdata, træningsmiljøer, software eller hardware kan bringe hele AI-systemer i fare. For eksempel kunne angribere injicere ondsindede data i træningsdatasæt, skabe skævheder eller sårbarheder i AI-modeller."

Regeringsplanen henviser til open source-software, en særlig bekymring i forsyningskæden i betragtning af branchens veldokumenterede sikkerhedsudfordringer.

Bridewell CTO Martin Riley har en baggrund inden for design og drift af datacenter. Han advarer om, at "datacentermarkedet ikke er velreguleret, og modenheden af ​​cybersikkerhed omkring disse faciliteter mangler noget." Han løfter også et rødt flag om NDL.

"NDL vil primært sigte mod at sikre, at den private sektor kan innovere for at støtte den offentlige sektor, så stringens omkring data, anonymisering og beskyttelse af enkeltpersoner kommer til at skabe flere cybersikkerhedsudfordringer," siger Riley. "Hvad vil kravene til cybersikkerhed være for dem, der ønsker at få adgang til NDL og bruge dens data?"

SoSafe's Rose ønsker at se et større fokus på governance.

"Jeg håber at se regeringen gentage, at AI skal overholde eksisterende regler, såsom databeskyttelsesstandarder. At insistere på kvalitet og kontrol for inputdata ville være klogt at sikre et kvalitetsoutput, der mangler bias, men det bliver en udfordring, når datasættene bliver store og vidtfavnende, hentet mange steder fra,” forklarer han.

"Nøglen er at insistere på, at firmaer, der omfavner AI, nedsætter en styrings- og tilsynskomité. Det bør kræve en opgørelse over, hvor AI bruges, og omfanget af dets ansvar, understøttet af risikovurderinger af den potentielle skade forårsaget af fejlagtige output eller fejl, og genopretningsveje for eventuelle fejl eller brud."

ISO 42001 til redning

Tilsynsmyndigheder vil spille en væsentlig rolle i at sikre, at regeringens ambitioner realiseres sikkert, sikkert og etisk. AI Safety Institute bliver et lovpligtigt organ, sponsorafdelinger vil blive finansieret til at "opskalere deres AI-kapaciteter", og "sikker AI-innovation" vil blive fremhævet i vejledningen til disse regulatorer.

Men selvom det stadig er at se, hvilke nye regler der kan implementeres som et resultat, er der allerede standarder for bedste praksis, der kan hjælpe AI-udviklere og -brugere med at navigere i de lovgivningsmæssige rammer, der kommer deres vej. ISO 42001er for eksempel designet til at drive ansvarlig brug og styring af AI-styringssystemer.

"Det giver retningslinjer for sikker brug af AI, hjælper udviklere med at implementere mekanismer til at opdage usædvanlig adfærd eller uventede output, hvilket reducerer modtageligheden for manipulation," siger Illumios Adjei.

SoSafes Rose er enig.

"ISO 42001 er en effektiv metode til at hjælpe organisationer med at adoptere AI opmærksomt. Det driver en omhyggelig tilgang til at vurdere og kontrollere implementeringen af ​​AI, der sikrer, at der er tilstrækkelig indsigt og overblik over tilknyttede risici,” slutter han.

“Ligesom ISO 27001 gør det dig ikke sikker. Det skaber dog en vej til løbende vurdering og forbedring, hvilket øger sandsynligheden for at skabe en robust løsning.”

Vi vil vide meget mere om regeringens planer i foråret, selvom med den britiske økonomi i dårlig form, er det stadig at se, om finansministeriet vil blokere eller udvande mange af disse initiativer. Uanset hvad der sker, lad os håbe, at indbygget sikkerhed og forbedret AI-styring ikke er til forhandling.

SOC 2 er her! Styrk din sikkerhed og opbyg kundernes tillid med vores kraftfulde overholdelsesløsning i dag!