Regeringen satser alt på kunstig intelligens. Annonceret i januar, dens Handlingsplan for AI-muligheder søger at fremme økonomisk vækst, forbedre kvaliteten af offentlige tjenester og give flere muligheder for folk. Men for at få succes med sin ambitiøse plan ved regeringen, at virksomheder skal have tillid til de produkter og tjenester, de ønsker at investere i. Det er her, AI-sikring kommer ind i billedet.
Det er en lille, men voksende sektor, der allerede havde en bruttoværditilvækst (BVT) på 1 mia. pund i 2024. Regeringen mener, at den med den rette støtte kan nå næsten 19 mia. pund i 2035. For at nå dertil har den netop offentliggjort en ny køreplan for tredjepartsudbydere af forsikring – en overset, men potentielt betydelig del af markedet.
Markedet modnes stadig
I forhold til økonomisk aktivitet er det britiske marked for AI-forsikring større end det i USA, Tyskland og Frankrig ifølge regeringens tal. Det anslås også, at så mange som 80 % af tredjepartsforsikringsfirmaer viser "vækstsignaler" – hvilket betyder, at betingelserne er de rette for at gøre Storbritannien til en verdensleder på området. Der er dog udfordringer. Blandt dem, der er nævnt i køreplanen, er:
- Kvaliteten af varer og tjenester, der tilbydes af tredjepartsudbydere af AI-sikring. Det er stadig uklart, hvilke tekniske standarder der skal anvendes på markedet for at mindske risikoen for skade eller tilbud af lav kvalitet.
- Den britiske AI-sikringssektor beskæftiger allerede anslået 12,500 mennesker, men udbyderne kæmper tilsyneladende med at finde kandidater med den rette blanding af færdigheder. En del af udfordringen er, at disse kan spænde betydeligt, fra teknisk kompetence til viden om relevante love, AI-styring og standarder. Manglende diversitet skader også sektoren, hævder regeringen.
- Adgang til information om AI-systemer er afgørende for virksomheder, der ønsker at levere relevante revisionstjenester. Men uanset om det er af sikkerhedsmæssige, kommercielle eller andre årsager, er mange leverandører tilbageholdende med at dele denne type information – som kan omfatte træningsdata, AI-modeller og information om ledelse og styring.
- Innovation i AI-sikringssektoren er afgørende for at fremme vækst, men kræver input fra en bred vifte af eksperter, herunder AI-udviklere. Udfordringen er, at der er relativt få fora for samarbejde inden for forskning og udvikling på dette område, hævder regeringen.
Bygningskvalitet
Heldigvis har regeringen en plan til at håndtere hver af disse udfordringer på skift. Det første fokus er at forbedre kvalitetssikringen. For at hjælpe britiske revisionsfirmaer med at differentiere sig og generelt øge kundernes tillid til markedet har regeringen tre idéer til at forbedre kvaliteten. Den ønsker at professionalisere branchen gennem certificering og/eller registrering af enkeltpersoner – selvom den indrømmer, at sådanne ordninger skal være omhyggeligt designet, udviklet i partnerskab med professionelle organisationer og understøttes af et uddannelsesøkosystem af høj kvalitet. Rapporten indrømmer, at det sandsynligvis stadig er for tidligt for en reguleret brancheorganisation og professionel standard forbundet med AI-sikring.
Den anden måde at forbedre kvaliteten på kunne omfatte at verificere kvaliteten af specifikke sikkerhedsprocesser – såsom risikovurdering eller bias-revision. Standarder som ISO 24027 kunne bruges til at udvikle relevante certificeringer på dette område, hævder rapporten. Men selvom standardisering af sikkerhedsprocesser kan forbedre konsistensen og adgangen til globale markeder, kan det udelukke mindre virksomheder med færre ressourcer fra markedet.
Endelig foreslår regeringen, at Storbritanniens nationale akkrediteringstjeneste (UKAS) kan hjælpe med at vurdere, om organisationer kan udføre overensstemmelsesvurderingsaktiviteter som certificering, testning og inspektion "kompetent, upartisk og konsekvent". Rapporten bemærker dog, at der ikke er mange standarder, der kan understøtte certificering fra akkrediterede revisionsudbydere, hvilket begrænser virkningen af sådanne skridt.
For at få sine planer i gang, indkalder Department for Science, Innovation and Technology (DSIT) et konsortium af interessenter til at udvikle "byggestenene", der er nødvendige for at professionalisere AI-sikringssektoren. Dette omfatter udvikling af en frivillig etisk kodeks, en ramme for færdigheder og kompetencer og derfra en professionel certificerings- eller registreringsordning, potentielt startende med AI-revision.
Andre indsatsområder
Færdigheder: Regeringen er indstillet på at samarbejde med det samme konsortium for at forbedre dette område og hævder, at Storbritannien skal uddanne titusindvis af AI-professionelle i løbet af de næste fem år – på tværs af både tekniske og ikke-teknologiske områder som samfundsmæssig indflydelse og etisk overholdelse. Eksisterende trænings- og certificeringsordninger som f.eks. IAPPs AI Governance-certifikat og programmer inden for cybersikkerhed, datalogi, intern revision og softwareudvikling kunne hjælpe her. Men der er stadig ingen klar vej for håbefulde AI-revisionsprofessionelle.
DSIT vil først samarbejde med konsortiet om en "omfattende ramme for færdigheder og kompetencer til AI-sikring", herunder en professionel certificeringsordning for AI, som kan trække på eksisterende certifikater og standarder inden for områder som cybersikkerhed. Når dette arbejde er færdigt, vil DSIT være i stand til at vurdere, om der er behov for mere for at støtte udviklingen af kurser og kvalifikationer.
Informationsadgang: Konsortiet skal samarbejde med Storbritanniens revisionsudbydere for at forstå deres informationskrav til forskellige typer af AI-sikringstjenester. Dette vil hjælpe det med at udvikle retningslinjer for bedste praksis for virksomheder, der bruger revisionstjenester, så de på forhånd ved, hvilken type informationsadgang der forventes.
Innovation: Regeringen vil oprette et nyt forum for samarbejde mellem flere interessenter; AI Assurance Innovation Fund. Fonden vil blive tildelt 11 millioner pund til at støtte forskning i innovative AI-sikringsmekanismer, så interessenter bedre kan identificere AI-risici. Ansøgninger vil være åbne for den første finansieringsrunde i foråret 2026. Fonden kan også støtte Storbritanniens AI Adoption Hubs.
Et vigtigt skridt
Sharron Gunn, administrerende direktør for BCS, The Chartered Institute for IT, fortæller ISMS.online, at regeringens plan vil bidrage til at vækste markedet for AI-sikring og opbygge offentlighedens tillid til AI-systemer.
"Regeringens engagement i at skabe en profession inden for AI-sikring, hvis udøvere er stolte af at være ansvarlige over for en etisk kodeks, er et kæmpe skridt fremad," tilføjer hun. "Det er også rigtigt, at et konsortium, herunder professionelle organisationer, får til opgave at udvikle denne kodeks og at anbefale de rette veje til registreringer og certificeringer inden for AI-sikring."
Jennifer Appleton, administrerende direktør for ISO Quality Services, argumenterer for, at køreplanen er et vigtigt skridt til at hjælpe organisationer med at "omsætte ambitioner til praktisk handling".
Hun fortæller ISMS.online: "Mange virksomheder er begejstrede for de muligheder, som AI kan bringe, men forbliver forsigtige med hensyn til styring, risiko og ansvarlighed. Ved at give en struktureret ramme har køreplanen potentiale til at vejlede organisationer i at integrere AI ansvarligt i deres drift."
Appleton er særligt tilfreds med køreplanens overensstemmelse med ISO 42001.
"At have en anerkendt international standard hjælper virksomheder med at demonstrere ikke kun overholdelse af regler, men også tillid, gennemsigtighed og etisk ansvarlighed i den måde, de anvender AI på. For mange organisationer vil dette være forskellen mellem at udforske AI i teorien og implementere det med selvtillid," siger hun.
"Som med alle nye rammer vil udfordringen naturligvis være at finde den rette balance mellem fleksibilitet og stringens, så det fungerer for virksomheder i alle størrelser og sektorer. Men samlet set repræsenterer det en positiv og tiltrængt udvikling, og vi ser frem til at støtte virksomheder i at anvende det i praksis."
Tom McNamara, administrerende direktør for Atoro, giver planerne en mere forsigtig velkomst. Han beskriver dem som "en logisk og fornuftig vej" ved at forsøge at definere professionen og opbygge viden, før certificeringsprocesserne finder sted. Han argumenterer dog for, at konsortiet skal ledes af dem, der er i frontlinjen, med "praktisk erfaring med at bygge og sikre AI-systemer".
"Rammeværkets succes hviler på en farlig antagelse: at de rigtige mennesker er til rådighed til at bygge det," fortæller McNamara til ISMS.online.
"Effektiv AI-sikring kræver dybdegående, teknisk viden om, hvordan disse modeller fungerer, ikke kun de resultater, de producerer. Konsortiets første og mest kritiske opgave er at få ægte AI-eksperter ind i rummet. Uden dem vil rammeværket være en velment, men hul øvelse."










