udviklere ncsc ai retningslinjer blog

Hvordan en ISMS kan hjælpe udviklere med at følge NCSC's nye retningslinjer for sikker AI

EU er uden tvivl den nuværende globale leder, når det kommer til AI-regulering. Dog fejlbehæftet dens nye AI-loven kan være, repræsenterer det en betydelig præstation. Det Forenede Kongerige tager en mere håndfri tilgang, på trods af at det markerer sin ambition om at være en ansvarlig global aktør, ved at indkalde til et globalt AI Safety Summit i november sidste år. Kort efter producerede dets National Cyber ​​Security Center (NCSC). et nyt sæt retningslinjer til sikker AI-systemudvikling.

Retningslinjerne hyldes af US Cybersecurity and Infrastructure Security Agency (CISA) som en "nøglemilepæl", og retningslinjerne er et godt første skridt i at hjælpe udviklere med at bygge security-by-design-principper ind i deres arbejde. Den endnu bedre nyhed er, at de kan bruge eksisterende bedste praksis til at hjælpe dem.

Hvad indebærer NCSC-retningslinjerne?

Det nye dokument er relevant for udbydere af alle systemer, der indeholder AI – uanset om de er bygget fra bunden eller oven på eksisterende tjenester. De er også blevet godkendt af Amazon, Google, Microsoft og OpenAI, samt flere andre lande, herunder hele G7, plus Chile, Tjekkiet, Estland, Israel, Nigeria, Norge, Polen, Singapore og Sydkorea. Retningslinjerne er opdelt i fire afsnit:

Sikkert design

Overvejelser på den første fase af AI-udvikling omfatter:

  • Øg bevidstheden om trusler og risici blandt dataforskere, udviklere, seniorledere og systemejere. Udviklere skal trænes i sikre kodningsteknikker og sikker og ansvarlig AI-praksis
  • Anvend en "holistisk proces" til at vurdere trusler mod AI-systemet og forstå den potentielle indvirkning på systemet og brugerne/samfundet, hvis AI'en kompromitteres eller opfører sig "uventet"
  • Design systemet til sikkerhed samt funktionalitet og ydeevne. Dette vil kræve forsyningskæden risikostyring, og integrationen af ​​AI-softwaresystemudvikling i eksisterende sikker praksis
  • Forstå sikkerhedsafvejninger såvel som fordele, når du vælger en AI-model. Valg af modelarkitektur, konfiguration, træningsdata, træningsalgoritme og hyperparametre bør foretages i henhold til organisationens trusselsmodel og regelmæssigt revurderes

Sikker udvikling

På udviklingsstadiet skal du overveje:

  • Vurdering og overvågning af forsyningskædesikkerhed på tværs af AI-systemets livscyklus. Leverandører bør overholde de samme standarder, som organisationen anvender for anden software
  • Identifikation, sporing og beskyttelse af AI-relaterede aktiver, herunder modeller, data, prompter, software, dokumentation, logfiler og vurderinger
  • Dokumentation af oprettelse, drift og livscyklusstyring af modeller, datasæt og meta-prompter
  • Håndtering og sporing af teknisk gæld gennem AI-modellens livscyklus

Sikker implementering

På implementeringsstadiet skal du se på:

  • Sikring af infrastruktur efter best practice principper, som f.eks adgangskontroller til API'er, modeller og data og adskillelse af miljøer med følsom kode
  • Kontinuerlig best practice-beskyttelse af modellen mod direkte og indirekte adgang
  • Udvikling incident management procedurer
  • Frigivelse af modeller, applikationer eller systemer først efter sikkerhedsevaluering såsom red team-øvelser
  • Implementering af sikker konfiguration som standard, så det er nemmere for brugerne at gøre de rigtige ting

Sikker drift og vedligeholdelse

På den operationelle fase foreslår NCSC, at organisationer:

Hvordan en ISMS kan hjælpe

Et informationssikkerhedsstyringssystem (ISMS) kan gå langt for at sikre, at en organisations AI-systemer og -brug er sikre, robuste og troværdige, ifølge ISMS.online CTO Sam Peters. Han argumenterer for, at ISO 27001-overholdelse leverer en "skalerbar, top-down informationssikkerhedskultur" bygget på "risikodrevet, procesbaseret sikkerhed", som kan hjælpe udviklere, der ønsker at følge NCSC-retningslinjerne.

"Det smukke ved ISO 27001 er, at det rammer infosec som et organisatorisk styringsproblem," siger Peters til ISMS.online.

"Ved at tage denne styringstilgang til AI-sikkerhedsstrategi kan organisationer være sikre på, at de kan skalere sikkerheden bæredygtigt i stedet for blot at spille indhentning. Holdene har også klarhed over de grundlæggende forventninger. I sidste ende reducerer dette risikoen, selvom AI-systemer og brug bliver eksponentielt mere kompleks."

Peters ser syv nøgleområder for crossover mellem ISO 27001 og NCSC-retningslinjerne:

Risikovurderinger:

ISO 27001 pålægger regelmæssige infosec-risikovurderinger, som kan hjælpe med at afdække sårbarheder, trusler og angrebsvektorer i AI-systemer.

Politikker og procedurer:

Et ISMS kræver omfattende politikker og processer til styring af sikkerhed. Disse kunne skræddersyes til AI-systemer og tilpasses NCSC-retningslinjerne.

Adgangskontrol:

Rollebaseret adgangskontrol og rettighedsstyring er påkrævet af ISO 27001 og kan også hjælpe med at begrænse adgangen til følsomme AI-aktiver som datasæt og modeller.

Leverandørstyring:

ISO 27001-krav til revisioner og kontraktlige aftaler kan hjælpe med at håndtere risici i tredjepartsforhold med AI-leverandører.

Hændelseshåndtering:

ISO-standarden indeholder også krav til hændelseshåndtering, som organisationer kan bruge til at reagere på sikkerhed hændelser, der påvirker AI-systemer.

Sikkerhedsovervågning:

De lognings-, overvågnings- og advarselskontroller, der kræves for at overholde ISO 27001, kan hjælpe organisationer med at opdage unormal AI-systemadfærd og reagere på hændelser.

Sikkerhedsbevidsthed og træning:

ISO 27001-kravene på dette område kan udvides for at sikre, at nøgleinteressenter forstår de unikke sikkerhedsudfordringer ved AI-systemer og forbliver informeret om de seneste trusler og bedste praksis.

De næste trin

"Efterhånden som AI-teknologier udvikler sig og bliver mere indlejret i hverdagens processer, vil overlapningen mellem AI-sikkerhed og informationssikkerhed sandsynligvis vokse inden for områder som datasikkerhed, model robusthed, forklarbarhed og fortrolighed - som alt sammen bygger direkte på grundlaget for informationssikkerhed," Peters afslutter.

"Dette vil kræve en omfattende tilgang til sikkerhed, der tager hensyn til både traditionelle informationssikkerhedsprincipper og de unikke udfordringer, som AI-teknologier udgør."

Vil NCSC-retningslinjerne få udbredt vedtagelse? Da de er frivillige, er juryen stadig ude på den. Men for enhver organisation, der udvikler AI-systemer, anbefales de stærkt. Det er bedre at bruge tid og kræfter nu på at designe sikre systemer, end at risikere et alvorligt brud i fremtiden. En sådan hændelse kan koste organisationen mange gange mere at afhjælpe og komme sig fra omdømmemæssigt.

SOC 2 er her! Styrk din sikkerhed og opbyg kundernes tillid med vores kraftfulde overholdelsesløsning i dag!