
Virksomheder opfordres til at spore 'hurtigt udviklende' AI-regler
Indholdsfortegnelse:
Kunstig intelligens (AI) transformerer informationsteknologisektoren med en svimlende hastighed. AI har transformeret applikationer, herunder dataanalyse, kundeservice og endda softwareudvikling. Virksomheder, der er langsomme til at indføre kunstig intelligens, risikerer store konkurrencemæssige ulemper. Men implementering af AI-teknologi kommer ikke uden risiko.
For eksempel: fejl i et AI-system designet til at tackle svindel med børnepasningsydelser, kastede familier i Holland ud i økonomisk nød. Amazon måtte skrotte et AI-rekrutteringsværktøj, der viste skævhed mod kvindelige kandidater.
Brugen af kunstig intelligens til dataindsamling og analyse rejser også problemer med privatlivets fred og potentialet for databrud, især i følsomme sektorer af økonomien. f.eks. mange banker har forbudt personalet at bruge værktøjer som ChatGPT og andre virtuelle AI-assistenter på grund af bekymring for, at arten af forespørgsler kan lække oplysninger om forretningshemmeligheder såsom planlagte opkøb eller fusioner.
En nylig rapport fra Center for Long-Term Resilience (CLTR) opfordrede Storbritannien til at oprette et system til at logge AI misbrug eller funktionsfejl hændelser. Tænketanken argumenterer for, at problemer med AI-teknologi skal behandles på samme måde, som Air Accidents Investigation Branch undersøger flyulykker.
Et hændelsesrapporteringssystem for AI-problemer giver mulighed for at udvikle bedste praksis inden for områder som risikostyring, lære lektioner og forme regler ifølge CLTR.
Reguleringsfremskridt
Mens regulering stadig er ved at indhente brugen af kunstig intelligens i virksomheder, er en afventende tilgang til overholdelse langt fra klog.
David Corlette, VP for produktstyring hos VIPRE Security Group, fortalte ISMS.online, at AI-regulering udvikler sig (næsten) sideløbende med selve teknologien.
"Selvom vi endnu mangler at se en omfattende ramme for kunstig intelligens - er der gjort bemærkelsesværdige fremskridt," ifølge Corlette. "Der er NIST AI Risk Management Framework (AI RMF) og selvfølgelig ISO 42001, som tilbyder en lovende tilgang til AI-styring. ISO 42001 vil bringe et niveau af konsistens og pålidelighed på tværs af grænserne."
At lægge et fundament
Rammer som f.eks ISO 42001 kan hjælpe med at etablere robuste fundamenter og lette byrden for at opnå overholdelse, når og når nye regler indføres.
ISO 42001 beskriver, hvordan virksomheder kan etablere en ramme for etablering og vedligeholdelse af et kunstig intelligens-ledelsessystem i deres organisation. Risikostyring er en af kernekomponenterne i rammeværket.
Ifølge Glenn Chisholm, medstifter og administrerende direktør for Obsidian Security, "ISO 42001-standarden lægger vægt på risikostyring og kan anvendes til at inkludere risici forbundet med AI, herunder etiske overvejelser, risiko- og konsekvensvurderinger, databeskyttelse, bias og løbende forbedringer ."
Chisholm tilføjede: "Selvom det ikke automatisk sikrer overholdelse af andre standarder, deler ISO 42001 mange attributter med standarder som EU AI Act, NIST AI RMF og andre."
Peter Wood, teknisk chef hos Spectrum Search, tilføjede: "Ved at vedtage ISO 42001 kan organisationer forenkle overholdelse af kommende regler gennem en proaktiv snarere end reaktiv tilgang. Dette giver organisationer mulighed for ubesværet at tilpasse sig skiftende lovgivningsmæssige landskaber, hvilket minimerer risikoen og potentielle sanktioner for manglende overholdelse."
Verdensomspændende initiativer
Internationale standarder udvikler sig hurtigt, og flere lande, såsom USA, Kina, Indien og Australien, er alle i gang med at etablere deres regler.
Ifølge Chisholm, "Mange af disse standarder vil sandsynligvis låne fra hinanden, så fordelen ved at tilpasse sig den ene vil sandsynligvis flyde ind i den anden."
Juridiske eksperter og overholdelseseksperter siger, at overholdelse af den nyligt indførte EU AI-lov burde være en prioritet for britiske virksomheder, eftersom de ofte vil handle med EU.
"Mange britiske virksomheder opererer i eller med EU; Derfor sikrer tilpasning til EU's AI-lov fortsat adgang til dette betydelige marked,” fortalte Becky White, senior databeskyttelses- og privatlivsadvokat hos Harper James, til ISMS.online. "Manglende overholdelse kan resultere i adgangsbarrierer eller sanktioner, der påvirker forretningsdrift og konkurrenceevne."
EU's AI-lov fokuserer på højrisikoapplikationer og datasæt. Dens kerneprincipper understreger gennemsigtighed og ansvarlighed.
"EU AI-loven er et godt sted at starte, da dens kerneprincipper om gennemsigtighed, sikkerhed og datastyring sandsynligvis vil være grundlæggende for enhver AI-regulering i enhver region," ifølge VIPREs Corlette. "Denne lovgivning er den første af sin art og fastlægger praktisk talt rammerne for en spirende industri, der ikke har nogen forudgående håndhævelige standarder."
Corlette konkluderede: "Historien tyder på, at regler udviklet i andre regioner også ville ligne denne spirende EU-lovgivning. Et eksempel er EU's GDPR.”
Mens tilpasning til EU's AI-lov sikrer en smidig forretningsdrift på tværs af grænser og kan undgå potentielle regulatoriske konflikter, bør britiske virksomheder holde et vågent øje med lovgivningsudviklingen tættere på hjemmet.
Spectrum Search's Wood rådgav "afdækning af væddemål ved nøje at overholde UK-specifikke regler og bevare fleksibiliteten til at tilpasse sig både britiske og EU-krav."
Eksperter rådede til, at britiske organisationer bør positionere sig for at tilpasse sig hurtigt, hvis og når der opstår forskelle mellem reguleringsregimer i forskellige regioner.
Harper James' White kommenterede: "Fuld overholdelse af flere regulatoriske regimer på samme tid kan være ressourcekrævende; Derfor giver denne type 'hedging'-strategi virksomheder mulighed for at allokere ressourcer effektivt, balancere overholdelse af innovation og operationel effektivitet og ved at opretholde en vis fleksibilitet, kan virksomheder dreje og tilpasse sig ændringer i både britiske og EU-lovgivningsmiljøer, når og når det er nødvendigt."
Privatliv og forvaltning
Bekymringer om ledelse og privatliv, der opstår som følge af virksomhedens brug af AI, går ud over overholdelse og lovgivningsmæssige forhold.
"Uddannelsen af Gen AI-modeller og databaser vil ofte involvere behandling af enorme datasæt, som indeholder betydelige mængder af personlige data, hvilket kan føre til betydelige privatlivs- og styringsrisici for britiske virksomheder," forklarede Harper James' White. "Denne information kan nogle gange omfatte følsomme eller særlige kategoridata om enkeltpersoner, hvis behandling utilsigtet kan fastholde eller endda forværre skævheder, hvilket fører til uretfærdige eller diskriminerende resultater. Misbrug af det genererede indhold kan krænke privatlivets fred."
Algoritmisk bias, hvor AI-systemer utilsigtet kan gentage eksisterende skævheder, der er til stede i træningsdataene, kan afbødes af regulerede revisioner og forskellige datasæt.
Ifølge White kan virksomheder hjælpe med at mindske disse risici ved at implementere robust datastyringspraksis og fokusere på, hvordan deres medarbejdere bruger AI.
"Dette inkluderer anvendelse af anonymiseringsteknikker, etablering af strenge adgangskontroller, udførelse af regelmæssig bias-overvågning og sikring af, at de data, der bruges til at træne AI-modellerne, er nøjagtige, fuldstændige og repræsentative," rådede White.