ai regler blog

Hvordan virksomheder kan holde sig på forkant med nye og nye regler om kunstig intelligens

Kunstig intelligens (AI) vil radikalt transformere vores liv og arbejde i løbet af de kommende år. Men meget afhængig af indsamling og analyse af store datasæt, udgør denne teknologi også store privatlivsrisici. 

Ifølge forskning fra Cisco har 60 % af forbrugerne bekymringer om, hvordan organisationer bruger AI-systemer. Og 65 % har mindre tillid til virksomheder, der bruger denne teknologi i deres produkter og tjenester.

Denne frygt har fået mange regeringsorganer og større institutioner til at udvikle rammer i et forsøg på at regulere brugen af ​​AI-teknologi. I juni blev EU annoncerede planer om en banebrydende AI-lov for at sikre, at denne teknologi er "sikker, gennemsigtig, sporbar, ikke-diskriminerende og miljøvenlig".

Selv Vatikanet har med hjælp fra Santa Clara Universitys Markkula Center for Anvendt Etik udviklet en håndbog, der skitserer de etiske implikationer af AI-teknologi. De håber at "fremme dybere tanker om teknologiens indvirkning på menneskeheden". National Institute of Standards and Technology har også udviklet en AI risikostyringsramme. 

Efterhånden som AI-teknologien udvikler sig, vil nye love, der styrer dens udvikling og brug, uden tvivl dukke op. Samtidig vil presset øges på AI-virksomheder og brugere for at forstå og overholde nye love. Men hvordan kan de rent faktisk gøre det med succes? Og er der andet, de skal vide? Vi spurgte flere brancheeksperter om deres råd. 

AI-regler er ikke en dårlig ting for industrien 

Selvom indførelsen af ​​AI-regler kan lyde som en skræmmende udsigt for organisationer, der udvikler og bruger denne teknologi, kan det faktisk være en god ting for industrien. Aleksandr Gornostal, en softwarearkitekt og AI-ekspert ved Stjerne mener, at AI-regler vil "skabe en mere retfærdig og lige spilleplads på lang sigt".

Gornostal forventer, at nye regler vil skade AI-forsknings- og udviklingsindsatsen på kort sigt. Men dette vil ikke vare evigt; han er overbevist om, at der i sidste ende vil være en mulighed for teknologivirksomheder at udvikle produkter, der løser nogle af AI's største problemer, især omkring menneskeligt tilsyn, privatliv og ikke-diskrimination. 

Selvfølgelig skal virksomheder sikre, at deres AI-systemer overholder nye og nye love, hvis de skal lykkes i det lange løb. Gornostal råder virksomheder til at starte med at udføre regelmæssige konsekvensanalyser og sikre konstant gennemsigtighed med interessenter. De skal også afsætte betydelige budgetter og ressourcer til at overholde disse regler. 

"Overholdelse af AI-reglerne bliver en forudsætning for at komme ind på det europæiske marked, og enhver virksomhed, der ønsker at handle eller drive forretning i EU, bliver nødt til at overholde standarderne," siger han. 

Sammen med bekymringer om privatlivets fred siger Gornostal, at generativ kunstig intelligens udgør risici med hensyn til mangfoldighed, repræsentation og inklusivitet. ”Modellerne har en tendens til at forstærke det mest dominerende syn uden at tage stilling til, hvor retfærdigt eller korrekt det er. Vi skal være opmærksomme på disse mangler og undgå brug af kunstig intelligens til at skabe ekkokamre."

Vedtagelse af et bydesign-princip 

Virksomheder, der ønsker at drage fordel af AI-revolutionen, har intet andet valg end at forberede sig på nye og udviklende industriregler. Dog som Immuta senior privatlivsrådgiver og juridisk ingeniør Sophie Stalla-Bourdillon påpegede, at mange allerede er vant til at håndtere love som den generelle databeskyttelsesforordning. Hun foreslår også, at overholdelse af nye AI-regler vil være ens. 

”Den bedste måde at foregribe nye love og regler på er at operationalisere så tidligt som muligt den principbaserede tilgang, der er indført ved regler som f.eks. GDPR; med andre ord at forfølge en by-design tilgang til compliance,” siger hun. 

Dette involverer design af kontrollerede miljøer, hvor organisationer rutinemæssigt søger efter "potentielle hændelser og uønsket praksis", ifølge Stalla-Bourdillon. Hun råder også virksomheder til at teste disse i forhold til målinger såsom fortrolighed og retfærdighed. 

Hun fortsætter med at forklare, at virksomheder kan vælge mellem to designstrategier for at "vise, at privatliv og sikkerhed faktisk konvergerer". Den første bruger databeskyttelsesprincipper såsom minimering og behov for at vide.  

"Når det er operationaliseret, bør det føre til en finmasket adgangskontrolpolitik. Disse politikker er relevante for træningsdata, modelparametre, forespørgsler eller prompter, resultater eller svar,” siger hun.

Den anden designstrategi giver virksomheder metrics, KPI'er og revisionslogfiler for at forbedre gennemsigtighed og observerbarhed under systembekræftelse, træning, test, implementering og mange andre tidsperioder. Hun tilføjer: "At have synlighed på tværs af hele datalivscyklussen øger kontrollen og gør regelmæssige vurderinger nemmere at deltage i."

Alle skal forstå risiciene ved AI

Selvom AI-regler er "desperat nødvendige", ESET Den globale cybersikkerhedsrådgiver Jake Moore indrømmer, at virksomheder sandsynligvis vil finde det svært at holde sig ajour med deres konstant skiftende krav. 

"Regler kan styrke virksomheder og få dem til at føle sig beskyttede, men de betyder intet for udviklerne af sofistikeret malware. Britiske regler er notorisk sene til partiet, men det ser allerede mere lovende ud,” fortsætter han. 

Han kalder regeringsintervention i AI-risici for "vital", men opfordrer tilsynsmyndigheder til at opstille realistiske forventninger. "At kontrollere udyret [AI] vil være næsten umuligt med konstant forbedring af avanceret teknologi," siger han. "Desuden bliver politiarbejdet gjort vanskeligere som altid med internationale, tværgående jurisdiktioner."

Ud over at overholde nye AI-regler advarer han organisationer om ikke at ignorere truslen fra AI-drevne cyberangreb. Han forventer, at disse vil stige i kompleksitet og skala, målrettet mod virksomheder og enkeltpersoner i løbet af de kommende år. 

Han tilføjer: "Det er vigtigt at lære personalet og den bredere offentlighed, at det at se ikke altid er at tro, og at vi er nødt til at "tage fejl på siden af ​​forsigtighed" mere end nogensinde, da det menneskelige element [af AI] stadig misbruges kraftigt. ”

Aviv Raff, CIO for bloomreach, er enig i vigtigheden af ​​at uddanne enkeltpersoner om de risici, der er forbundet med kunstig intelligens, og de skridt, de kan tage for at bruge denne teknologi sikkert.

Han rådgiver: "For virksomheder er det vigtigt, at de indfører politikker og standarder, der adresserer den acceptable brug af AI, organiserer medarbejdertræning om passende brug af AI, sikrer, at de kun bruger private forekomster af AI, der er kontraktligt bundet, fravælger modellen. uddannelse og anvender princippet om mindst privilegium for at forhindre uautoriseret adgang. “

AI tilbyder enorme muligheder for samfundet som helhed, men det udgør også betydelige etiske risici. At tilskynde til global forståelse af disse risici og imødegå dem er afgørende for at realisere det enorme potentiale, som AI-teknologi tilbyder. 

Forskrifter vil spille en væsentlig rolle i denne proces, men det er klart, at det vil være en udfordrende opgave for virksomheder at overholde dem. Plus, efterhånden som AI-teknologien udvikler sig, og nye risici dukker op, skal statslige organer tilpasse deres regler i overensstemmelse hermed for at sikre, at de forbliver relevante. 

 

SOC 2 er her! Styrk din sikkerhed og opbyg kundernes tillid med vores kraftfulde overholdelsesløsning i dag!