bidens ai eo statusrapport

Bidens AI-fremskridtsrapport: seks måneder efter

Det er seks måneder siden, at den amerikanske regering vedtog en gennemgribende bekendtgørelse (EO), der adresserede behovet for ansvarlig AI. Det Bekendtgørelse om sikker, sikker og troværdig kunstig intelligens behandlede bekymringer over sikkerheden og sikkerheden af ​​AI, sammen med dens indvirkning på borgerlige frihedsrettigheder og arbejdstagerrettigheder. Den anerkendte også behovet for drastisk at øge den føderale arbejdsstyrkes AI-færdighedssæt. Disse bekymringer blev oversat til en bred vifte af handlinger på tværs af alle føderale agenturer. Et halvt år senere, hvordan går implementeringen?

Koordineret indsats

EO blev koordineret med aktiviteter på tværs af den udøvende magt. Ugerne efter dens meddelelse den 30. oktober 2023 oplevede en byge af aktivitet på tværs af forskellige agenturer, såsom Department of State's annoncering af sin Enterprise AI-strategi den 9. november.

Forsvarsministeriet havde også tydeligvis sat sit svar op. Næsten umiddelbart efter offentliggørelsen af ​​EO, DoD frigivet dens 2023 Data, Analytics og Artificial Intelligence Adoption Strategy, som afløste dens 2018 AI-strategi. Denne politik er især vigtig for Pentagon, som ifølge en Brookings Institution indberette udgør broderparten af ​​føderale AI-kontrakter i den amerikanske regering. Udgifterne til militære AI-kontrakter tegnede sig for $557 mio. af $675 mio. i midler, der var forpligtet til AI-kontrakter på tværs af alle agenturer i året frem til august 2023, fandt rapporten.

Et solidt rapportkort

Den 28. marts, Det Hvide Hus rapporteret at agenturer havde overholdt alle 90- og 150-dages fristerne under EO. Foranstaltninger som beskrevet i denne tidslinjeanalyse omfattede udarbejdelse af en rapport fra Finansministeriet om risikostyring for kunstig intelligens i finansielle tjenesteydelser og en selvevaluering af hvert agentur af de risici, kunstig intelligens udgør for kritisk national infrastruktur.

Forskellige agenturer har bidraget til AI-sikkerhedsindsatsen. Handelsministeriet oprettede det amerikanske AI Safety Institute i National Institute for Standards and Technology (NIST) den 1. november og har siden tildelt personale og oprettet et konsortium at støtte organisationen. I midten af ​​april, NSA udgivet sin vejledning om at implementere AI-systemer sikkert.

Den Nationale AI Advisory Committee (NAIC) slog ind på spørgsmål om AI-sikkerhed, anbefale indførelse af et system til at rapportere uønskede hændelser fra AI-systemer. NAIC-anbefalingen vil potentielt bruge Office of Management and Budget (OMB)'s definitioner af sikkerheds- og rettighedspåvirkende AI som en ramme. Disse blev fastlagt i OMB's 28. marts memorandum om fremme af styring, innovation og risikostyring for agenturers brug af kunstig intelligens, som cementerede mange af de mandater, der blev udstukket for udøvende statslige organer i EO.

Sikkerhed og sikkerhedspraksis i OMB-memorandummet inkluderede et sæt minimumspraksis for rettighedspåvirkende AI, sammen med et krav om, at bureauer begynder at følge dem senest den 1. december 2024. Hvis de ikke kan følge disse retningslinjer, skal de stoppe med at bruge den pågældende AI .

Andre fremskridtsområder baseret på krav i EO omfatter design og implementering af planer for at rekruttere flere AI-talenter i den amerikanske regering. NAIC fremsatte flere anbefalinger i Q4 2023. Det efterlyste forbedre AI-kompetencen blandt amerikanere, og anbefalede også en kampagne for livslang AI karriere succes. Det Hvide Hus fulgte op med en opfordre til AI-talent i en ansættelseskørsel i januar.

Fremskridtene har udvidet sig til international statskunst. Udenrigsministeriet annoncerede i november, at 47 stater havde godkendt den politiske erklæring om ansvarlig militær brug af kunstig intelligens og autonomi, et initiativ, som den lancerede i Haag i februar 2023.

Forsvarsproduktionsloven: Et anspændt problem

EO'er påvirker typisk den private sektor enten gennem deres indvirkning på føderale entreprenører eller gennem anvisninger givet til agenturer, der håndhæver specifikke regler. Nogle gange vil Det Hvide Hus dog påberåbe sig særlige beføjelser. I dette tilfælde brugte den Defence Production Act til at regulere dual-purpose AI-modeller.

I henhold til denne lovgivning fra 1950 kan præsidenten tvinge virksomheder i den private sektor til at følge givne produktionsregler. I dette tilfælde skal AI-producenter rapportere om deres AI-sikkerhedstest sammen med brugen af ​​computerkraft over en given tærskel. Udbydere af computerkapacitet skal også indberette specifikke fremmede magters brug af deres kapacitet til AI-træning.

NetChoice, en brancheforening for teknologivirksomheder, der tæller Google, Meta og Amazon blandt sine medlemmer, mener, at regeringen overskrider sin omfattende regulering. Carl Szabo, organisationens generaladvokat, hævder, at reglerne, herunder brugen af ​​DPA som skitseret i EO, vil have en afkølende effekt på den private sektors investeringer.

"Når du begynder at tilføje regulatoriske begrænsninger og regulatoriske kontroller, der skal foretages, før du kan implementere et kunstig intelligenssystem, vil det begrænse min evne som investor til at bringe et produkt på markedet og få det nødvendige investeringsafkast, " han sagde.

Han mener også, at EO er så vidtspændende, at det kan anfægtes ved domstolene.

"Jeg kan ikke fortælle dig, hvornår det kommer til at ske, men jeg kan sige, at der helt sikkert er diskussioner blandt mange mennesker, jeg har hørt fra om at bringe en udfordring," tilføjede han.

I mellemtiden fortsætter regeringen med sit løfte om at imødegå AI-risici og ansvarlig brug efter en vækst på næsten 260 % ​​i sine finansielle forpligtelser til AI-kontrakter i løbet af året frem til august 2023.

Virksomheder, der forventer at bruge kunstig intelligens, især dem, der kan blive påvirket af amerikanske regeringskontrakter, ville gøre klogt i at følge nye standarder for ansvarlig brug. NIST har offentliggjort AI Risk Management Framework, mens den nyligt offentliggjorte ISO / IEC 42001 standard for implementering og vedligeholdelse af AI-systemer er en anden nyttig ramme at følge. Med bortgangen af EU's AI-lov i marts er behovet for at demonstrere bedste praksis ved implementering af kunstig intelligens mere akut end nogensinde.

SOC 2 er her! Styrk din sikkerhed og opbyg kundernes tillid med vores kraftfulde overholdelsesløsning i dag!