
Hvorfor AI er en risikabel virksomhed – og hvad skal man gøre ved det
Indholdsfortegnelse:
Det er 2023, og AI ser ud til at være overalt. ChatGPT, AI produceret af Elon Musk-stiftede institut OpenAI, er skrive studenteropgaver, udskæring af bøger, Og endda udfordrende parkeringsbøder. I en hændelse, der beviser, at vi lever i en episode af Black Mirror, var en særdeles sjælløs universitetsansat endda brugte den at trøste eleverne efter et masseskyderi.
Sådan fungerer ChatGPT
Privatlivs- og sikkerhedseksperter undrer sig måske over, hvordan AI også kunne hjælpe dem. Kunne det for eksempel skrive din privatlivspolitik? Svaret er ja - sådan set.
For at pakke spørgsmålet mere grundigt ud, er det værd at forstå, hvordan ChatGPTs nyere AI-mærke fungerer. Det er baseret på noget, der kaldes en stor sprogmodel (LLM). Dette er en AI-model, trænet ved hjælp af et stort korpus af tekst, typisk skrabet fra internettet. Træningsprocessen opdeler denne tekst i tokens, som kan være dele af ord. Derefter bruger den enorme mængder computerkraft til at finde mønstre i sproget, der hjælper den med at forstå, hvordan disse tokens er relateret.
Når nogen beder AI med en anmodning (f.eks. "forklar kold fusion i stil med Sherlock Holmes"), bruger AI sin enorme træningsmodel til at tage bidder af ord og forudsige, hvilke der sandsynligvis kommer næste gang. Det er sådan, det kan frembringe et overbevisende sprog, der ser ud til at følge de begreber, der er skitseret i prompten.
Selvsikker og stum: En dårlig kombination
Problemet med denne tilgang er, at AI ikke ved, hvad den taler om. Forskere har sammenlignet det med en 'stokastisk papegøje', som kæder tilfældige ord sammen uden at forstå dem. Et papir, der beskriver dette, Om farerne ved stokastiske papegøjer, påpeger, at "sprog er systemer af tegn, dvs. parringer af form og betydning." Når nogen siger "kanin", forstår du begrebet en kanin, og hvordan det relaterer sig til forskellige andre ting (påske, forår, kæledyr, velsmagende gryderet osv.). "Men træningsdataene for LM'er er kun form," siger forskerne. "De har ikke adgang til mening."
Det skaber problemer for LLM'er, som du stoler på for faktuelt indhold. Fordi de henter ord baseret på statistisk sandsynlighed snarere end viden, har de en tendens til at skrive ting, der ikke er sande. I AI-jargon er dette kendt som 'hallucinerende', og det er et problem, hvis du vil stole på dem for faktuelt indhold.
Medarbejdere har eksperimenteret med at bruge ChatGPT til at skrive en privatlivspolitik med tvivlsomme resultater. De fandt, forudsigeligt, at resultaterne var dårligere, når LLM skulle udfylde flere tomme felter.
Simpel AI anmoder om returnerede politikker, der ikke var baseret på specifikke love om beskyttelse af personlige oplysninger og ikke var relateret til specifik forretningspraksis. Privatlivspolitikken blev forbedret, efterhånden som testere tilføjede flere oplysninger, til det punkt, hvor det gav et imponerende resultat. Men på det tidspunkt "skal du bruge timer, dage eller endda uger på først at bestemme, hvilke love om beskyttelse af personlige oplysninger, der gælder for dig, analysere disse loves oplysningskrav og derefter give disse oplysninger til ChatGPT sammen med din specifikke forretningspraksis, " hun siger. Hvilket rejser spørgsmålet: hvorfor ikke bare gøre det hele selv i første omgang?
Andre har beskrevet ChatGPT og lignende LLM'er som "beregnere til ord". De er kun virkelig nyttige til at skrive, hvis du selv lægger en masse arbejde og omhyggeligt verificerer resultaterne.
Folks brug af AI er ofte også både selvsikker og dum
Vi kan ikke stole på AI-værktøjer, men vi kan stole på, at folk misbruger dem. Vi har allerede set nedfaldet fra dårligt udtænkt og uhensigtsmæssigt anvendt AI, hvilket fører til betydeligt nedfald, der påvirker det virkelige liv.
Myndigheder har brugt AI-drevne systemer, der har vist sig at være partiske, når de anbefaler retsdomme. For eksempel førte den hollandske skattemyndigheds misbrug af AI-software bureauet til uretfærdigt anklage forældre for bedrageri– blind tro på mangelfulde AI-drevne ansigtsgenkendelsesalgoritmer førte til uretmæssig anholdelse af uskyldige mennesker. Bias dukkede også op i Amazons AI-drevne rekrutteringssystem, som blev afskaffet, efter at det holdt undlader at anbefale kvalificerede kvinder til teknologijobs.
Hvordan kan vi gribe dette problem an? Nogle eksperter har allerede krævet et seks måneders moratorium på AI-udvikling for at få hovedet rundt i hele det kedelige rod, før tingene kommer endnu mere ud af hånden.
Ingen mangel på retningslinjer
Vi har allerede masser af ansvarlige AI-retningslinjer at vælge imellem, og de siger lignende ting. Fortalergruppen Algorithm Watch holder en opgørelse af AI-retningslinjer fra forskellige institutioner, herunder EU's Etiske retningslinjer for pålidelig kunstig intelligens. En, der ikke var inkluderet i skrivende stund, var National Institute of Standards and Technology (NIST's) AI Risk Management Framework, udgivet i januar i år. Som de fleste andre retningslinjer sigter NIST-rammen for at give nogle skinner til udvikling og anvendelse af AI. Det afspejler også flere almindelige principper i andre etiske retningslinjer, såsom gennemsigtighed, ansvarlighed, privatliv, sikkerhed og modstandsdygtighed.
Per OEDC, er der over 800 AI-politiske initiativer på tværs af næsten 70 lande i skrivende stund, men der er stor forskel på bindende og ikke-bindende politik. Overholdelse af de fleste initiativer, herunder NIST'er, er frivillig.
Et kig på virksomheder som Clearview AI viser vigtigheden af juridisk håndhævelse af ansvarlige AI-politikker i stedet for bare at spørge pænt. Startup'et, der sælger ansigtsgenkendelsestjenester til retshåndhævere, driver dem via millioner af fotografier stjålet fra sociale medier uden folks samtykke.
Ikke nok regulering
Lande har været delte i deres tilgang til strengt at regulere deres politikker. Alle står over for den samme udfordring: For lidt regulering, og de risikerer uforudsigelig og uansvarlig brug af teknologien. For meget, og de kan tvinge potentielt lukrative AI-innovatorer til at flytte væk.
USA har endnu ikke reguleret kunstig intelligens. Kongres foreslog Algorithmic Accountability Act i 2022, men den døde uden afstemning. FTC har lovede at bruge sine eksisterende beføjelser til at beskytte amerikanske indbyggere mod den voldsomme brug af kunstig intelligens. Det har også udstedt en forudgående meddelelse om foreslået regeludformning der kunne indvarsle gennemgribende nye handelsregler for at håndtere automatiserede beslutningstagnings- og overvågningssystemer.
EU har været mere aggressiv og foreslået AI-loven, som fortaler for håbet vil passere i år. Det ville dække alle AI-produkter og -tjenester, klassificere dem i henhold til deres opfattede risikoniveau og anvende strenge vurderinger og dataoverholdelsesregler på de højere risiko. Overtrædere ville risikere store bøder.
Storbritannien har taget hvad det eufemistisk kalder et "pro-innovationstilgang“. I stedet for at udpege en enkelt ny enkelt AI-regulator, vil den dele ansvaret for at regulere AI mellem eksisterende regulatorer og vil i første omgang ikke give dem nogen nye juridiske beføjelser til at gøre det.
Mens politikere går på spændene mellem etik og økonomisk fordel, hænger fremtiden for kunstig intelligens i en balancegang. En ting er sikker: At overlade det til teknologivirksomheder alene at handle ansvarligt ville være...uansvarligt.