September var et skelsættende øjeblik for fortalere for AI-etik. FTC udstedt Sektion 6(b) pålægger syv store tech-virksomheder, der producerer chatbots, at blive brugt som ledsagere. Dette er den første store føderale undersøgelse, der specifikt er rettet mod AI-ledsager-chatbots, der er designet til at efterligne menneskelige karakteristika, følelser og intentioner. FTC trækker ikke løs. Den går efter nogle af AI's mest tunge virksomheder. Alphabet, Meta Platforms, Instagram, OpenAI, Snap, Character Technologies og Elon Musks xAI fik alle bogstaver.
Kommissærerne stemte enstemmigt for at udstede ordrerne, hvilket signalerede tværpolitisk bekymring over regulatorisk AI. De gav virksomheder 45 dage til at forklare forskellige aspekter af deres AI-operationer, herunder hvordan de tjener penge på brugerengagement, behandler brugerinput, genererer output som svar på brugerhenvendelser og udvikler og godkender deres AI-karakterer. De skal også rapportere om, hvordan de måler, tester og overvåger negative påvirkninger før og efter implementeringen, samt hvordan de afbøder negative påvirkninger, især for børn.
Disse rapporter diskuterer også, hvordan de informerer brugere og forældre om potentielle negative konsekvenser, om deres praksis for dataindsamling og -håndtering, samt hvordan de bruger eller deler personlige oplysninger. Der er derfor bred bekymring over potentielle skadevirkninger af privatlivets fred og sårbare brugere.
Hvordan påvirker dette B2B-virksomheder?
Vi er både overraskede og ikke overraskede over, at FTC gør dette. På den ene side er Trump-administrationen stærkt imod regulering, især når det kommer til AI. På den anden side har flere familier anlagt retssager med påstand om, at AI-chatbots opfordrede til teenageselvmord. Børn er angiveligt blevet opildnet til at tage deres eget liv af AI-algoritmer, der fungerede uansvarligt. Så det er på høje tid, at der gøres noget.
AI'er, der spiller hurtigt og uhåndgribeligt med sårbare menneskers følelsesmæssige tilstande, rejser dog spørgsmål om forbrugerskade. Hvordan kan dette påvirke B2B-virksomheder?
Enhver antagelse om, at B2B-organisationer kan ignorere forbrugerrettet AI-regulering, er farlig. advarede Mayer Browns advokater Christa Bieker og Christopher Leach i 2022. FTC's paragraf 5 indeholder ingen udtrykkelige begrænsninger for, hvem der kvalificerer sig som forbruger. Den har for eksempel anlagt håndhævelsessager mod B2B-betalingsudbydere og små erhvervsudlånsvirksomheder.
Og denne handling antyder, at FTC ikke vil være så passiv, som nogle af os måske har troet, når det kommer til at rette op på nogle af AI's skadevirkninger.
I 2023 udtalte den daværende formand, Lina M. Khan, at "Der er ingen undtagelse fra de gældende love vedrørende kunstig intelligens, og FTC vil håndhæve loven kraftigt for at bekæmpe urimelig eller vildledende praksis eller urimelige konkurrencemetoder." Det er endnu uvist, hvor meget af det der vil holde fast i den nye administration, men der er tydeligvis stadig en appetit på at holde virksomheder ansvarlige.
Virksomheder, der ikke indtager AI korrekt, risikerer "algoritmisk afmatning"
Det vil være en trist og sjælden person, der forelsker sig i sin debitorchatbot. Ikke desto mindre kan uansvarlig brug af AI stadig forårsage problemer for B2B-virksomheder.
For eksempel har FTC etableret en algoritmisk håndhævelsesforanstaltning til sletning, som den kan bruge til at få virksomheder til at slette AI'er, der er udviklet med forkert indhentede data. Disse er primært blevet anvendt i forbrugersager, men som vi har lært, kan virksomheder også være forbrugere.
Brug ISO 42001 til at dokumentere bedste praksis
Der er foranstaltninger, som virksomheder kan træffe for at beskytte sig selv ved at sikre, at de udvikler og implementerer deres AI'er ansvarligt. En af de mest effektive er at dokumentere, at man gør tingene ansvarligt fra bunden. ISO 42001, en international standard specifikt for systemer til styring af kunstig intelligens (AIMS), adresserer AI-udfordringer, herunder etik, gennemsigtighed, kontinuerlig læring, bias og ansvarlighed. Det er netop disse bekymringer, der driver FTC-undersøgelsen.
For eksempel skal organisationer, der følger denne standard, identificere og dokumentere potentielle skader før implementering, vurdere uforholdsmæssigt store konsekvenser for beskyttede grupper, regelmæssigt revurdere risici og implementere dokumenterede afbødende foranstaltninger. Det er præcis, hvad FTC kræver af chatbot-udbydere.
Tilsvarende styrer ISO 42001's bilag A.7 kravet om dokumentation af dataindsamlingskilder, samt transformation, brug og lagring. Det ser på datakvalitetsstyring, herunder virkningen af eventuelle bias i systemet.
Selv virksomheder, der ikke handler direkte med forbrugere, ville gøre klogt i at se på FTC's nuværende undersøgelse gennem et B2B-perspektiv. Chatbots er ikke bare nye grænseflader til eksisterende virksomhedssystemer. De er snarere langt mere kraftfulde med hensyn til, hvordan de kan indsamle og massere data, og de har et langt mere flydende og naturligt sprog. Det skaber nye måder at interagere med erhvervskunder og medarbejdere på.
FTC's paragraf 6(b)-ordrer signalerer ikke retslige skridt; de er værktøjer til at indsamle fakta, der skal hjælpe med at uddybe Kommissionens viden. Men hvis den ikke kan lide det, den finder, kan der følge håndhævelsesforanstaltninger. Og det kan skabe præcedens for alle former for brug af AI mod alle typer forbrugere (selv små virksomheder). I et ustabilt reguleringslandskab, hvor beslutningstagere kæmper med ny teknologi, betaler det sig at være forsigtig og implementere kontrolforanstaltninger.










