En nylig hændelse har rejst bekymring over, hvordan data håndteres af GenAI-værktøjer. Er det tid til at sikre, at dine data ikke ender i deres LLM'er? Dan Raywood ser på mulighederne.
En klog person sagde engang, at det, du lægger på internettet, forbliver på internettet. Specifikt ville det have været i forbindelse med sociale medier, især Facebook.
I dette årti handler udfordringen mindre om at afsløre indhold på sociale medier og mere om, hvad man har lagt i generativ AI og store sprogmodeller (LLM'er), som derefter gemmer, behandler og opbevarer disse data for at give bedre detaljer i anmodninger og søgeresultater.
Enhver tillid til GenAIs sikkerhed blev dog rystet i sommeren, da tusinder af Grok-chattransskriptioner blev afsløret, hvilket fremhævede, hvor hurtigt private AI-samtaler kan blive offentlige. For enkeltpersoner kan dette være pinligt. For virksomheder er risikoen meget højere, da de kan afsløre kundedata, intellektuel ejendom eller juridiske strategier, med konsekvenser lige fra omdømmeskade til bøder.
Fra chatbot til søgemaskine
Ifølge medier rapporterHver gang en chat blev delt med Grok-botten, blev en unik URL genereret og gjort tilgængelig for søgemaskiner. De fleste brugere var ikke klar over, at disse links automatisk blev indekseret, hvilket betød, at alle kunne finde dem online.
Damian Chung, der er ansvarlig for forretningsinformationssikkerhed hos Netskope, fortæller IO, at han mener, at det i denne sag kun var chathistorikken, der blev afsløret, men at dette var "ret bekymrende, fordi man ikke tror, at når man deler disse AI-interaktioner, så kan de offentliggøres."
Han mener dog, at denne hændelse i det mindste øger bevidstheden om denne type risiko, fordi "vi ikke ser på, hvilke sikkerhedskontroller der er omkring disse LLM'er, så man bør ikke bare blindt tillade, at nogen information kommer ind i dem."
For virksomheder er lektien klar: Når data forlader dit miljø, mister du kontrollen over dem. Selv tilsyneladende harmløse uploads kan dukke op igen på måder, du aldrig havde til hensigt.
Skygge-AI og risikoen for lækage
Grok, et produkt fra Elon Musks xAI-firma og almindeligt anvendt på X, er nu en af hundredvis af GenAI-tjenester, der er tilgængelige. Hvis man kan lække samtaler, som deltageren mente var private, eller i det mindste ikke-offentliggjorte, hvad har andre så, som kunne blive lækket eller brudt?
Chung siger, at vi er tidligt i udviklingen af GenAI, og det er godt at være opmærksom på risici, men heller ikke at skræmme brugerne fra at bruge det.
Matt Beard, direktør for cybersikkerhed og AI-innovation hos AllPoints Fibre Networks, udtrykker det ligeud: "Uanset om det drejer sig om følsomme eller generelle data, er truslerne bestemt reelle i den henseende, lige fra utilsigtet videregivelse af kundeoplysninger til lækage af interne strategidokumenter. Konsekvenserne kan variere fra omdømmeskader til bøder fra myndighederne."
Denne risiko forstærkes af skygge-AI. Medarbejdere, der bruger ikke-godkendte værktøjer til produktivitetsforbedringer, kan afsløre fortroligt materiale uden at være klar over det. Når information er indekseret online, kan den bestå længe efter, at den oprindelige samtale er slettet.
Politikker, ikke forbud
Én tilgang er at blokere adgangen til AI-værktøjer helt, men sikkerhedsledere advarer om, at dette er ineffektivt. Som Chung bemærker: "Hvis man gør det, vil brugeren finde en anden måde at bruge det på. Ved at blokere det får vi ikke nødvendigvis det samme sikkerhedsniveau, som vi tror, vi får."
I stedet foreslår eksperter at muliggøre brugen af AI under klare regler og sikkerhedsforanstaltninger. Beard siger, at balancen ligger i at "opbygge en ramme for tekniske og adfærdsmæssige kontroller" for at beskytte organisationsdata. Det handler om at "vise medarbejderne fordelene ved at bruge disse værktøjer sikkert og sikre, at de har virksomhedsacceptable systemer til rådighed, for i sidste ende vil de lede efter en løsning, hvis ikke."
Angelo Rysbrack, specialist i digitalt forsvar hos Pronidus Cybersecurity, er enig i, at de seneste brud fremhæver den største risiko for virksomheder: hvordan medarbejdere interagerer med disse AI-værktøjer. Upload af følsomme eller endda tilsyneladende harmløse data kan hurtigt føre til eksponering. Når dataene forlader dit miljø, mister du kontrollen over dem.
Praktiske løsninger
Hvad kan organisationer så realistisk set gøre for at reducere risikoen for eksponering? De ISMS'er, som de talte med, var enige om, at svaret ligger i at opbygge strukturerede, lagdelte forsvar.
Rysbrack bemærker, at de fleste organisationer allerede har acceptable brugs- eller IT-politikker, og at de er det naturlige udgangspunkt. "Hvis fundamentet er der, så byg videre på det" i stedet for at starte forfra. Han advarer dog om, at papirbaserede politikker ikke er nok, og at medarbejderne skal gøres opmærksomme på reglerne fra starten og regelmæssigt mindes om deres ansvar.
Beard understreger behovet for at fokusere på at muliggøre sikker brug under definerede autoværn: "Vi skal omfavne AI på grund af de effektivitetsgevinster, det bringer os, men det betyder ikke blind adoption. Det betyder at opbygge en ramme af tekniske og adfærdsmæssige kontroller for at beskytte vores data og vores medarbejdere."
For Rysbrack skal disse kontroller omfatte praktiske sikkerhedsforanstaltninger"Brug indholdsfiltrering, appbeskyttelsespolitikker og forebyggelse af datatab for at forhindre følsomme oplysninger i at forlade organisationen." I nogle tilfælde kan det være passende at "blokere risikable apps, men hvor det er muligt, give personalet sikre alternativer."
Beard fremhæver vigtigheden af at skelne mellem godkendte og ikke-godkendte AI-værktøjer og at sætte klare forventninger til medarbejdere: "Frem for alt bør acceptable brugspolitikker klart forbyde deling af oplysninger over klassificeringen 'Offentlig' med ikke-godkendte tjenester."
Denne type foranstaltninger kan yderligere styrkes ved at forankre dem til anerkendte rammer som ISO 27001 for informationssikkerhed og ISO 42001 for AI-styring. Dette bidrager til at sikre, at politikker, overvågning og risikostyring ikke kun er ensartede, men også reviderbare og forsvarlige mod lovgivningsmæssig kontrol.
Samlet set skaber denne kombination af rammer, tekniske sikkerhedsforanstaltninger og løbende brugerbevidsthed en kultur, hvor medarbejderne forstår både fordelene ved AI-værktøjer og grænserne for sikker brug.
Handl nu, vent ikke
Beard er tydelig på, at tiden for tøven er forbi, og at organisationer ikke bør vente på et brud, men handle nu. "Skab klare, separate politikker for brug og udvikling af AI; sørg for, at de overvåges transparent, og træn dine medarbejdere. Frem for alt, behandl AI som en evne, der skal udnyttes og ikke frygtes."
Chung er enig i, at det ikke er realistisk at blokere alle nye AI-applikationer. Med hundredvis allerede tilgængelige og nye, der hele tiden dukker op, foreslår han, at organisationer overvejer lettere interventioner, såsom en "coaching"-besked, før et GenAI-websted tilgås, for at minde medarbejderne om at tænke grundigt over, hvad de deler.
Rysbrack understreger, at udfordringen er at finde en balance i beskyttelsen af data uden at hæmme innovation. De bedste resultater opnås ved at kombinere klare regler, brugerbevidsthed, træning og tekniske sikkerhedsforanstaltninger. "På den måde kender medarbejderne grænserne, har de rigtige værktøjer, og organisationen undgår at blive den næste overskrift."
Den virkelige lektie fra Grok
Grok-lækagen er ikke det første tilfælde af, at AI-genererede samtaler bliver søgbare online, og det bliver heller ikke det sidste. For virksomheder er den virkelige lektie, at tillid til GenAI aldrig bør antages.
Ved at implementere politikker, tekniske sikkerhedsforanstaltninger og medarbejderbevidsthed nu, kan organisationer udnytte produktiviteten ved AI, samtidig med at de beskytter deres mest værdifulde data. At vente på det næste brud er ikke en mulighed.










