
The Power of the Deepfake: Misinformation i det britiske valg
Indholdsfortegnelse:
Kunstig intelligens (AI)-drevet deepfake-teknologi er ikke et nyt fænomen. Udtrykket 'deepfake' er blevet brugt til at beskrive syntetiske medier siden så langt tilbage som i 2017, og mange eksempler på deepfakes er blevet bredt offentliggjort. Virale eksempler inkluderer en AI-genereret video af Mark Zuckerberg, der taler om Facebooks ondskabsfulde magt, en TikTok-konto dedikeret til at dele dybfalske videoer af skuespilleren Keanu Reeves, og endda en video af US House Speaker Nancy Pelosi, der blev behandlet for at få hende til at virke fuld.
Deepfake-teknologien fortsætter med at udvikle sig i tempo, og det er mere kompliceret end nogensinde før at fortælle, hvad der er og ikke er ægte. Med det britiske folketingsvalg i gang, har deepfakes formet den måde, som vælgere ser på politiske kandidater - og endda påvirket, hvordan de stemmer?
Deepfakes i det britiske parlamentsvalg
I sidste måned blev en bearbejdet video af Labour-politikeren Wes Streeting udgivet på X (tidligere Twitter), der angiveligt viste, at han kalder Labour-parlamentsmedlem Diane Abbott for en "fjol kvinde". BBC rapporterede, at videoen og mange af kommentarerne som svar på X kom fra et netværk af konti, der opretter og deler klip af politikere og derefter sender vildledende kommentarer for at forstærke indtrykket af, at de er rigtige.
Sigter netværket på at underminere og miskreditere de målrettede politikere, hvad enten det er til politiske formål eller blot for underholdning? BBC-rapporten fandt, at de samme beretninger postede dybt falske klip af Labours Luke Akehurst såvel som Reform UK's Nigel Farage, der spænder over Storbritanniens politiske spektrum. I en ikke-relateret begivenhed gik satiriske deepfake-videoer af den britiske premierminister Rishi Sunak også viralt for nylig, efter at han annoncerede forslag til nationaltjeneste.
Effekten af AI er heller ikke begrænset til sociale medier: der er endda en AI Uafhængig kandidat kaldet AI Steve, en avatar af den virkelige forretningsmand Steven Endacott.
En undersøgelse foretaget af YouGov fandt, at 43 % af briterne får deres nyheder under parlamentsvalget fra sociale medier, kun næst efter tv (58 %). I alt får 77 % deres nyheder online. Så selvom mange anvendelser af deepfake-teknologi kan være harmløse og underholdende, kan konsekvenserne af videoer som Wes Streeting-klippet være politisk skadelige. Efterhånden som briterne afgiver deres stemmer, vil deepfakes for nogle sandsynligvis påvirke deres stemmevalg.
GenAI fortsætter også med at påvirke virksomheder
Trusselsaktører fortsætter også med at målrette mod virksomheder og deres kunder. I sidste uge fandt den australske nyhedskanal 7News sin YouTube hacket af trusselsaktører, som brugte den til at livestreame en AI-genereret video af Elon Musk, der udråber et svindelnummer med kryptovaluta. The Sydney Morning Herald rapporterede, at deepfake opfordrede seerne til at scanne en Tesla-mærket QR-kode og indbetale penge i kryptovalutaordningen for at "fordoble deres kryptoaktiver".
Hacket viser, at trusselsaktører bliver stadig mere kyndige i deres tilgang til at kompromittere virksomheder til at få adgang til kritiske data – og kunder. YouTube-kanalen 7News har over en million abonnenter, hvilket gør det muligt for svindlerne bag angrebet at nå ud til 7News' betydelige publikum: CryptoNews rapporterede, at livestreamen blev set af omkring 60,000 seere, og en anden samtidig stream blev set af omkring 45,000 mennesker.
Deepfakes giver også trusselsaktører mulighed for at udføre virksomheds-e-mail-kompromis-angreb (BEC) stil på organisationer ved at bruge AI-genereret lyd, billeder og video til at efterligne seniormedarbejdere. I april delte LastPass, at en trussel skuespiller havde efterlignet CEO Karim Toubba ved at bruge WhatsApp, sende en medarbejder opkald, sms'er og voicemails med en lyd-deepfake. I dette tilfælde rapporterede medarbejderen hændelsen, og truslen blev mildnet af LastPass. Alligevel er der mange nylige hændelser, hvor denne angrebsmåde har været vellykket, hvilket har ført til økonomiske tab.
Fremskridt inden for AI-teknologi fører til øgede cybertrusler
AI bliver en stadig mere tilgængelig teknologi for trusselsaktører, hvilket fører til en stigning i angreb på enkeltpersoner og virksomheder. Vores Status for informationssikkerhedsrapport undersøgte over 1,500 fagfolk inden for informationssikkerhed og fandt ud af, at næsten en tredjedel (30 %) af virksomhederne har oplevet et dybt falsk angreb inden for de sidste 12 måneder.
Men størstedelen af de adspurgte (76%) var også enige i, at AI og maskinlæringsteknologi (ML) forbedrer informationssikkerheden og tilbyder nye måder at automatisere, analysere og forbedre sikkerhedsforanstaltninger på. 62 % forventer at øge deres udgifter til AI- og ML-sikkerhedsapplikationer i løbet af de kommende 12 måneder.
Med AI-drevet teknologi, der tilbyder virksomheder både udfordringer og utrolige muligheder, hvordan kan vi adressere og forhindre deepfake-hændelser?
Reduktion af risikoen for Deepfake-hændelser
For virksomheder vil medarbejderuddannelse og -bevidsthed være afgørende for at reducere risikoen for deepfake-hændelser. Standarder som ISO 27001, den internationale informationssikkerhedsstandard, udgør en ramme for opbygning, vedligeholdelse og løbende forbedring af et informationssikkerhedsstyringssystem (ISMS). Dette inkluderer implementering af en informationssikkerhedspolitik, som vil guide dine medarbejdere i at rapportere en formodet hændelse, såsom et BEC-angreb, via e-mail eller i form af en deepfake.
Ved det britiske parlamentsvalg skal den brede offentlighed være på vagt, når de overvejer, om videoer og lyduddrag, der er lagt ud på sociale medieplatforme, er ægte eller manipulerede. Adskillige visuelle og auditive spor kan hjælpe med at identificere en deepfake.
Visuelle spor omfatter:
- Unaturlige øjenbevægelser (eller manglende øjenbevægelser)
- Inkonsekvente ansigtsudtryk
- Usammenhængende eller rykkede kropsbevægelser
- Tænder, der ikke ser ægte ud eller et fravær af konturer af individuelle tænder
- Slørende eller fejljusterede billeder.
Lydspor inkluderer:
- Robotlydende lyde
- Lydfejl
- Inkonsekvent lyd
- Mærkelige udtaler af ord
- Læbesynkroniseringsfejl med uoverensstemmelser mellem ord, der bliver sagt, og læbebevægelser.
Bekæmpelse af indflydelsen af syntetiske medier
Det vil være svært at måle virkningen af AI-genererede deepfakes på det britiske parlamentsvalg. Da 43 % af briterne får deres nyheder fra sociale medier, vil mange vælgere sandsynligvis have set en form for syntetiske medier relateret til et politisk parti – uanset om de er klar over det eller ej.
Brugere på X identificerer dog regelmæssigt potentielle deepfakes og advarer andre brugere gennem funktionen til community-noter. Selve X-platformen har nu en manipuleret mediepolitik, der siger, at "du må ikke dele syntetiske, manipulerede eller ude af kontekst medier, der kan bedrage eller forvirre folk og føre til skade". Kontoen, der oprindeligt postede den Wes Streeting-manipulerede video, er nu blevet suspenderet, men dens virkning er endnu uvist.
Med deepfake-hændelser i stigning, bør virksomheder også overveje, hvordan deres sikkerhedsposition kan forbedres. Udvikling af et robust ISMS tilpasset ISO 27001:2022-standarden hjælper organisationer med at styrke deres forsvar mod cybertrusler, reducere risikoen for vellykkede angreb og sikre, at medarbejderne er bevidste om deres informationssikkerhedsroller og -ansvar.