en følelse af at varsle privatlivets risici ved at læse wearables banner

En følelse af anelse: Privatlivsrisiciene ved wearables til følelseslæsning

Selvom vi blødte vores personlige data, kunne vi altid stole på mindst én hemmelighed: Hvis vi har nok selvkontrol, kan folk aldrig læse vores tanker. Vær nu forberedt på, at selv det ændrer sig.

For mange teknologer er den sidste grænse i jagten på personlige oplysninger, hvad vi føler. For en marketingmedarbejder eller politiker kan læsning af vores følelser være den mest magtfulde ting af alt.

Leverandører har hastet med at udvikle produkter, der kan gøre netop det. Nogle foreslår at bruge teknologi, der udnytter hjernedata (et felt kendt som neuroteknologi). Apple har f.eks patenteret hjernelæsning AirPods. Tidligere i år, forskere ved Sydkoreas Ulsan National Institute of Science and Technology (UNIST) lavet en ansigtsmaske de hævder kan analysere bærerens umærkelige ansigtsændringer for at aflæse menneskelige følelser i realtid.

Nogle kræver ikke nye gadgets for at læse følelser; de bruger data fra vores eksisterende; så langt tilbage som i 2018, US National Institute of Health fandt det smartwatch-data gjorde det muligt for forskere at bestemme brugernes følelser med en anstændig grad af nøjagtighed. I dag er børnehospitalet Holland Bloorview's Holly systemet bruger hjertedata indsamlet fra smartwatches og fitness-trackere til at fastslå børns følelser, som det derefter viser på en app til omsorgspersoner.

Emotion-scanning wearables har en lys side. University of West Scotlands forskningsprojekt bruger en blanding af ansigtsanalyse og bærbare enhedsdata for at hjælpe med at forstå følelser hos mennesker på autismespektret. Føl Terapeutik tilbyder et bærbart og back-end dataanalysesystem til at analysere følelser til medicinske behandlinger, herunder mental sundhedsterapi.

Nogle følelseslæsende initiativer fokuserer på medarbejdernes trivsel, især i højstressede erhverv. Det britiske politis Oscar Kilo-program har prøvet wearables til at overvåge den følelsesmæssige tilstand hos betjente i særligt stressende stillinger, herunder brug af skydevåben og undersøgelser af udnyttelse af børn.

Privatliv

Ved siden af ​​disse positive anvendelser ser Nita Farahany, Robinson O. Everett Distinguished Professor of Law & Philosophy ved Duke Law School, også en potentiel mørk side.

"Hjernedataene, som disse enheder vil indsamle, vil ikke blive indsamlet i traditionelle laboratoriemiljøer eller i kliniske forskningsundersøgelser drevet af læger og videnskabsmænd," hun sagde, taler ved et Ted-arrangement.

"I stedet vil det være sælgerne af disse nye enheder. De selvsamme virksomheder, der har kommodificeret vores data i årevis,” tilføjede hun. Hun hævder, at disse data vil være mere personlige end de data, vi tidligere har delt, fordi de repræsenterer den del af os, som vi normalt holder tilbage.

Neurorights Foundation, en non-profit gruppe med sin oprindelse ved Columbia University, fokuserer på at beskytte menneskerettighederne mod potentielt misbrug eller misbrug af neuroteknologi. I april 2024 udgav den en rapport kaldet Beskyttelse af hjernedata: Vurdering af privatlivspraksis for forbrugerneuroteknologivirksomheder. Den vurderede 30 virksomheder, der tilbyder ikke-medicinsk certificerede forbrugerenheder, der indsamlede neurale data, og fandt ud af, at 29 "ser ud til at have adgang til forbrugerens neurale data og giver ingen meningsfulde begrænsninger for denne adgang." Den tilføjede, at disse virksomheders politikker gjorde det muligt for dem at dele data med tredjeparter.

Fra dataanalyse til fjernbetjening

Hvad er mulighederne, når virksomheder bliver dygtigere til at læse og registrere følelser? I den verdslige ende af spektret kunne forståelsen af, hvad der ophidser eller keder folk, sætte skub i opgaver såsom splittest af forskellige hjemmesidedesigns. Mere interessant er dens evne til at hjælpe med at opbygge et dybt personligt billede af en persons interesser, der rækker langt ud over at spore, hvad de søger online.

Virksomheder kan forsøge at bruge data til at træffe kommercielle beslutninger. For eksempel kan et sundheds- eller livsforsikringsselskab overveje din følelsesmæssige tilstand, når du vurderer din egnethed til en politik.

Måske et af de mest skræmmende scenarier er ideen om følelsesmæssige feedback-loops. Hvis du syntes, at en virksomhed, der giver dig opslag på sociale medier baseret på det, du klikker på, var uhyggelig, så forestil dig, at den drypper dig med indhold baseret på, hvordan den ved, du har det. Facebook allerede eksperimenteret med bevidst at manipulere folks følelser via sociale medier for over ti år siden.

Disse følelsesmæssige sløjfer kunne være ødelæggende. Efterhånden som teknologien udvikler sig til at virke mere personlig, bliver dens evne til at påvirke følelser lige så stærk som dens evne til at opdage dem. Vi har allerede set beskyldninger af generative AI-produkter, der bidrager til selvmord.

Juridiske beskyttelser

Nogle love kunne påberåbes af regulatorer for at forhindre overskridelser. Mens få virksomheder analyseret i Neurorights Foundation-rapporten eksplicit anerkendte hjernedata som personlige oplysninger, har advokater tyder at det ville falde helt ind i denne kategori under nogle regler om forbrugerbeskyttelse, såsom GDPR. EU's AI-lov regulerer også eksplicit brugen af ​​AI-drevne systemer, der bruger biometriske data til følelsesmæssig genkendelse, og forbyder dem direkte i nogle miljøer og kategoriserer dem, der er tilladt, som højrisikosystemer med strenge lovkrav.

Ærgerligt dårlig føderal beskyttelse af privatlivets fred i USA vil ikke tilbyde privatlivsforkæmpere den samme trøst, men staterne går op. Nogle vil muligvis være i stand til at tackle wearables til følelseslæsning under eksisterende lovgivning om forbrugerbeskyttelse, mens nogle bevæger sig for at udskille hjernebaserede data. I februar bestod Colorado en Bill eksplicit beskyttelse af neurale data. Californien bestod sit eget Bill i oktober. En anden måde kan være at klassificere følelsesmæssige data som biometriske.

Arbejdet med wearables til følelsesmæssig detektion fortsætter i høj grad, og markedet vokser hurtigt. Følelsesmæssig genkendelsesteknologi var 23.5 mia. USD værd i 2022 og vil nå op på 42.9 mia. USD i 2027 – en CAGR på 12.8 % over fem år. Der er masser af penge på spil. Omvendt er det juridiske og etiske arbejde på dette område stadig embryonalt. At behandle neurale og følelsesmæssige data som personlige data – hvis ikke særlige kategoridata med ekstra beskyttelse – er et smart træk på kort sigt, uanset om regulatorer har testet problemet eller ej. Med noget så kraftfuldt, jo mere forsigtighed, jo bedre.

SOC 2 er her! Styrk din sikkerhed og opbyg kundernes tillid med vores kraftfulde overholdelsesløsning i dag!