Forståelse af ISO 42001 Bilag A Kontrol A.9 – Brug af AI-systemer

ISO 42001 Annex A Kontrol A.9 er designet til at sikre, at organisationer bruger kunstig intelligens (AI)-systemer ansvarligt, i overensstemmelse med organisationspolitikker og bredere AI-styringsrammer. Denne kontrol understreger vigtigheden af ​​at etablere klare processer og mål for AI-brug, sikre overholdelse af tilsigtede formål og dokumentere alle relevante procedurer og resultater.

Formål og bidrag til ansvarlig brug af kunstig intelligens

Det primære formål med bilag A Kontrol A.9 er at vejlede organisationer i den etiske, gennemsigtige og ansvarlige brug af AI-systemer. Ved at sætte en global standard sigter den mod at fremme tillid og pålidelighed i AI-teknologier på tværs af forskellige sektorer. Denne kontrol bidrager til ansvarlig brug af AI ved at pålægge detaljeret dokumentation, risikostyringsstrategier og løbende overvågning af AI-systemernes ydeevne.

Nøglekomponenter til Compliance Officers

For overholdelsesansvarlige er nøglekomponenterne i A.9 at bemærke:

  • Processer til ansvarlig brug: Definere og dokumentere, hvordan AI-systemer skal bruges ansvarligt i organisationen.
  • Mål for ansvarlig brug: Identifikation og dokumentation af målene, der styrer den etiske brug af kunstig intelligens, såsom retfærdighed, ansvarlighed og gennemsigtighed.
  • Overholdelse af tilsigtet brug: Sikre at AI-systemer bruges efter hensigten, med nødvendig dokumentation og overvågning på plads.

Tilpasning til bredere AI Governance Frameworks

Bilag A Kontrol A.9 er på linje med bredere AI-styringsrammer ved at integrere med andre ISO-standarder, såsom ISO 27001 og ISO 9001, og global AI-lovgivning. Dette sikrer en samlet tilgang til styring af AI-risici, forbedring af systemsikkerheden og fremme af etisk AI-brug på tværs af alle organisatoriske niveauer. Gennem denne tilpasning kan organisationer opnå en omfattende og konsistent ramme for AI-styring, der effektivt adresserer etiske overvejelser, databeskyttelse og sikkerhedsrisici.

Book en demo

Processer for ansvarlig brug af AI-systemer – A.9.2

Definere og dokumentere processer

I henhold til ISO 42001 Annex A Kontrol A.9.2 er organisationer forpligtet til at etablere og dokumentere specifikke processer for ansvarlig brug af AI-systemer. Disse processer skal omfatte overvejelser såsom nødvendige godkendelser, omkostningsimplikationer, indkøbskrav og overholdelse af juridiske og regulatoriske standarder. Det er bydende nødvendigt, at disse processer er klart definerede, dokumenterede og tilgængelige for relevante interessenter i organisationen.

Implementering og tilsyn

Effektiv implementering af disse dokumenterede processer er afgørende. Organisationer kan opnå dette ved at integrere disse processer i deres eksisterende ledelsessystemer og sikre, at de er tilpasset organisatoriske mål og overholder relevante standarder. Overholdelsesansvarlige spiller en central rolle i denne sammenhæng, idet de overvåger overholdelse af disse processer, udfører regelmæssige gennemgange og faciliterer opdateringer efter behov for at reagere på skiftende lovgivningsmæssige og operationelle landskaber.

Rolle af ISMS.online

ISMS.online hjælper væsentligt med dokumentation og styring af processer til ansvarlig brug af AI-systemer. Vores platform tilbyder værktøjer og skabeloner, der strømliner oprettelse, opbevaring og deling af dokumentation. Derudover forbedrer ISMS.online samarbejdet mellem teammedlemmer, hvilket muliggør effektive opdateringer og overholdelsessporing. Ved at udnytte vores platform kan organisationer sikre, at deres processer til brug af kunstig intelligens ikke kun er veldokumenterede, men også effektivt implementeret og overvåget, i overensstemmelse med ISO 42001-kravene.


Alt hvad du behøver
til ISO 42001

Administrer og vedligehold dit ISO 42001 Artificial Intelligence Management System med ISMS.online

Book en demo

Mål for ansvarlig brug af AI-system – A.9.3

Identificering og dokumentation af mål

Under ISO 42001 Annex A Kontrol A.9.3 er etableringen af ​​klare målsætninger afgørende for at vejlede den ansvarlige brug af AI-systemer. Disse mål omfatter typisk retfærdighed, ansvarlighed, gennemsigtighed, forklarlighed, pålidelighed, sikkerhed, robusthed, privatliv, sikkerhed og tilgængelighed. For at identificere og dokumentere disse mål bør organisationer overveje deres specifikke kontekst, herunder det operationelle, juridiske og etiske landskab, hvori de opererer. Denne proces involverer involvering af interessenter på tværs af forskellige afdelinger for at sikre en omfattende forståelse af, hvad ansvarlig brug af kunstig intelligens betyder for organisationen.

Udfordringer med at tilpasse AI-brug med mål

Organisationer kan støde på udfordringer med at tilpasse brugen af ​​kunstig intelligens til disse mål på grund af kunstig intelligens-teknologiers dynamiske natur og kompleksiteten af ​​etiske overvejelser. Balancering af innovation med etiske begrænsninger, styring af skiftende regulatoriske krav og sikring af interessentkonsensus kan udgøre betydelige hindringer.

Fordele ved at opstille klare mål

Etablering af klare mål for ansvarlig brug af AI-systemer gavner den overordnede AI-systemstyring ved at give en struktureret ramme for beslutningstagning og operationelle processer. Det sikrer, at AI-implementeringer er tilpasset organisatoriske værdier og regulatoriske krav, og derved mindske risici og øge tilliden blandt brugere og interessenter. Desuden letter klare mål udviklingen af ​​specifikke strategier for at opnå ansvarlig brug af kunstig intelligens, herunder mekanismer til menneskeligt tilsyn og præstationsovervågning, som er afgørende for at opretholde overholdelse og fremme et etisk kunstig intelligens-økosystem.


Tilsigtet brug af AI-systemet – A.9.4

Sikring af overensstemmelse med tilsigtet brug

ISO 42001 Annex A Kontrol A.9.4 pålægger, at AI-systemer skal bruges i overensstemmelse med deres udpegede formål, som beskrevet i deres medfølgende dokumentation. Dette direktiv tjener til at tilpasse implementeringen og driften af ​​AI-teknologier med foruddefinerede mål og derved mindske risici forbundet med misbrug eller utilsigtede applikationer. For at understøtte overholdelse er organisationer forpligtet til at føre detaljerede optegnelser, herunder implementeringsinstruktioner og præstationsforventninger, som er medvirkende til at vejlede den ansvarlige brug af AI-systemer.

Nødvendig dokumentation

For at overholde A.9.4 skal organisationer kompilere og bevare omfattende dokumentation, der afgrænser den påtænkte brug af AI-systemer. Dette omfatter implementeringsretningslinjer, ressourcekrav og kriterier for menneskeligt tilsyn. Sådan dokumentation letter ikke kun nøjagtig systemydeevne, men sikrer også, at AI-applikationer stemmer overens med juridiske og etiske standarder.

Overvågnings- og håndhævelsesmekanismer

Effektiv overvågning af AI-systemer er afgørende for at sikre, at de fungerer efter hensigten. Organisationer kan implementere automatiserede værktøjer og menneskeligt tilsyn for regelmæssigt at vurdere AI-ydeevne i forhold til dokumenterede forventninger. I tilfælde, hvor der opdages afvigelser, bør foruddefinerede protokoller til adressering og udbedring af disse uoverensstemmelser aktiveres for derved at sikre mod potentielle påvirkninger af interessenter og overholdelsesforpligtelser.

Håndtering af afvigelser fra tilsigtet brug

For at håndtere afvigelser fra tilsigtet brug bør organisationer etablere klare mekanismer til rapportering og afhjælpning af manglende overholdelse. Dette omfatter vedligeholdelse af hændelseslogfiler og andre optegnelser, der kan demonstrere overholdelse af tilsigtet brug eller lette undersøgelsen af ​​problemer. Ved at fremme et miljø præget af gennemsigtighed og ansvarlighed kan organisationer hurtigt reagere på afvigelser og sikre, at AI-systemer fortsætter med at fungere inden for deres definerede etiske og operationelle parametre.


Administrer al din overholdelse ét sted

ISMS.online understøtter over 100 standarder
og regler, hvilket giver dig en enkelt
platform til alle dine overholdelsesbehov.

Book en demo

Risikostyringsstrategier for AI-systemer

Unikke risici forbundet med AI-systemer

AI-systemer introducerer i sagens natur et sæt unikke risici, der adskiller sig væsentligt fra traditionelle it-systemer. Disse omfatter etiske overvejelser, såsom bias og fairness; sikkerhedsrisici, især inden for databeskyttelse; og operationelle risici, herunder pålidelighed og robusthed. I henhold til ISO 42001 er genkendelse og håndtering af disse risici altafgørende for ansvarlig brug af kunstig intelligens.

Dynamisk risikoidentifikation og analyse

Dynamisk risikoidentifikation og analyse involverer løbende overvågning af AI-systemer for nye og udviklende risici. Denne proces kræver en omfattende forståelse af AI-systemets livscyklus, fra udvikling til implementering og vedligeholdelse. Ved at anvende værktøjer som automatiseret risikovurderingssoftware kan organisationer opdage potentielle problemer i realtid og sikre, at risikostyringsstrategier forbliver relevante og effektive.

Skræddersyede strategier til AI-specifikke risici

For at imødegå AI-specifikke risici er skræddersyede strategier, der tager højde for de unikke egenskaber ved AI-systemer, afgørende. Dette inkluderer implementering af etiske AI-retningslinjer for at afbøde skævhed, forbedring af databeskyttelsesforanstaltninger for privatlivets fred og etablering af robuste overvågningssystemer for pålidelighed. Hver strategi bør tilpasses til organisationens specifikke AI-applikationer og operationelle kontekst.

Effektiv risikostyring og ansvarlig brug af kunstig intelligens

Effektiv risikostyring er en hjørnesten i ansvarlig brug af kunstig intelligens. Ved at identificere, analysere og adressere AI-specifikke risici kan organisationer sikre, at deres AI-systemer fungerer etisk, sikkert og pålideligt. Dette er ikke kun i overensstemmelse med ISO 42001-standarderne, men bygger også tillid blandt brugere og interessenter, hvilket fremmer en kultur med ansvarlighed og løbende forbedringer i AI-systemstyring. Hos ISMS.online leverer vi de værktøjer og den nødvendige vejledning til at implementere disse risikostyringsstrategier effektivt og understøtter din organisations rejse mod ansvarlig brug af kunstig intelligens.


Alt hvad du behøver
til ISO 42001

Administrer og vedligehold dit ISO 42001 Artificial Intelligence Management System med ISMS.online

Book en demo

Driftsplanlægning og ressourceallokering

Strategiske tilgange til indstilling af AI-systemmål

For at sætte mål i AI-systeminitiativer er en strategisk tilgang afgørende. Dette involverer at tilpasse AI-mål med de bredere organisatoriske mål og sikre, at de er SMARTE (Specific, Measurable, Achievable, Relevant, Time-bound). Hos ISMS.online går vi ind for en deltagende proces, hvor interessenter fra forskellige afdelinger bidrager til at definere disse målsætninger, hvilket sikrer et holistisk syn på, hvordan AI kan tjene organisationens mission.

Sikring af tilpasningsevne i AI-initiativer

Tilpasningsevne er nøglen i det hurtigt udviklende område af AI. Organisationer skal fremme en kultur med kontinuerlig læring og fleksibilitet for at tilpasse AI-strategier, efterhånden som nye teknologier dukker op, og regulatoriske landskaber ændrer sig. Dette inkluderer regelmæssige gennemgange af AI-målsætninger og paratheden til at pivotere strategier som reaktion på ny indsigt eller eksternt pres.

Overvejelser for ressourceallokering

Effektiv ressourceallokering til AI-initiativer kræver en omhyggelig vurdering af de nødvendige værktøjer, teknologier og talent. Organisationer bør ikke kun overveje den indledende investering i AI-teknologier, men også de løbende omkostninger til vedligeholdelse, opdateringer og træning. Det er afgørende at prioritere investeringer, der har den mest betydningsfulde indvirkning på at nå AI-mål.

Indvirkning af operationel planlægning på AI-systemets livscyklus

Operationel planlægning påvirker AI-systemernes livscyklus markant. Det sikrer, at ressourcer bruges effektivt, risici styres proaktivt, og AI-initiativer er skalerbare og bæredygtige. Gennem omhyggelig planlægning kan organisationer undgå almindelige faldgruber såsom ressourcemangel, forkerte målsætninger og overholdelsesproblemer, og derved forbedre AI-systemernes levetid og effektivitet.


Yderligere læsning

Præstationsevaluering og intern revision

Anbefalede metoder til overvågning af AI-systemets ydeevne

For effektiv overvågning og måling af AI-systemets ydeevne anbefales en kombination af kvantitative og kvalitative metoder. Kvantitativt bør der etableres nøglepræstationsindikatorer (KPI'er), der er direkte knyttet til AI-systemets mål. Kvalitativt giver regelmæssig feedback fra brugere og interessenter indsigt i systemets påvirkning og områder til forbedring. Tilsammen sikrer disse metoder en omfattende forståelse af AI-systemets ydeevne.

Strukturering af interne audits for AI System Compliance

Interne revisioner er struktureret gennem en systematisk gennemgang af AI-systemets overholdelse af etablerede politikker, procedurer og standarder. Dette involverer undersøgelse af dokumentation, interview af personale og test af AI-systemoutput i forhold til forventede resultater. Audits bør planlægges med jævne mellemrum og efter væsentlige ændringer i AI-systemet eller dets driftsmiljø.

Rolle af ledelsesanmeldelser i evalueringsprocessen

Ledelsesgennemgange spiller en afgørende rolle i evalueringsprocessen ved at give den øverste ledelse mulighed for at vurdere den overordnede effektivitet af AI-systemet og dets overensstemmelse med ISO 42001. Disse gennemgange bør overveje revisionsresultater, præstationsdata og interessentfeedback for at træffe informerede beslutninger om nødvendige justeringer eller forbedringer.

Support fra ISMS.online

Hos ISMS.online tilbyder vi værktøjer og ressourcer, der strømliner præstationsevaluering og interne revisionsprocesser. Vores platform letter dokumentationen af ​​KPI'er, planlægningen af ​​revisioner og indsamling og analyse af feedback. Med ISMS.online kan du sikre, at dit AI-systems ydeevne overvåges løbende, og at overholdelsen af ​​ISO 42001 opretholdes, hvilket fremmer en kultur med løbende forbedringer og ansvarlig AI-brug.


Kontinuerlig forbedring af AI System Management

Strategier til tilbagevendende forbedring

For at fremme tilbagevendende forbedringer af AI-systemer bør organisationer anvende en cyklisk tilgang til forbedring, der ligner Plan-Do-Check-Act (PDCA) cyklussen. Dette indebærer regelmæssig gennemgang af AI-systemets ydeevne, identificering af områder til forbedring, implementering af ændringer og evaluering af virkningen af ​​disse ændringer. Hos ISMS.online understreger vi vigtigheden af ​​at integrere løbende forbedringer i AI-livscyklussen, hvilket sikrer, at AI-systemer udvikler sig i takt med teknologiske fremskridt og skiftende organisatoriske behov.

Tilpasning til udviklende AI-landskaber

Tilpasning til det udviklende AI-landskab kræver en proaktiv holdning til innovation og en forpligtelse til livslang læring i organisationen. At holde sig ajour med nye AI-teknologier og -metoder gør det muligt for organisationer at træffe informerede beslutninger om at inkorporere nye funktioner eller muligheder i eksisterende AI-systemer. Vores platform understøtter strategisk beslutningstagning ved at levere ressourcer og værktøjer, der hjælper dig med at overvåge AI-tendenser og vurdere deres relevans for dine organisatoriske mål.

Feedbackens rolle i forbedring

Feedback fra brugere, interessenter og selve AI-systemet er uvurderlig for løbende forbedringer. Det giver direkte indsigt i systemets ydeevne, brugertilfredshed og potentielle områder for forbedring. Opmuntring af en åben feedbackkultur og etablering af mekanismer til indsamling og analyse af feedback sikrer, at forbedringsindsatsen er datadrevet og tilpasset brugernes behov.

Dokumentation og anvendelse af erfaringer

Effektiv dokumentation af erfaringer er afgørende for at udnytte tidligere erfaringer og undgå gentagne fejl. Organisationer bør føre optegnelser over forbedringsinitiativer, deres resultater og eventuelle udfordringer. Denne dokumentation tjener som vidensbase for fremtidige forbedringsindsatser og hjælper med at institutionalisere læringsprocessen. Hos ISMS.online letter vores platform dokumentation og deling af erfaringer, hvilket gør det muligt for organisationer at anvende disse indsigter systematisk til kontinuerlig forbedring af AI-system.


Dokumentation og overholdelse af ISO 42001-certificering

Væsentlig dokumentation til at påvise overholdelse

For organisationer, der sigter på at demonstrere overholdelse af ISO 42001, er det afgørende at vedligeholde omfattende dokumentation. Dette omfatter politikker, procedurer, risikovurderinger, konsekvensanalyser og registreringer af løbende forbedringsbestræbelser. Dokumentation tjener som bevis på organisationens forpligtelse til ansvarlig brug og styring af kunstig intelligens, i overensstemmelse med ISO 42001-rammen.

Forberedelse til ISO 42001 certificeringsaudits

Forberedelse til ISO 42001 certificeringsaudit involverer en grundig gennemgang af al relevant dokumentation, der sikrer, at AI-systemer implementeres og styres i overensstemmelse med standardens krav. Organisationer bør udføre interne audits for at identificere og afhjælpe eventuelle mangler i overholdelse. Uddannelse af personale i ISO 42001 principper og praksis er også afgørende for at sikre, at alle forstår deres rolle i at opretholde overholdelse.

Fordele ved ISO 42001-certificering

ISO 42001-certificering giver adskillige fordele, herunder øget tillid blandt interessenter, forbedret risikostyring og en konkurrencefordel på markedet. Certificering demonstrerer en organisations dedikation til etisk, gennemsigtig og sikker brug af kunstig intelligens, hvilket fremmer tilliden blandt kunder, partnere og regulerende organer.

Forenkling af overholdelse og certificering med ISMS.online

Hos ISMS.online strømliner vi overholdelses- og certificeringsprocessen for ISO 42001. Vores platform giver skabeloner, værktøjer og ressourcer til effektivt at administrere dokumentation, udføre risikovurderinger og implementere løbende forbedringsprocesser. Ved at udnytte ISMS.online kan organisationer nemt navigere i kompleksiteten af ​​ISO 42001-overholdelse, hvilket sikrer en jævn vej til certificering og videre.


Etiske overvejelser og bias Mitigation i AI-systemer

ISO 42001 adresserer etiske overvejelser ved brug af kunstig intelligens ved at opstille en ramme, der understreger retfærdighed, ansvarlighed, gennemsigtighed og privatliv. Disse principper guider organisationer i at udvikle AI-systemer, der respekterer menneskerettighederne og undgår skade. For at afbøde skævhed og sikre ansvarlighed anbefaler ISO 42001 at implementere forskellige datasæt, udføre regelmæssige revisioner og etablere klare ansvarlighedsmekanismer.

Strategier for bias afbødning og ansvarlighed

For at bekæmpe bias bør organisationer anvende strategier som:

  • Diverse dataindsamling: Sikring af datasæt er repræsentative for alle berørte demografiske grupper for at reducere bias.
  • Regelmæssige revisioner: Udførelse af periodiske gennemgange af AI-systemer for at identificere og korrigere skævheder.
  • Gennemsigtig rapportering: Gør de metoder, datasæt og algoritmer, der bruges i AI-systemer, tilgængelige for undersøgelse.

Integration af Ethical AI Governance

Integrering af etisk AI-styring involverer:

  • Etablering af etiske retningslinjer: Udarbejdelse af klare politikker, der skitserer etiske overvejelser i AI-udvikling og -brug.
  • Træning og bevidsthed: Uddannelse af medarbejdere om vigtigheden af ​​etik i kunstig intelligens og deres rolle i at opretholde disse standarder.
  • Interessentengagement: Inddragelse af brugere, kunder og andre interessenter i diskussioner om etisk brug af kunstig intelligens.

Udfordringer med at sikre etisk ansvarlige AI-systemer

At sikre AI-systemer er etisk ansvarlige kan give udfordringer, herunder:

  • Kompleksiteten af ​​AI-teknologier: AI's indviklede natur kan gøre det vanskeligt at forstå og kontrollere alle aspekter.
  • Udvikling af etiske standarder: Efterhånden som samfundsmæssige normer og regler ændrer sig, kræver det en konstant indsats at holde AI-systemer på linje med disse standarder.
  • Balancer innovation med etik: Det kan være udfordrende at finde den rette balance mellem avancerede AI-teknologier og overholde etiske principper.



ISO 42001 Annex A Kontrolelementer

ISO 42001 Bilag A KontrolISO 42001 Bilag A Kontrolnavn
ISO 42001 Bilag A Kontrol A.2Politikker relateret til AI
ISO 42001 Bilag A Kontrol A.3Intern organisation
ISO 42001 Bilag A Kontrol A.4Ressourcer til AI-systemer
ISO 42001 Bilag A Kontrol A.5Vurdering af virkningerne af AI-systemer
ISO 42001 Bilag A Kontrol A.6AI System Livscyklus
ISO 42001 Bilag A Kontrol A.7Data til AI-systemer
ISO 42001 Bilag A Kontrol A.8Information til interesserede parter i AI-systemer
ISO 42001 Bilag A Kontrol A.9Brug af AI-systemer
ISO 42001 Bilag A Kontrol A.10Tredjeparts- og kundeforhold

Kontakt ISMS.online for overholdelse af ISO 42001

Hos ISMS.online forstår vi de kompleksiteter og udfordringer, din organisation står over for i forbindelse med opnåelse af ISO 42001-overensstemmelse, især når det kommer til ansvarlig brug af AI-systemer. Vores platform er designet til at forenkle denne proces og give dig de værktøjer og ressourcer, der er nødvendige for effektive AI Management Systems (AIMS).

Hvordan ISMS.online understøtter ISO 42001-overensstemmelse

Vores platform tilbyder en omfattende pakke af værktøjer, der strømliner de processer for dokumentation, risikovurdering og ledelsesgennemgang, der er afgørende for overholdelse af ISO 42001. Med ISMS.online kan du nemt vedligeholde registreringer af dine AI-systemers livscyklus, fra udvikling til implementering, og sikre, at alle aktiviteter er tilpasset ISO-standarder.

Værktøjer og ressourcer til AI-styringssystemer

ISMS.online tilbyder en række værktøjer og ressourcer, der er skræddersyet til AI Management Systems, herunder skabeloner til risikovurderinger, konsekvensanalyser og politikdokumentation. Vores platform letter samarbejdet mellem teammedlemmer, hvilket muliggør effektiv styring af AI-relaterede opgaver og sikrer, at dine AI-systemer opfylder de etiske, gennemsigtige og troværdige kriterier fastsat af ISO 42001.

Hvorfor vælge ISMS.online

At vælge ISMS.online til dine behov for AI-systemadministration og overholdelse betyder at vælge en platform, der kombinerer brugervenlighed med omfattende funktionalitet. Vores platform hjælper dig ikke kun med at opnå overholdelse af ISO 42001, men forbedrer også din overordnede AI-styringsstrategi, hvilket gør det nemmere at styre risici, dokumentere processer og interagere med interessenter.

Kom godt i gang med ISMS.online

For at forbedre din AI-styringsstrategi og starte din rejse mod ISO 42001-overholdelse er det ligetil at komme i gang med ISMS.online. Vores team er klar til at hjælpe dig med at oprette din konto, guide dig gennem platformens funktioner og yde support, når du har brug for det. Kontakt os i dag for at lære mere om, hvordan vi kan hjælpe din organisation med at navigere i kompleksiteten af ​​ISO 42001-overholdelse og opnå ekspertise inden for AI-systemstyring.

Book en demo


Gå til emnet

Max Edwards

Max arbejder som en del af ISMS.online marketingteamet og sikrer, at vores hjemmeside er opdateret med nyttigt indhold og information om alt, hvad ISO 27001, 27002 og compliance angår.

ISMS platform tur

Interesseret i en ISMS.online platform tour?

Start din gratis 2-minutters interaktive demo nu, og oplev magien ved ISMS.online i aktion!

Prøv gratis

Vi er førende inden for vores felt

Brugere elsker os
Netleder - Sommer 2025
Momentum Leader - Sommer 2025
Regional leder - Sommer 2025 Europa
Regional leder - Sommer 2025 EMEA
Regional leder - Sommer 2025 Storbritannien
Højtydende - Sommer 2025 Europa

"ISMS.Online, fremragende værktøj til overholdelse af lovgivning"

-Jim M.

"Gør ekstern revision til en leg og forbinder alle aspekter af dit ISMS problemfrit"

- Karen C.

"Innovativ løsning til styring af ISO og andre akkrediteringer"

- Ben H.