Governance og sikkerhet
7 artikler
Slik bruker dere AI trygt og ansvarlig - uten å kvele innovasjon
Hvorfor ansatte omgår bedriftens AI-løsninger
Ansatte omgår bedrifts-AI fordi de opplever at ChatGPT eller Claude gir bedre kvalitet enn f.eks. Microsoft Copilot. Dette skaper kritiske sikkerhetsrisikoer når sensitiv data deles med private kontoer uten Data Processing Agreements.
Sikring av AI-kontoer - toveis-autentisering og mer
AI-kontoer krever toveis-autentisering (2FA), sterke unike passord, SSO der mulig, tilgangsstyring, logging og overvåking. Hackere målretter AI-kontoer for tilgang til bedriftskommunikasjon og sensitiv data.
Dataklassifisering - hva kan deles med AI?
AFKI-modellen deler data i tre kategorier: GRØNT (trygt å dele), GULT (kun med varsomhet og bedriftskonto), og RØDT (aldri del). Personopplysninger, finansdata, forretningshemmeligheter og kundedata under NDA er alltid rødt.
AI-policy som faktisk følges
Effektiv AI-policy er maks 2 sider, med konkrete eksempler på hva som er greit vs forbudt. Den må være tilgjengelig (QR-kode, Teams-pin), oppdateres regelmessig, og ha klare konsekvenser ved brudd.
GDPR og AI - hva dere må vite
GDPR gjelder når personopplysninger behandles med AI. Vanlige brudd inkluderer deling av kundedata uten DPA, manglende informasjon til registrerte, og ulovlig dataeksport til USA. Løsningen er bedriftskontoer med DPA og anonymisering.
Hallusinasjoner og fact-checking
AI-modeller kan generere troverdig-klingende feilinformasjon (hallusinasjoner). ALLTID verifiser juridiske refs, statistikk, produktinfo og medisinske råd før ekstern bruk. Ansvaret for feil ligger alltid hos mennesket som brukte outputen.
Compliance i regulerte bransjer
Finans, helse, advokater og offentlig sektor har strengere krav til AI-bruk. Dette inkluderer ROS-analyse, taushetsplikt, faglig ansvar, og dialog med tilsynsmyndigheter. Enterprise-løsninger med EU data residency er ofte påkrevd.