Governance og sikkerhet
6 artikler
Slik bruker dere AI trygt og ansvarlig - uten å kvele innovasjon
Hvorfor ansatte omgår bedriftens AI-løsninger
Ansatte omgår bedrifts-AI fordi de opplever at ChatGPT eller Claude gir bedre kvalitet enn f.eks. Microsoft Copilot. Dette skaper kritiske sikkerhetsrisikoer når sensitiv data deles med private kontoer uten Data Processing Agreements.
Sikring av AI-kontoer - toveis-autentisering og mer
AI-kontoer krever toveis-autentisering (2FA), sterke unike passord, SSO der mulig, tilgangsstyring, logging og overvåking. Hackere målretter AI-kontoer for tilgang til bedriftskommunikasjon og sensitiv data.
Hvordan klassifisere data før AI-bruk?
Bruk grønn/gul/rød klassifisering: Grønn = offentlig info (trygt i AI), Gul = intern info (kun bedriftskontoer), Rød = personopplysninger/sensitive data (aldri i AI uten anonymisering).
Hvordan lage en effektiv AI-policy?
En god AI-policy er kort (2 sider), konkret (med eksempler), og tilgjengelig (QR-koder, intranet). Den må spesifisere godkjente verktøy, dataklassifisering, og konsekvenser ved brudd.
Hallusinasjoner og fact-checking
AI-modeller kan generere troverdig-klingende feilinformasjon (hallusinasjoner). ALLTID verifiser juridiske refs, statistikk, produktinfo og medisinske råd før ekstern bruk. Ansvaret for feil ligger alltid hos mennesket som brukte outputen.
Compliance i regulerte bransjer
Finans, helse, advokater og offentlig sektor har strengere krav til AI-bruk. Dette inkluderer ROS-analyse, taushetsplikt, faglig ansvar, og dialog med tilsynsmyndigheter. Enterprise-løsninger med EU data residency er ofte påkrevd.