Mange virksomheder står over for afgørende beslutninger om implementering af AI-teknologier. Og her spiller juristerne en vigtig rolle.
Det er en velkendt situation for mange jurister: En forretningsenhed har brugt måneder på at udvikle en spændende løsning, teamet er begejstret, og implementeringen er næsten klar. Først da bliver de juridiske rådgivere involveret med en forventning om, at det er en formalitet at få den juridiske tommelfinger i vejret.
Men når det handler om AI, er der pludselig helt nye regler at spille efter, og her kan den traditionelle opdeling mellem jura, forretning og IT ofte blive en hindring i forretningens initiativer.
Med EU's nye AI Act på vej og de omfattende regulatoriske krav, der følger med, er juridisk rådgivning nemlig blevet en kritisk succesfaktor for virksomheder, der ønsker at udnytte AI's potentiale.
Tidlig juridisk involvering i AI-projekter handler ikke bare om risikominimering – det er en strategisk nødvendighed for at sikre bæredygtig værdiskabelse. Med den rette juridiske ramme kan virksomheder trygt udforske AI's muligheder og samtidig overholde gældende og kommende lovgivning.
Usecasen skal i centrum
Den klassiske tankegang, "jura bremser innovation", kommer formentlig fra processer, hvor man har forretning eller teknologi i centrum og først bagefter spørger: ”Må vi gøre det her i vores forretning?” eller: ”Må vi bruge den her teknologi?”
Juristerne har lært at forholde sig til formålet med et forretningsinitiativ eller formålet med at bruge en teknologi.
Eksempel: ”Må vi bruge en båndoptager?” Her vil juristen spørge: ”Til hvad?”
Det samme spørgsmål kommer retur, når forretningen spørger: ”Må vi bruge ChatGPT?” Og hvis forretningen så svarer: ”Til at kommunikere med vores kunder,” vil juristen igen spørge: ”Om hvad?”
Ved at have usecasen i centrum undgår man de mange mulige misforståelser mellem jura og forretning. Forretningen kan på den måde langt lettere beskrive det, den ønsker juristernes vurdering af.
Ovenstående eksempel ser således ud med usecasen i centrum:
”Må vi optage alle kundesamtaler og få det transskriberet med AI-teknologi for at dokumentere aftaleforhold med kunderne og øge serviceniveauet?”
Ikke nok med, at juristen med spørgsmålet i eksemplet får en præcis usecase at forholde sig til ‒ forretningen bliver også tvunget til at sætte ord på, hvad de vil gøre, og præcis, hvilken værdi de forventer at skabe.
Screening: Er det lovligt?
De brede anvendelsesmuligheder med AI og den konkurrencemæssige gamechanger, det forventes at være, har gjort AI til en strategisk prioritet. Derfor skal denne proces erstattes af en langt bedre proces med tidlig involvering af jurister og fokus på usecasen frem for teknologien i sig selv.
Ved at integrere juridisk screening som det første skridt i enhver AI-usecase kan virksomheder:
- spare værdifuld udviklings- og implementeringstid
- undgå omkostningstunge tilpasninger sent i processen
- sikre dokumentation fra starten
- opbygge tillid mellem forretning og juridisk afdeling
- designe løsninger, der er compliant, fra begyndelsen.
Praktisk tilgang til tidlig screening:
- Etablér en hurtig og effektiv proces for initial juridisk vurdering af AI-usecases
- Udarbejd en tjekliste med kernespørgsmål om:
- Datagrundlag og GDPR-compliance
- AI-systemets risikoklassificering under AI Act
- Transparenskrav og dokumentationsbehov
- Ansvarsmæssige implikationer.
- Skab en struktureret dialog mellem forretning og jura gennem:
- Faste touchpoints i projektets tidlige faser
- Klare templates for beskrivelse af usecases
- Definerede eskaleringsprocesser.
De juridiske komplikationer
Mange virksomheder overser grundlæggende juridiske krav i deres iver efter at implementere AI-løsninger. To centrale eksempler fra GDPR viser, hvorfor screening tidligt i processen er afgørende:
- Automatiske afgørelser (GDPR, artikel 22): Individer har ret til at undgå beslutninger udelukkende baseret på automatisk behandling, hvis de har væsentlig juridisk eller praktisk betydning. AI-systemer kan derfor ikke træffe afgørende beslutninger alene – meningsfuld menneskelig involvering er nødvendig, især inden for HR, kreditvurderinger, prissætning og kundesegmentering. Virksomheder bør inkludere menneskelig vurdering, dokumentere denne proces og sikre gennemsigtighed i deres systemer.
- Forenelighedsvurdering (GDPR, artikel 6, stk. 4): Når data bruges til nye formål, skal der vurderes, om det stemmer overens med det oprindelige formål. AI-projekter kræver derfor dokumentation, gennemsigtighed og ofte supplerende retsgrundlag. Historiske data kan ikke uden videre genbruges, og datas følsomhed og påvirkning på individer skal nøje vurderes.
Disse eksempler understreger, at juridisk screening bør indgå fra starten for at sikre, at design, data og processer overholder kravene. Virksomheder bør dokumentere beslutninger, inddrage deres rådgivere tidligt og overveje behovet for en konsekvensanalyse (DPIA) for at skabe compliance fra begyndelsen.
Compliance som et strategisk aktiv
Når den juridiske screening giver grønt lys til en usecase, starter en ny fase af rejsen. Mange virksomheder ser compliance-opgaver som en administrativ byrde, der tager ressourcer fra kerneopgaverne. Dette er en farlig misforståelse i AI-æraen.
Med den nye EU AI Act og eksisterende regulering som GDPR bliver løbende compliance-opgaver en uundgåelig del af det at drive en moderne, datadrevet forretning. Dette er ikke blot juridiske krav ‒ det er fundamentet for ansvarlig og bæredygtig værdiskabelse med AI.
Dette er nogle praktiske anbefalinger, som du kan implementere:
- Budgettér realistisk for compliance-opgaver fra starten
- Integrer compliance-aktiviteter i projektplaner og ressourceallokeringer
- Automatiser compliance-processer hvor muligt
- Opbyg interne kompetencer til håndtering af løbende compliance
- Etablér klare ansvarsområder og rapporteringslinjer.
Juristernes kvalifikationer skal følge med
AI kan effektivt identificere mønstre, behandle store datamængder, foreslå standardløsninger og flagge potentielle problemer, men teknologien kræver en aktiv rolle fra juristen for at sikre ansvarlig brug. Juristen skal validere AI’s konklusioner, vurdere kontekst og nuancer samt træffe etisk forsvarlige beslutninger, især i komplekse situationer.
For at lykkes med denne balance mellem automation og juridisk ekspertise er det nødvendigt, at jurister forstår AI’s funktioner, kan identificere bias og udvikler systematiske metoder til validering. Samtidig skal de dokumentere vurderinger og beslutninger for at skabe transparens og ansvarlighed, så synergien mellem teknologi og juridisk dømmekraft udnyttes optimalt.
AI er ikke bare endnu et IT-projekt eller en juridisk udfordring ‒ det er en transformativ kraft, der kræver nye samarbejdsformer. De virksomheder, der formår at bryde med søjletankegangen og skabe ægte tværfagligt samarbejde, vil stå stærkest i fremtidens marked.
Har du brug for sparring?
Vil I sikre ansvarlig og compliant AI-implementering?
Kontakt os for en snak om, hvordan juridisk screening og strategisk compliance kan hjælpe jer med at udnytte AI sikkert og effektivt.