I denne uge stemte de ansvarlige udvalg i Europa-Parlamentet om deres holdning til den såkaldte Digitale Omnibus for kunstig intelligens (AI).
Forslaget har til formål at forenkle reglerne for virksomhedernes brug af AI og gøre det lettere at udvikle og anvende nye teknologier i EU.
Udvalgene bakker overordnet op om regelforenkling. Samtidig har de vedtaget en række ændringer til Kommissionens oprindelige forslag.
Risiko for mindre gennemsigtighed for arbejdstagere
Et centralt spørgsmål i forslaget er, hvem der har ansvaret for, at arbejdstagere forstår og kan håndtere AI på arbejdspladsen.
I Kommissionens oprindelige forslag lå ansvaret primært hos medlemsstaterne og EU. Det har udvalgene ændret, så arbejdsgiverne fortsat har et ansvar for at sikre en vis oplæring i brugen af AI.
Fakta: Centrale ændringer i udvalgenes forslag til AI-Omnibus
- Mere fleksible regler for virksomheder: Reglerne for brug af AI lempes for at fremme innovation og konkurrence
- Arbejdsgivere får ansvar for AI-oplæring:Virksomheder skal bidrage til oplæring – men uden klare minimumskrav
- Uklar grænse for højrisiko-AI: Definitionen af højrisiko-systemer er fortsat bred og upræcis
- Fast dato for nye regler: Tidspunktet for, hvornår særlige regler for højrisiko-AI træder i kraft, fastlægges
- Bedre samspil med anden EU-lovgivning: Forslaget præciserer, hvordan AI-reglerne spiller sammen med eksisterende regler
- Testmiljøer for virksomheder (“sandboxes”)
Men der er ikke fastsat klare krav til, hvor meget information eller oplæring medarbejdere skal have.
Det skaber en reel risiko for, at arbejdstagere står uden tilstrækkelig viden om de systemer, de arbejder med – og dermed i en mere udsat position.
Uklar definition af højrisiko-AI
Udvalgene har også stemt for at fastsætte, hvornår særlige regler for højrisiko-AI skal træde i kraft.
Samtidig er definitionen af, hvornår et system betragtes som højrisiko, fortsat uklar.
Det gælder især i forhold til brugen af persondata. Persondata kan spænde fra oplysninger om sygefravær til biometriske data som ansigtsscanninger – men det er i vidt omfang op til virksomhederne selv at vurdere, hvordan data kategoriseres.
Det åbner for, at virksomheder kan placere sig uden for højrisiko-kategorien – og dermed undgå de strengere regler.
Konsekvensen kan være, at medarbejderdata anvendes uden tilstrækkelig beskyttelse.
Mere fleksibilitet – men også større ansvar
Forslaget lægger generelt op til større fleksibilitet for virksomhederne.
Det skal blandt andet ske gennem såkaldte “sandboxes”, hvor virksomheder kan udvikle og teste AI-systemer under kontrollerede forhold.
Men større fleksibilitet kan også betyde mindre kontrol – og dermed øget risiko for, at arbejdstagernes rettigheder ikke følger med den teknologiske udvikling.
Udvalgenes forslag skal nu behandles i Europa-Parlamentet, før forhandlingerne med Ministerrådet kan gå i gang.
FH vil følge sagen tæt og arbejde for, at arbejdstagernes rettigheder bliver beskyttet i den videre proces.
FH mener
Teknologisk udvikling og kunstig intelligens er afgørende for fremtidens arbejdsmarked – men det må ikke ske på bekostning af lønmodtageres rettigheder. Arbejdstagerne skal være en aktiv del af udviklingen.









