Fagbevægelsens Hovedorganisation (FH) har i regi af EU-Specialudvalget for Arbejdsmarked og Sociale forhold modtaget høring til Kommissionens udkast til forordning om kunstig intelligens.

FH takker for den fremsendte høring. Algoritmer vinder indpas alle steder på arbejdsmarkedet, og det er vigtigt, at udfordringerne bliver håndteret, så alle arbejdstageres retssikkerhed bliver respekteret.

FH mener helt overordnet, at Europa har brug for at følge med særligt USA og Kina, når det gælder kunstig intelligens. En teknologisk førerposition er afgørende for, at der er gode arbejdspladser på europæiske hænder i fremtiden. Det kræver både gode lovgivningsmæssige rammer og investeringer. Kunstig intelligens er en del af løsningen, hvis Europa skal holde arbejdspladser på europæiske hænder i fremtiden.

FH bemærker, at Beskæftigelsesministeriet allerede har fået udarbejdet rapporten Lønmodtager/arbejdstagerbegrebet i dansk arbejds- og ansættelsesret – med fokus på platformsarbejde, hvor en række relevante opmærksomhedspunkter ved ledelse gennem algoritmer og kunstig intelligens belyses. Rapporten beskriver en lang række af de udfordringer, som FH
også ser.

Endvidere kan det oplyses, at ETUC, BusinessEurope, CEEP og SMEunited i juni 2020 underskrev rammeaftalen om digitalisering, som skal implementeres nationalt inden for tre år efter dens indgåelse. I rammeaftalen indgår bl.a. afsnit om kunstig intelligens og garanti for princippet om menneskelig kontrol, herunder behovet for at sikre, at kunstig intelligens styrker den menneskelige inddragelse og kapacitet på arbejdsmarkedet, samt et afsnit om respekt for menneskelig værdighed samt overvågning.

I FH ser vi mulighederne i kunstig intelligens. Teknologien rummer et stort potentiale for både den offentlige og private sektor, men algoritmerne skal bruges til at understøtte fagligheden – ikke erstatte den.

I FH er der fokus på, at arbejdet med kunstig intelligens skal ske med fagligheden og ansvarligheden som rettesnor. Hvis teknologien skal blive en succes, skal medarbejderne ind i ”maskinrummet” og være med i udviklings- og implementeringsfasen. Inddragelsen bør ikke begrænses til udvikling og implementering. I de tilfælde, der er tale om AI, der er selvlærende/autonom, er det mindst lige så nødvendigt med inddragelse i den løbende prøvningsprocedure og risikovurdering.

En fælles europæisk ramme

I forhold til den internationale dagsorden mener FH, at når det gælder udbredelsen af kunstig intelligens, bør der på EU-plan skabes nogle retningslinjer for, hvordan teknologien må anvendes på arbejdsmarkedet, så det ikke sker på bekostning af lønmodtagernes fysiske og psykiske arbejdsmiljø.

Overordnet anerkender FH derfor også Kommissionens formål om at sikre, at kunstig intelligens, der anvendes i EU, respekterer eksisterende lovgivning, grundlæggende rettigheder samt EU’s værdier. Det er vigtigt, at de grundlæggende etiske principper gennemsyrer forordningen. Kunstig intelligens er dilemmafyldt og kan ikke altid løses inden for hverken et eller flere sæt regler. Dataetik og etisk AI skal sikre, at AI bl.a. tænkes, udvikles, bruges og forstås med respekt for menneskers frihed, autonomi, værdighed og samtidig er retfærdig og forklarlig.

Ift. forordningens definition af kunstig intelligens mener FH, at denne så vidt mulig bør følge anerkendte, eksisterende definitioner fx i regi af ISO eller OECD. Der bør være en betydende grund til at introducere alternative begreber, fx ”software” frem ”maskinbaseret system” – det skal sikres at definitionen og tilpasning af begreber bibringer ny værdi eller klarhed.

Forordningsforslaget opdeler kunstig intelligens i fire risikokategorier:

  1. Uacceptabel risiko, hvor der er direkte forbud af visse anvendelser
  2. Højrisiko, hvor der er specifikke krav forbundet med visse anvendelser, og hvor der påkræves forudgående overensstemmelsesvurderinger samt efterfølgende markedsovervågning
  3. Begrænset risiko, hvor der er gennemsigtighedsforpligtelser tilknyttet visse anvendelser af teknologien
  4. Lav eller minimal risiko.

FH er tilfreds med, at AI-systemer, der er beregnet til rekruttering eller udvælgelse af fysiske personer samt AI-systemer, der er beregnet til beslutningstagning om forfremmelse og afskedigelse og til opgavefordeling, overvågning og evaluering af personers præstationer og adfærd i arbejdsrelaterede kontraktforhold, betragtes som værende højrisikosystemer under området Beskæftigelse, forvaltning af arbejdstagere og adgang til selvstændig virksomhed. Netop denne form for algoritmeledelse er ofte uigennemsigtig for arbejdstagerne, og derfor kan have både tilsigtede og utilsigtede konsekvenser, som det kan være vanskeligt at forsvare sig imod.

FH er bl.a. optaget af, at algoritmeledelse skal være undergivet de saglighedskrav m.m., der gælder generelt ved udøvelse af ledelsesretten i Danmark.

FH bemærker herudover, at AI-systemer, der har direkte eller indirekte påvirkning på de fysiske og psykiske forhold ligeledes burde tilføjes under området Beskæftigelse, forvaltning af arbejdstagere og adgang til selvstændig virksomhed.

Det er endvidere tilfredsstillende, at AI-systemer, der benyttes til at optage og fordele samt evaluere fysiske personer på uddannelsesinstitutioner, også betragtes som højrisiko-AI-systemer.

FH er positivt indstillet overfor, at der blandt forpligtelserne for højrisiko-AI-systemer bl.a. i artikel 13 er krav om gennemsigtighed, så højrisiko-AI-systemer udformes og udvikles på en sådan måde, at deres drift er tilstrækkelig gennemsigtig til, at brugerne kan fortolke systemets output og anvende det korrekt.

FH anser kravet om menneskeligt tilsyn, som det fremgår af artikel 14, for værende centralt, så fysiske personer kan føre effektivt tilsyn med højrisiko-AI-systemer i den periode, hvor AIsystemet er i brug. Menneskets kontrol med maskiner og kunstig intelligens bør garanteres på arbejdspladsen og bør understøtte brugen af robotteknologi og applikationer med kunstig intelligens samtidig med, at sikkerhedskontroller overholdes og efterleves.

Medarbejdernes perspektiv er afgørende

FH noterer, at forordningens overordnede formål er at sikre et velfungerende indre marked ved at etablere betingelserne for udvikling og anvendelse af lovlig, sikker og pålidelige kunstig intelligens i EU. FH bemærker i denne henseende, at det er nødvendigt at udarbejde en plan for, hvordan medarbejderne inddrages, før der implementeres AI-systemer på arbejdspladsen.

Medarbejderne er jo dem, som ud fra en borger- og kundenær, konkret og lavpraktisk hverdag kan vurdere, om teknologierne rent faktisk kan være med til at hjælpe i opgaveløsningen, og om de kan beskytte borgerne mod overvågning, fremmedgørelse og uretfærdige beslutninger. Medarbejderne bør også være med til at vurdere, om teknologien fører forringelser af arbejdsmiljøet.

Teknologier kan ændre arbejdspladser radikalt. Derfor mener FH, at det er vigtigt, at implementeringen af teknologier som fx kunstig intelligens og automatisering kombineres med, at man undersøger og sikrer arbejdsmiljøet og dataetikken ift. både medarbejdere, borgere og kunder.

Endelig er det nødvendigt, at medarbejderes faglige vurderinger bringes ind i de afklarende processer, fx i risikostyringssystemet, og dermed spiller en aktiv rolle i den indledende og løbende vurdering af risici forbundet ved brug af et AI-system. Det kunne med fordel være ifm. kortlægning og vurderinger af de faglige konsekvenser for opgaveløsningen og kunden/borgeren og ifm. fastlæggelse af risikostyringsforanstaltninger. Dette bør ligeledes gøres gældende ved AI-systemer, der internt på arbejdspladsen, fx ifm. rekruttering, beslutninger om forfremmelser, fyringer mv. Inddragelsen bør som udgangspunkt ske i de indledende processer altså
allerede ifm. udvikling eller overvejelser om køb af et AI-system.