Drie Codes Of Conduct in AI
Van Microsoft, Europa en NLDigital
Sinds 2018 zijn er verschillende grote partijen gekomen met richtlijnen voor betrouwbare AI. Deze richtlijnen zijn opgesteld voor de ontwikkeling en implementatie van ethiek in AI. De hoop is dat AI hierdoor mensgericht blijft en de risico’s minimaliseert, terwijl de voordelen van AI systemen gemaximaliseerd worden. In dit stuk bekijken we 3 van deze codes: de code van Europa, NLDigital (voorheen Nederland ICT) en Microsoft. Wat is het verschil tussen deze 3?
Europese richtlijnen
In juni 2018 heeft de Europese Commissie een team van onafhankelijke experts aangenomen om richtlijnen te creëren. Deze experts hebben in december 2018 een eerste versie van de richtlijnen beschikbaar gesteld, waarna iedereen er kritiek op mocht hebben. In April 2019 is de uiteindelijke versie gepresenteerd (figuur 1).
De richtlijnen richten zich op 3 principes die een betrouwbare AI moet bevatten:
- Rechtmatig - de AI moet zich houden aan alle wetten
- Ethisch - de AI moet zich houden aan ethische principes en waardes
- Robuust - de AI moet zowel op technisch als een sociaal perspectief robuust zijn
De richtlijnen zijn vooral gericht op de laatste 2 principes (ethisch en robuust). Deze richtlijnen komen deels al terug in bestaande wetten, maar dit is niet genoeg. In Figuur 1 wordt ook aangegeven dat alle zeven de richtlijnen even belangrijk zijn, elkaar ondersteunen en met regelmaat geëvalueerd moeten worden. De gemaakte richtlijnen zijn:
Menselijk toezicht
Mensen moeten altijd de regie houden over de systemen: de systemen moeten ondersteunend werken en de menselijke autonomie niet ondermijnen. Het is belangrijk dat gebruikers van het systeem voldoende kennis hebben over het onderwerp waar het systeem keuzes over maakt.
Technische robuustheid en veiligheid
AI systemen moeten veerkrachtig en veilig zijn. Om te zorgen dat onopzettelijke schade geminimaliseerd wordt, moeten de beslissingen accuraat, betrouwbaar en reproduceerbaar zijn.
Privacy en databeleid
De privacy- en gegevensbescherming moet volledig nageleefd worden. Hierbij moet ook gekeken worden naar de kwaliteit en integriteit van de gegevens en de toegang tot deze gegevens. Voordat de dataset gebruikt wordt, moet worden nagedacht over mogelijke vooroordelen die in de data voor kunnen komen.
Transparantie
De data, systemen en modellen moeten transparant zijn. AI systemen en de beslissingen die ze maken moeten daarnaast ook uitgelegd kunnen worden op een manier die voor de stakeholder begrijpelijk is. Daarnaast moeten mensen weten wanneer ze met een AI systeem te maken hebben en wat hiervan de mogelijkheden en limieten zijn.
Diversiteit, non-discriminatie en eerlijkheid
Oneerlijke vooroordelen moeten vermeden worden. Voorbeelden hiervan zijn de marginalisering van kwetsbare groepen en de verergering van bestaande vooroordelen en discriminatie. De AI systemen moeten toegankelijk zijn voor iedereen, ongeacht mogelijke beperkingen van de gebruiker.
Maatschappelijk en ecologisch welzijn
AI systemen moeten duurzaam en milieuvriendelijk zijn. Ze moeten rekening houden met het milieu en alle levende wezens.
Verantwoordelijkheid
Mechanismen moeten worden ingesteld om verantwoordelijkheid en verantwoording te hebben voor AI systemen en hun resultaten.
De Europese Commissie geeft zelf al een lijst met vragen die het makkelijker moeten maken voor de ontwerper van het systeem om een ethische AI te maken.
NLDigital (voorheen Nederland ICT)
In maart 2019 heeft Nederland ICT een ‘Ethische Code Artificial Intelligence’ gepresenteerd. Hier staan richtlijnen in die Nederland ICT heeft opgesteld om op een ethische manier te werken met AI. Deze richtlijnen zijn gebaseerd op de Europese richtlijnen die beschreven zijn in paragraaf 2.1.1. Nederland is hiermee het eerste land waar de ICT-branch de Europese richtlijnen omgezet heeft naar een gedragscode voor bedrijven. Deze gedragscode gaat zich nog verder ontwikkelen op basis van feedback uit de praktijk.
De regels houden in dat de lidbedrijven van Nederland ICT:
- zich bewust zijn van de invloed die de resultaten van het AI systeem kan hebben op publieke waarden
- duidelijk maken wanneer een gebruiker te maken heeft met AI en wie de verantwoordelijkheid heeft
- bewust en transparant zijn over zowel de mogelijkheden als tekortkomingen van AI en hierover ook communiceren (om bias te minimaliseren en inclusieve representatie te vergroten)
- inzicht in de data geven of hier mogelijkheden voor bieden
- alle direct betrokkenen de mogelijkheid geven om resultaten van het AI systeem in te zien
- gebruikers feedbackmogelijkheden geven en goede monitoring van het gedrag van de applicatie hebben
- kennis over AI delen, zowel binnen als buiten de sector
- informatie geven binnen de keten over de systemen en onderliggend gebruik van de data, datagebruik buiten de EU, gebruikte technologie en de leercurve van het systeem
Microsoft
Microsoft heeft nog geen losse richtlijnen gepresenteerd, maar ze hebben wel een boek uitgegeven waar ze principes voor AI geven die ongeveer overeenkomen met zaken die ook in de Europese richtlijnen terugkomen. De waardes staan in Figuur 2.
Het gaat hier om:
Eerlijkheid
AI systemen moeten iedereen gelijk behandelen. Als AI systemen goed ontworpen zijn, zouden ze eerlijker keuzes kunnen maken dan mensen omdat ze puur logisch zijn. Doordat mensen de AI systemen maken en imperfecte data gebruiken, zouden ze oneerlijk kunnen werken. Het is dus belangrijk dat ontwikkelaars op de hoogte zijn van de manieren hoe bias in AI systemen voor kan komen en wat de consequenties hiervan zijn.
Trainingsdata moet representatief zijn voor de wereld, of in ieder geval het deel van de wereld waar het AI systeem gebruikt gaat worden. Ook is het belangrijk om rekening te houden met de vooroordelen die mogelijk al in de data zitten. Hiernaast is het ook belangrijk dat gebruikers van het systeem genoeg weten over de limieten van het systeem. Als laatste wordt nog genoemd dat de industrie zijn best moet doen om technieken te creëren waardoor mogelijke oneerlijkheid opgespoord kan worden.
Betrouwbaarheid
AI systemen moeten betrouwbaar en veilig werken. Als eerste is het belangrijk om goed te testen en te weten onder welke voorwaarden het systeem het beste werkt en waar verbetering mogelijk is. Daarnaast zal er ook rekening gehouden moeten worden met mogelijke aanvallen of onopzettelijke interacties. Hiernaast zullen er altijd mensen moeten nadenken over het systeem en wanneer het ingezet moet worden. Ook zal informatie met de klanten gedeeld moeten worden, zodat fout gedrag zo snel mogelijk gecorrigeerd kan worden.
Microsoft geeft hier ook stappen om AI systemen zo veilig en betrouwbaar mogelijk te maken
- Systematische evaluatie over de kwaliteit en toepasbaarheid van het systeem
- Processen voor het documenteren en auditen van de systemen
- Als AI systemen beslissingen maken over mensen, moet je adequate uitleg kunnen geven over de werking van het systeem, inclusief informatie over de trainingsdata, fouten tijdens de training en voornamelijk ook de gevolgen en voorspellingen.
- Als AI systemen beslissingen maken over mensen, moeten domeinexperts in het ontwerpproces meegenomen worden
- Er moet geëvalueerd worden wanneer en hoe een AI systeem om hulp vraagt van een mens en hoe de controle op een goede manier overgedragen kan worden
- Er moet een goede mogelijkheid zijn tot feedback van de gebruikers
Privacy en veiligheid
Mensen zullen geen informatie over zichzelf delen tot ze genoeg vertrouwen hebben dat de data goed behandeld wordt. Omdat veel data belangrijk is voor AI systemen, moet de data dus goed opgeslagen worden. Niet alleen moet de data zich houden aan de Europese Unie’s General Data Protection Regulation (GDPR), maar ook andere privacy regels moeten gelden.
Daarnaast moeten processen gestart worden waardoor relevante informatie over de data bijgehouden wordt (zoals wanneer het opgehaald wordt en onder welke omstandigheden), de data opgehaald en gebruikt wordt en de toegang en het gebruik moet geaudit worden.
Als laatste is ook de privacy, encryptie, het lostrekken van de data van identificerende informatie en bescherming tegen misbruik of hacking belangrijk.
Inclusiviteit
AI systemen moeten iedereen profiteren en bekrachtigen. Het systeem moet zo ingericht worden dat de context, behoeftes en ervaringen van alle gebruikers begrepen worden.
AI kan krachtig zijn om de toegang tot informatie, educatie, werk, services en andere mogelijkheden makkelijker te maken voor mensen met een handicap door bijvoorbeeld spraak-naar-tekst-vertaling of visuele herkenning.
Transparantie
AI systemen moeten begrijpelijk zijn. De vorige 4 waardes zijn allemaal essentieel om transparantie te bereiken. Als AI systemen meewegen in belangrijke beslissingen in mensen hun leven, is het belangrijk dat deze mensen kunnen begrijpen hoe de keuzes gemaakt zijn. Je kan hierbij denken aan het geven van contextuele informatie over hoe het systeem werkt en interactie heeft met de informatie. Dit maakt het makkelijker om potentiële vooroordelen, fouten en onbedoelde resultaten op te sporen.
Het is niet genoeg om enkel de algoritmes te publiceren (vooral bij bijvoorbeeld diepe neurale netwerken) en daarom is het belangrijk een holistischere aanpak te kiezen, waarbij de ontwerpers van het systeem de belangrijkste elementen zo compleet en duidelijk mogelijk uitleggen.
Microsoft werkt samen met andere organisaties om te onderzoeken wat de beste manier is om transparante AI mogelijk te maken. Her gaat hier bijvoorbeeld om het kijken of makkelijker begrijpbare algoritmes een goed alternatief zijn voor complexere algoritmes. Hier is meer research nodig om goede technieken te maken die voor meer transparantie zorgen.
Verantwoording
De laatste waarde is verantwoording: de mensen die het AI systeem ontwikkelen en inzetten zijn verantwoordelijk voor hoe de systemen werken. Hierbij kan gekeken worden naar hoe dit nu al gebeurt in bijvoorbeeld de gezondheidszorg en privacy. Interne review boards zullen toezicht moeten houden en de werking controleren.
Volgens Microsoft is het belangrijk dat de 6 bovenstaande principes geïntegreerd worden in de bestaande activiteiten. Zelf gebruikt Microsoft hun interne AI and Ethics in Engineering and Research (AETHER) commissie om hier op te letten.
Verschillen en overeenkomsten in de 3 Codes of Conduct
Als je kijkt naar de verschillende waardes en richtlijnen die hiervoor beschreven zijn, zie je dat er veel overeenkomsten zijn tussen de drie partijen. Voorbeelden hiervan zijn de robuustheid, privacy, transparantie, diversiteit en verantwoordelijkheid die bij elke partij genoemd worden. Wel is te zien dat er subtiele verschillen zijn. Microsoft gaat bijvoorbeeld meer in op hoe het databeleid bijgehouden moet worden, terwijl dit bij de andere partijen minder uitgebreid genoemd wordt.
De Europese richtlijnen hebben een kopje voor iets dat in de andere richtlijnen niet terugkomt: maatschappelijk en ecologisch welzijn. Hier gaat niet alleen over de sociale impact (welke ook terugkomt in punt 1 van de regels van Nederland ICT), maar ook de impact op het milieu die AI systemen kunnen hebben.
Nederland ICT noemt daarentegen als enige expliciet de taak om kennis ook buiten de sector te delen en educatie te geven over ICT. Zowel de Europese richtlijnen als Microsoft noemen wel dat het belangrijk is om meer research te doen, maar missen de taak om iedereen educatie te geven.
De richtlijnen kunnen grofweg ingedeeld worden in drie groepen: eerlijkheid / inclusiviteit, transparantie en betrouwbaarheid / veiligheid.
Eerlijkheid en inclusiviteit
Zowel de Europese Commissie, Nederland ICT als Microsoft noemen eerlijkheid en inclusiviteit in hun richtlijnen. Hiermee wordt bedoeld dat een AI systeem iedereen gelijk moet behandelen. Het is hierbij vooral belangrijk om te zorgen dat je trainingsdata representatief is en geen vooroordelen bevat.
Van de drie partijen noemt Nederland ICT deze het minste. De richtlijnen van Nederland ICT zijn veel korter zijn dan die van de andere twee partijen, wat ze wel heel praktisch en hanteerbaar maakt. Mogelijk dat met dat in het achterhoofd hier bewust een keuze is gemaakt. In de punten van Nederland ICT komt bijvoorbeeld niet terug dat systemen voor iedereen (onafhankelijk van mogelijke handicaps) toegankelijk moet zijn. Ook noemt Nederland ICT het tegengaan van vooroordelen maar kort (in punt 1 en 3), terwijl dit bij de rest van de richtlijnen een veel groter deel uitmaakt.
Al met al is te zeggen dat alle drie de partijen het er over eens zijn dat het belangrijk is in de gaten te houden dat de gemaakte AI voor iedereen goed en eerlijk zal werken.
Transparantie
Ook transparantie wordt door alle drie de partijen uitgebreid behandeld. Transparantie houdt in dat het systeem en de makers transparant moeten zijn tegen de gebruikers van het systeem. Alle drie de partijen zijn het er bijvoorbeeld over eens dat altijd aan de gebruikers teruggekoppeld moet kunnen worden waarom een bepaalde beslissing gemaakt is. Zowel de Europese Commissie als Microsoft noemen ook dat het hierdoor kan gebeuren dat een afweging gemaakt moet worden tussen performance en uitlegbaarheid. Geen van de partijen geeft erg duidelijk aan hoe ver deze transparantie en uitlegbaarheid moet gaan. Wel is het duidelijk dat ‘black box algoritmes’ met deze regels dus niet meer zouden mogen.
Daarnaast wordt verantwoordelijkheid door iedereen genoemd, maar niemand lijkt hier erg diep op in te gaan. Er wordt vooral genoemd dat het belangrijk is om hier duidelijkheid over te hebben. Nederland ICT noemt ook nog expliciet dat deze verantwoordelijkheden ook voor de gebruiker duidelijk moeten zijn.
Betrouwbaarheid en veiligheid
Onder betrouwbaarheid en veiligheid vallen zaken als privacy, het databeleid en monitoring. Het systeem moet goed beschermd zijn tegen zowel opzettelijke als onopzettelijke schade en aanvallen.
Waar Microsoft en de Europese Commissie beiden noemen dat de mens altijd regie moet kunnen houden, wordt dit door Nederland ICT als enige niet behandeld. Microsoft noemt als enige het belang om domeinexperts mee te nemen tijdens het ontwerpproces. Zij noemen als enige niet expliciet dat gebruikers altijd op de hoogte gehouden moeten worden als er AI systemen gebruikt worden bij een beslissing.
Drie Codes Of Conduct in AI
Drie Codes Of Conduct in AI
Drie Codes Of Conduct in AI