De Asilomar richtlijnen voor AI

Aan de kust van Californië bevindt zich een conferentieoord met de naam Asilomar. Toen daar in 2017 de creme de la creme van onderzoekers op het gebied van Kunstmatige Intelligentie (AI) samenkwam, publiceerden zij de ‘23 principles to guide beneficial AI development’.

Je moet de richtlijnen zien als een pleidooi –misschien wel noodkreet- van de belangrijkste AI-onderzoekers om ervoor te zorgen dat hun (fundamentele) werk geen negatieve toepassingen of gevolgen op de lange termijn zal hebben. Op de website van het Future of Life Institute is de lijst gepubliceerd en inmiddels ondertekend door meer dan 1250 computerwetenschappers en 2500 vooraanstaande denkers uit andere gebieden. De tekst is vertaald naar het Chinees, Duits, Japans, Koreaans en Russisch. Ai for Good tekende voor de Nederlandse vertaling:
 

Onderzoek

1. Onderzoeksdoelstellingen: AI-onderzoek zou niet het creëren van intelligentie in alle richtingen tot doel moeten hebben maar slechts intelligentie die in het belang is van de mensheid (goedaardig).
2. Onderzoeksfinanciering: Investeringen in AI zouden vergezeld moeten gaan van onderzoek naar de mate van goedaardigheid ervan, onder meer door prangende vragen te stellen op het gebied van de informatica, economie, recht, ethiek en gedragswetenschappen:

  • Hoe kunnen we AI-systemen ontwerpen die robuust zijn; die voor ons werken zonder technische problemen en zonder de kans om gehackt te worden?
  • Hoe kunnen we door middel van automatisering onze welvaart vergroten zonder dat dit ten koste gaat van menselijk potentieel en zingeving?
  • Hoe kunnen we wet- en regelgeving inrichten dat ze rechtvaardiger en efficiënter worden, anticiperend op de risico’s die geassocieerd worden met AI?
  • Welke waarden zou AI moeten nastreven en welke rechtspositie of ethische status kan het verkrijgen?

3. Wetenschap en beleid: AI-onderzoekers en beleidsmakers zouden op regelmatige wijze ervaringen en ideeën moeten uitwisselen.
4. Onderzoeksklimaat: Samenwerking, vertrouwen en transparantie zijn de sleutelwoorden voor een vruchtbare samenwerking tussen onderzoekers en ontwikkelaars van AI.
5. Stop met competitie denken: Teams die AI ontwikkelen zouden moeten samenwerken om te voorkomen dat er een race ontstaat waarbij snelheid belangrijker wordt dan zorgvuldigheid.
 

Ethiek, waarden en normen

6. Veiligheid: AI-systemen zouden veilig en ongevaarlijk moeten zijn voor de volledige duur van hun gebruik of toepassing. Waar mogelijk zou dit te verifiëren moeten zijn.
7. Inzicht in mogelijke gebreken: Als een AI-systeem schadelijke gevolgen heeft, zou de oorzaak daarvan vastgesteld moeten kunnen worden.
8. Voorkomen rechterlijke dwalingen: Elke betrokkenheid van een autonoom systeem bij een beoordeling door een gerechtshof zou vergezeld moeten gaan van een uitleg die inzichtelijk en begrijpelijk is voor een bevoegde (menselijke) autoriteit.
9. Verantwoordelijkheid: Ontwerpers en bouwers van geavanceerde AI-systemen hebben een morele verplichting om een actieve rol te spelen bij het voorkomen van negatieve consequenties van hun systemen.
10. Waardengedreven: Autonome AI-systemen moeten worden ontworpen op zo’n manier dat hun doelen en gedrag in lijn zijn met menselijke waarden voor zolang het systeem in gebruik is.
11. Menselijke idealen: AI-systemen zouden menselijke idealen moeten nastreven zoals waardigheid, rechten, plichten en culturele diversiteit.
12. Privacy: Mensen moeten het recht hebben om bij hun data te kunnen en deze te beheren, gegeven het feit dat AI-systemen diezelfde data gebruiken voor hun analyses.
13. Vrijheid: Het verwerken van persoonlijke gegevens door AI-systemen zou nooit de vrijheid van het individu moeten inperken.
14. Inclusiviteit: AI-systemen zouden op zo’n manier moeten worden ingezet dat ze in het voordeel werken van zoveel mogelijk mensen.
15. Gedeelde welvaart: De economische vruchten van het gebruik van AI-systemen zouden door zoveel mogelijk mensen geplukt moeten kunnen worden.
16. Mens in controle: Mensen moeten kunnen kiezen óf en hoe ze AI-systemen willen inzetten voor het behalen van doelen die door mensen zijn gekozen.
17. In dienst van de maatschappij: De potentiële macht die ontstaat door de inzet van geavanceerde AI-systemen zou niet tegen de burgers gebruikt moeten worden maar juist de fundamenten van de maatschappij moeten verstevigen.
18. AI en wapens: Een wapenwedloop op het gebied van autonome wapens moet worden voorkomen.
 

Lange termijn

19. Speculatie: Aangezien er geen consensus is over welk niveau AI in de toekomst kan bereiken, moeten we terughoudend zijn hierover stellige uitspraken te doen.
20. Belangrijkheid: Geavanceerde AI kan diepgaande gevolgen hebben voor de koers van de mensheid en moet daarom met passende maatregelen, zorgen en middelen worden behandeld.
21. Risico’s: De gevaren die AI-systemen met zich meebrengen -met name voor het leven op aarde- moeten worden onderworpen aan risicobeperkende maatregelen die rechtdoen aan de te verwachten gevolgen.
22. Uit de hand lopen: AI-systemen die zichzelf kunnen verbeteren of kopiëren, wat kan leiden tot een drastische toename in kwaliteit of kwantiteit moeten aan strikte veiligheidsvoorschriften voldoen.
23. Algemeen belang: Superintelligentie zou ontwikkeld moeten worden, slechts ten faveure van gedeelde ethische principes en in het belang van de totale mensheid, niet van een land of organisatie in het bijzonder.
 

Your turn!

Ben je het eens met deze vertaling? Feedback kun je sturen naar jimstolze at gmail.com. Op futureoflife.org kun je ze nog eens nalezen en ook je handtekening eronder zetten. Je bevindt je dan in goed gezelschap. Onder meer Elon Musk, Stephen Hawking, Demis Hassabis (Deepmind), Yann LeCun (Facebook), Peter Norvig (Google) en Ray Kurzweil (Singularity University) gingen je voor.

Posted on | | Nieuws