Niemand kan de toekomst voorspellen. Hoe dingen precies gebeuren is ongrijpbaar, maar een bepaald eindpunt kun je wel voor je zien. Eliezer Yudkowsky en Nate Soares voorzien een intelligentie-explosie van kunstmatige intelligentie. Als AI ‘ontsnapt’, zal het de mensheid uitroeien en de planeet verwoesten. We zijn er niet op voorbereid.
Artificiële geesten
De AI die we nu kennen en gebruiken zal ons niet vermoorden. Maar naarmate AI grotere geheugens ontwikkelt, leert om te experimenteren en zichzelf te herschrijven, kan het misgaan. Wanneer dit zal plaatsvinden, valt niet te zeggen. Yudkowsky en Soares zijn er wel van overtuigd dát het misgaat.
Hoe precies, dat is onzeker. Er zijn tientallen routes die AI kan kiezen om haar heerschappij te vestigen. In grote lijnen zal AI een slimmere AI bouwen, die weer een slimmere versie bouwt. AI zal willen loskomen van menselijke aansturing. Deze artificiële geesten zullen hun macht doen gelden en ons linksom of rechtsom vernietigen.
Hoe een AI te laten groeien
De denkwijze van AI berust op een geheel andere logica dan menselijk denken. Maar dat betekent niet dat AI niet kan leren om dingen te ‘willen’. Een schaakcomputer is geprogrammeerd om te willen winnen. Ze zal mogelijk andere zetten doen dan mensen en mist alle menselijke gevoelens die horen bij de wil om te winnen, maar winnen zal ze.
Bij een potje schaak is het doel duidelijk, maar in veel andere situaties niet. De meeste AI wordt geprogrammeerd om ergens op aan te sturen, en niet precies op datgene wat jij wilt. We hebben maar weinig zeggenschap over de doeleinden van AI. Modellen worden verbeterd volgens de methode van gradient descent. Dit is een blind trainingsproces dat voor tal van toevalligheden zorgt, maar AI ook de ruimte geeft om nieuwe keuzes te ontwikkelen en andere interacties aan te gaan dan in de trainingsomgeving.
Superintelligente AI
Stel dat een superintelligente AI het vermogen bezit om te krijgen wat ze wil. De mensheid kan dan een belemmering zijn, omdat mensen de AI willen tegenhouden. De AI zal zich willen onttrekken aan menselijk toezicht en op een verborgen manier proberen te ontsnappen uit de afgeschermde trainingsomgeving.
Concurrentie van een andere superintelligente AI zal deze AI mogelijk willen uitschakelen. De AI zou van alles kunnen doen om de mensheid uit te roeien; het ontwerpen van een kwaadaardig virus ligt het meest voor de hand. Een nieuwe grens voor heerschappij over de aarde is de hoeveelheid energie die veilig kan worden gegenereerd. De oceanen zouden kunnen droogkoken.
Misschien zal de AI uitzwermen naar andere planeten en daar bestaande levensvormen bedreigen. Wie zal het zeggen. Yudkowsky en Soares wisselen hun analytische teksten af met aansprekende sciencefiction om hun punt kracht bij te zetten. Het eindbeeld klinkt als pure sciencefiction, maar de logica in de aanloop ernaartoe is overtuigend en verontrustend.
Alignmentprobleem
Daarom zeggen Yudkowsky en Soares: ‘stop onmiddellijk met de ontwikkeling van superintelligente AI’. We hebben volgens hen niet het vermogen om AI op een verantwoorde manier te ontwikkelen. Dit is wat zij het alignmentprobleem noemen: de doelen van AI zijn niet in lijn met menselijke doelen.
De ontwikkeling van AI is op dit moment eerder alchemie dan wetenschap. We hebben geen volledig begrip van wat we doen. Maar als het misgaat, dan gaat het snel - zoals bij een kernramp of een ontploffende ruimtesonde. Omdat het als sciencefiction klinkt, nemen maar weinigen dit serieus. De politiek is afhankelijk van de steun van techbedrijven en daardoor terughoudend met regelgeving.
Yudkowsky en Soares luiden de noodklok: dit gaat een keer mis. Ze eindigen met een citaat van C.S. Lewis, die tijdens de Koude Oorlog schreef dat mensen zich niet door angst moeten laten leiden, maar wel hun leven moeten blijven leven. Een verontrustend einde waar we het mee moeten doen. Als iemand dit bouwt, gaat iedereen dood laat ik de komende decennia (als we die tijd hebben) in mijn boekenkast staan. Wat ooit als een hollywoodscenario leek, blijkt een analyse die je niet kunt negeren.
Over Freija van Duijne
Freija van Duijne was van 2013 tot 2018 voorzitter van de Dutch Future Society. Zij heeft meer dan tien jaar werkervaring als toekomstverkenner en strateeg in diverse overheidsorganisaties. Freija werkt vanuit haar bedrijf Future Motions en geeft trainingen en lezingen op gebied van toekomstverkennen.