Inhoudsopgave
    

‘Angst voor AI is overdreven’
Chris Koenis
door Chris Koenis
leestijd: 8 min

Informaticus en filosoof Jan Broersen onderzoekt hoe machines met kunstmatige intelligentie (AI) morele keuzes zouden kunnen maken. "De mens is een veel risicovollere factor dan die machines."

Aan het Janskerkhof in Utrecht doet een team van zeven wetenschappers onderzoek naar de verantwoordelijkheid van intelligente systemen. Want hoe angstaanjagend het voor sommigen ook is: kunstmatige intelligentie (oftewel artificial intelligence: AI) is bezig met een snelle opmars. We spraken hoofdonderzoeker Jan Broersen, universitair hoofddocent aan de Universiteit Utrecht, over het opvoeden van computers.

We horen vaak over de doemscenario’s van kunstmatige intelligentie - is dat wat u met uw onderzoek wilt voorkomen?

Ik wil dat er wordt nagedacht over hoe intelligente systemen met verantwoordelijkheid zouden kunnen omgaan. Het grootste gevaar is dat wij verantwoordelijkheid geven aan die systemen, terwijl ze dat niet aankunnen.

Op welke plekken gaan we AI vooral terugzien?

Overal. Dat is natuurlijk wel een beetje angstaanjagend. Mensen die er niet zelf in werken denken bij AI meestal direct aan robots. Ik denk eerder aan slimme algoritmes, oftewel softwareprogramma’s voor computers. Bijvoorbeeld online systemen die een profiel van je maken en selecteren wat je te zien krijgt, denk aan Google en Facebook. Daar zit heel veel AI achter.

En buiten het internet?

Van de eerste robots, daarvan had ook niemand voorspeld, dat het auto’s zouden zijn. Maar dat is natuurlijk wel zo: de eerste robots waar wij in onze levens daadwerkelijk mee te maken blijken te hebben, dat zijn zelfrijdende auto’s. Tien jaar geleden had niemand dat zien aankomen.

Dus niet de zorgrobots die je al voorbij ziet komen?

Ik zie dat niet echt als robots, meer als speelgoed. Dat stelt niets voor. Maar een zelfrijdende auto wel. Je bent verbaasd over wat ie kan. Verder zijn er natuurlijk veel robots die alleen nog in laboratoria bestaan. Of autonome systemen die mogelijk in het leger worden gebruikt, maar dat weten we niet zeker.

Een vaak genoemd risico is dat zo’n computer – in tegenstelling tot de mens - eindeloos kan bijleren. Is die angst gegrond?

Het probleem is niet zozeer dat AI systemen eindeloos bijleren - het zijn beperkte systemen, net als wij - maar dat er verkeerde dingen geleerd zullen worden. Daar moeten we op een of andere manier controle over houden. Ik ben het dus niet eens met een filosoof als Nick Bostrom die inderdaad bang is dat zo’n systeem dusdanig veel zal leren dat het intelligenter wordt dan wij.

En omdat, volgens Bostrom, de geschiedenis leert dat intelligentie het evolutionair wint van domheid, lopen wij mensen dan gevaar. Ik geloof daar allemaal niet zo in. Bostrom weet bijvoorbeeld niet hoe AI er in de praktijk uitziet. Als computerwetenschapper weet ik dat AI nog niet zo heel veel voorstelt op dit moment. Als we de huidige systemen nog meer rekenkracht geven, krijgen we echt niet iets wat op onze eigen intelligentie lijkt.

Hoe ver is AI dan wel, staat het nog in de kinderschoenen?

Dat vind ik heel moeilijk te zeggen. Op de schaal van IQ? Er wordt vaak ook iets over het hoofd gezien: intelligentie is maar één aspect dat ons mensen onderscheidt van de rest. Mensen hebben emotie, maken muziek en hebben interesse voor kunst. Alles wat wij zijn wordt niet alleen bepaald door intelligentie.

Bostrom lijkt die zelfde vergissing te maken. Bij computers die ons gaan inhalen denkt hij wellicht aan het oplossen van taken die enige planning behoeven, zoals schaken. Maar dat is een ontzettend simpele taak voor een computer. Als die maar genoeg rekenkracht heeft, speelt ie het beter dan een mens. Dat zal toch niemand verbazen.   

Voor het bordspel Go, dat nog veel meer mogelijkheden heeft, geldt toch eigenlijk hetzelfde. Voor een computer blijft het een simpele situatie. Als je er maar genoeg rekenkracht tegenaan gooit, dan kun je het zoals DeepMind, het neurale netwerk van Google, winnen van een mens.

Is er dan al AI ontwikkeld waarvan u wel onder de indruk bent?

O, ik ben er wel degelijk onder de indruk van. Vergis je niet. Niet verbaasd dat het ze lukt, maar wel onder de indruk.

Zijn dat dan de meest vooruitstrevende systemen: DeepMind van Google en Watson van IBM?

Ja. Er is naar mijn weten op dit moment niets beters. Het verrassende is dat DeepMind helemaal niet vooruitstrevend is. Het is een heel oude techniek, al bedacht in de jaren '80 en '90 die nu doordat computers zo snel zijn geworden, heel vruchtbaar kan worden toegepast. Aan de techniek zelf, een gelaagd neuraal netwerk, is niets nieuws.

Veel van wat deze bedrijven doen gebeurt achter de schermen.

Er is een verschil tussen het belang van universiteiten en bedrijven die allebei met AI bezig zijn. Zoveel geld als Google uitgeeft aan AI, dat is echt ongelooflijk. Daar kunnen wij als universiteit nooit tegenop.

Hier in Utrecht werken er een handjevol mensen aan vanuit de informatica en filosofie. Die zijn op twee handen te tellen. Google gooit er miljarden tegenaan en heeft honderden, zo niet duizenden onderzoekers die met AI werken. Wat zij ontdekken, daar hebben zij natuurlijk niet zo’n belang bij om dat openbaar te maken. Het blijven bedrijven. Dat wringt. Ons Europese wetenschappers wordt gevraagd om open access te publiceren, wat logisch is omdat wij met publieke middelen worden gefinancierd.

Kan dat worden doorbroken?

Je ziet dus wel dat er een spanningsveld is. Om dat te doorbreken is een mentaliteitsomslag nodig bij bedrijven. Ik begrijp goed dat bedrijven er zijn om een eindproduct te maken en geld te verdienen. Al zijn er uitzonderingen zoals Elon Musk van Tesla die ideële doelstellingen heeft. Veel wat Tesla doet maken ze openbaar, zonder patenten. Wat gek en afwijkend is natuurlijk, er zijn niet veel bedrijven die er zo over denken. Maar de grootste kritiek op Musk is dan weer dat zijn bedrijven nog geen winst maken.

Net als Google werkt Tesla aan een zelfrijdende auto. Wie gaat dat winnen?

Als ik daar een voorspelling over moet doen, dan denk ik Tesla. Google werkt achter gesloten deuren. Ze hebben een andere strategie: de zelfrijdende auto eerst helemaal af hebben en deze dan pas op de markt gooien. Het is een soort kramp waar bedrijven vaak in zitten. Dat ze denken: we moeten het voor onszelf houden. Wat Tesla heel slim doet is dat ze al honderdduizenden auto’s hebben rondrijden die data verzamelen. En dat is een heel belangrijk aspect van het intelligent maken van die auto’s.

Volgens Musk zijn alle nieuwe Tesla’s die de fabriek verlaten op hardware-niveau al geschikt voor autonomie. De rest is software, zegt hij, die je steeds slimmer kunt maken met updates. Ik denk dat die strategie slimmer is.

Hoe ver bent u in uw eigen onderzoek?

Het project loopt nu 2,5 jaar. Er is vijf jaar voor uitgetrokken. We werken met een team van zeven mensen en hebben een budget van 2 miljoen euro, met dank aan een Europese subsidie. Een collega van me uit Londen heeft in de jaren '90 voor het eerst geprobeerd om de juridische wetten waar wij ons aan moeten houden naar de computer te vertalen. Dat blijkt ontzettend moeilijk. Je zit met een vertaalslag van juridische teksten die in veel gevallen voor meerdere interpretaties vatbaar zijn. Ik probeer iets soortgelijks: concepten als goed en kwaad, wat mag en niet mag, al dat soort kwalificaties van acties probeer ik in formules te stoppen.

Uiteindelijk moet uw onderzoek iets opleveren. Wat precies?

Een theorie over hoe je intelligente systemen kunt laten redeneren over wat mag en wat niet mag. Dat kan ten opzichte van de wet zijn, maar kan misschien ook gebaseerd zijn op een soort artificieel moreel kompas. Want bij bepaalde sociale omgevingen horen normen over wat te doen en wat te laten. Systemen die in de omgevingen moeten functioneren moeten dus kunnen redeneren over wat mag en niet mag, en nog beter is wanneer ze dat zelf kunnen leren. Net zoals je je kinderen probeert bij te brengen wat mag en niet mag -je probeert ze op te voeden- zo moeten we die computers op eenzelfde manier iets kunnen bijbrengen over wat het juiste is om te doen en over wat daarbij is toegestaan en wat niet.

Daarvoor richt u zich tot uw eigen specialisme: de logica. Maar hoe breng je dat een systeem bij?

Computers moeten eerst logisch leren denken. Dus je probeert al die concepten formeler te maken zodat ze voor een computer te begrijpen zijn. Ik denk dat de deontische logica, oftewel de logica van verplichtingen, permissies en verboden, een betere oplossing is voor het geven van verantwoordelijkheid aan dat soort systemen dan de pure rekenkracht en het leervermogen van DeepMind. Dat is een probleem: want vrijwel alle nieuwe systemen zijn gebaseerd op de technieken zoals die van DeepMind. Ook wat ze bij Facebook doen.

Dus deze vorm van logica kun je straks implementeren in een computer?

Ja, en dan kun je ook veel beter controleren wat voor regels zo’n computer heeft toegepast. Welke logica en beredeneringen. En als je dat dan niet goed vindt, dan pas je het aan. Hoe zou je dat met een neuraal netwerk moeten doen? Geen idee.

Tot slot, prominenten zoals Stephen Hawking, Elon Musk en Bill Gates waarschuwen dat AI ons uiteindelijk dreigt in te halen.

Ik verschil daarin van mening met hen. Ik denk dat ze goede bedoelingen hebben, maar dat ze verkeerd inschatten dat wanneer je de huidige technieken maar met steeds snellere computers implementeert, je op steeds intelligentere systemen uitkomt. Daar zit naar mijn mening een grens aan. En ik begrijp al helemaal niet waarom ze denken dat deze systemen uiteindelijk zelfs kwaadaardig zouden kunnen worden. Dat gaat allemaal veel te snel. Ik geloof daar niet in.

Dus de mens blijft de meest risicovolle factor?

Ik denk het wel. De mens is een veel risicovollere factor dan die machines. Dat systemen zelf zo kwaadaardig worden en het op ons gemunt zullen hebben, is niet het eerste probleem waarover we nu zouden moeten nadenken. Het probleem is veel meer: mensen met de verkeerde bedoelingen die autonome systemen inzetten voor verkeerde doeleinden. En de neiging om die dingen veel meer capaciteiten toe te dichten dan ze eigenlijk hebben, wat leidt tot gevaarlijke situaties.

Auteur

Chris Koenis is freelance journalist voor onder meer RTL Z en BNR.