Slimme systemen ondersteunen én beschermen tegen vooroordelen
Inald Lagendijk
Michel van Eeten
Menselijke behoeften en rechten komen misschien wel het sterkst tot uitdrukking in vrede, recht en veiligheid. Hoe zorgen we dat we die meenemen in AI-systemen? Daarover buigen zich Inald Lagendijk en Michel van Eeten.
Er komt 300 miljoen euro beschikbaar uit het Nationaal Groeifonds van de overheid voor artificiële intelligentie. "En dat is goed. We buigen ons graag op grotere schaal over fundamentele vraagstukken voor mensgerichte AI." vertelt prof. dr. Ir. Inald Lagendijk, hoogleraar Computing-based society en lid van het Strategieteam van de Nederlandse AI-coalitie.
Risicoprofilering
Slimme systemen helpen mensen te beslissen en processen te verbeteren als grote hoeveelheden data betrokken zijn. Ontwerpers zijn gewend systemen te ontwerpen die efficiëntie verbeteren, maar AI voor overheidsbesluiten of cybersecurity stelt ook sociaal-ethische en wettelijke eisen, zoals eerlijkheid en menselijke beheersing. Zorgt AI wel voor eerlijke besluiten, die beheersbaar en te verantwoorden zijn? Een bedrijf dat AI inzet voor zijn recruitment screent daarmee efficiënt duizend sollicitanten; maar bevat het algoritme dat hiervan de motor is, geen bias voor mannelijke of blanke sollicitanten? Heeft de overheid bij risicoprofilering nagedacht over negatieve gevolgen voor de burger? Lagendijk: "Voorkeuren en vooroordelen zitten in de maatschappij. Delfts onderzoek moet zorgen voor slimme systemen die ons daartegen beschermen, en tegelijk processen rond rechten en veiligheid ondersteunen."
Lagendijk onderzoekt daarvoor AI-ontwerpprocessen. Hoe ontwikkel je AI zo, dat het de prestatie verbetert van het grotere systeem waarvan het onderdeel is? Hoeksteen is de Delftse systeembenadering value by design. Rechtvaardig by design, veiligheid by design, menselijke controle by design. "Stap voor stap ontdekken we hoe je wettelijke, ethische en sociale aspecten implementeert in technologie."
Zeeën aan data
Prof. dr. Michel van Eeten is hoogleraar Bestuur van cybersecurity. Centraal in zijn onderzoek staat de relatie tussen gedrag en techniek: wat hebben mensen nodig om AI-innovaties rond cybersecurity te verbeteren?
Neem het loggen van gebeurtenissen in systemen; dat creëert zeeën aan data. Veel organisaties hebben software die data sorteert op basis van door mensen bedachte als-danregels: wel of niet verdacht. En mensen beoordelen de verdachte data. "Je kunt AI leren wat die regels zijn en nieuwe regels laten ontdekken die mensen niet zien. Dat is efficiënter en geeft meer inzicht. Maar dat is enkel de technologie."
Eerst luisteren
Sterkere cybersecurity gaat ook over mensen, vooral 'eerst luisteren, dan pas modelleren'. Er zijn te vaak slimme systemen gemaakt die niet deden wat gebruikers dachten, weet Van Eeten. "Dat creëert schijnveiligheid." De oorzaak is een kenniskloof. Experts op gebied van organisaties en gedrag weten bijvoorbeeld niet welke waarden en gedragsregels je expliciet moet maken. Van Eeten: "Ze realiseren zich vaak niet eens dat ze die hebben. En engineers kennen juist de complexiteit van gedrag en organisaties niet." Uniek aan Delft is het socio-technologisch klimaat dat technische en sociale disciplines bij elkaar brengt. "We vinden uit wat gebruikers daadwerkelijk nodig blijken te hebben, in plaats van waar ze letterlijk om vragen. Daaruit volgt innovatie."
Delft staat in de voorhoede van die socio-technologie-innovatie en betrekt Erasmus en de Leiden universiteit voor input op ethisch en sociaal vlak. Voor real-life input van data is er samenwerking met de Gemeente Den Haag en diverse Ministeries, waar AI-opleiding en onderzoek plaatsvindt.
Schaalvergroting
Zowel het werk van Van Eeten als dat van Lagendijk gebeurt in relatief kleine projecten. Lagendijk en Van Eeten hopen dat de Nationale Groeiagenda de noodzakelijke grootschalige samenwerkingen faciliteert met partijen betrokken bij AI-introductie en -gebruik. Van Eeten: "Het duurde zo'n 100 jaar voordat in de statistiek de grootste valkuilen zijn ondervangen, rondom bias en incorrecte conclusies. Bij AI staan we nog aan het begin. Onderzoek op grotere schaal is belangrijk: het effect van AI op veiligheid en recht, en daarmee op mensenlevens, kan ook grootschalig zijn."
Lagendijk bepleit dat TU Delft behalve toegepast ook fundamenteel blijft onderzoeken, en daarmee richting geeft aan overheid en bedrijven. "En wij gaan laten zien dat je maatschappelijke waarden, behoeften en normen niet alleen mee móet nemen, maar via de Delftse systeembenadering ook mee kúnt nemen."