2 minute read
Kunnen we AI reguleren?
Een groepje publieke guren, onder wie Elon Musk, Steve Wozniak en Yuval Noah Harari, riep onlangs op om een pauze van een half jaar in te lassen voor de verdere ontwikkeling van kunstmatige intelligentie (AI). Het idee is dat overheden die tijd kunnen gebruiken voor het opstellen van regelgeving om AI inherent veilig te maken.
AI-beleid, -regelgeving en -certi cering zijn natuurlijk wenselijk, al was het maar voor ontwikkelaars om te weten welke waarden zij als richtlijn moeten nemen bij het oplossen van dilemma’s zoals het befaamde trolleyprobleem: is het moreel aanvaardbaar een trein die vijf mensen dreigt aan te rijden van spoor te laten wisselen zodat die maar één persoon aanrijdt? Vertaald naar alledaagse ontwikkelproblemen: remmen voor een konijntje als er geen gevaar is voor de passagiers in de auto, of niet? Energie op het grid naar de armere wijken een beetje a nijpen om meer kosten te besparen, of niet?
articuleren wat we bereid zijn voor die keuze te betalen of op te o eren, dan kom je er ook niet uit of die trein wel of niet van spoor moet wisselen. Ik wil maar zeggen: het is geen AI-dingetje.
Het probleem is het gebrek aan eenduidige ethische waarden voor het
AI-beleid
De vraag is echter of nieuwe regeltjes hier de oplossing zijn. Immers, zelfs met beleid en heel veel regels hebben we als samenleving al grote moeite met dilemma’s die niets met AI te maken hebben. Kunnen we mensen in Groningen blootstellen aan risico’s om toch weer meer gas op te pompen? Is het verdedigbaar om de bevolking in en rondom IJmuiden een verhoogde kans op hart- en vaatziekten te laten lopen, zodat Tata Steel volop kan blijven draaien?
Het onderliggende probleem bij AI is niet het gebrek aan regelgeving of beleid, maar het gebrek aan eenduidigheid in ethische waarden die ten grondslag moeten liggen aan dat beleid. Als we er niet uit kunnen komen wat we belangrijker vinden, huizen die instorten of gas, en
Lang heb ik gedacht dat innovatie en wetenschappelijke doorbraken de motor van onze beschaving zijn. Neem het covid-vaccin: een wonder van de wetenschap, menselijk vernu in z’n puurste vorm. Maar wat blijkt? Het probleem van een pandemie is niet opgelost met het vaccin. Mensen moeten dat vaccin ook nemen. En daar gaat het mis door communicatie en beleid. Als het gaat om mondiale wedlopen – of het nu de verspreiding van kernwapens betreft of CO 2reductie, zijn bindende, internationale verdragen nodig. Die kant moeten we ook op met AI. Nu op AI-gebied een wereldwijde wedloop gaande is, is het tijd voor een internationaal verdrag waarin we afspreken waar AI wel en niet voor mag worden gebruikt. Daarbij horen controlerende organen en de mogelijkheid sancties op te leggen. Want nu dreigt het op z’n Nederlands te gaan. We laten het een tijdje zo doorlopen en dan komt er een parlementaire enquêtecommissie die aantoont dat het toch echt fout is gegaan, waarna er een verwoede poging komt om toch maar regelgeving in te voeren en de gedupeerden te compenseren. Daarop komt dan weer een parlementaire commissie die aantoont dat de compensatie en regelingen te stroperig en zuinig zijn uitgevoerd, waarna een nieuwe commissie, en n, u voelt hem al aankomen.
Vanessa Evers is hoogleraar Computerwetenschappen aan de Universiteit Twente.
TEKST: TIMO KÖNNEN