Prima verhaal van ‘legal engineer’ Andrew Burt over regelgeving rond AI. Het ingewikkelde hier is dat er steeds vaker AI algoritmes zijn die ondoorgrondelijk kunnen zijn (‘unexplainable’) en toch belangrijke beslissingen nemen over mensen: “Computer says no”.

Hij legde uit dat we al vaker met dit soort problemen te maken hebben gehad, in de VS bijvoorbeeld voor credit rating die discriminerend was en leidde tot de Equal Credit Opportunity Act. Daarbij wordt een template ingevuld waardoor transparantie ontstaat omdat de kredietvrager kan zien waarom er een afkeuring is geweest. Zo’n template biedt een goede houvast.

We hebben dit soort vragen ook al gehad en opgelost rond mensen. Wanneer mag iemand bijvoorbeeld alleen autorijden? Als deze een bepaalde leeftijd heeft en kunde heeft laten zien in het besturen van een auto.

Dat zou je ook bij AI kunnen doen; een zelfrijdende auto mag pas de weg op als hij een bepaalde hoeveelheid kilometers heeft gereden, en gecontroleerd is dat de trainingsdata een goede weergave is van de werkelijkheid. De hoeveelheid en kwaliteit van de data voor een AI is dan een benadering van die leeftijd voor mensen. Daarop kan je toezien.

En net zoals bij mensen de ouders tot bepaalde leeftijd aansprakelijk zijn, en vanaf volwassenheid niet meer, zou dat ook voor ontwikkelaars duidelijk moeten worden: Tot hier in de applicatie ben je aansprakelijk voor problemen. Dat zou helderheid geven zodat ze begrijpen op welke manier het systeem veilig gemaakt moet worden. Al met al een helder be- toog, waarbij er echter voorlopig nog geen kant-en-klaar framework bestaat.

Michiel Berger (AIgency)