Natuurwetten maken AI beter en inzichtelijker

black box

 Kunstmatig intelligente computersystemen (AI) worden steeds beter in het verwerken van data. Ze kunnen een kat van een hond onderscheiden en gezichtsherkenning wordt steeds beter. Maar soms gaat het mis en levert AI een vreemd resultaat. Hoe dat komt is vaak onduidelijk. Niemand weet precies hoe de systemen tot een bepaalde conclusie komen. AI is een black box.

‘Het is lastig om een systeem te vertrouwen als je niet weet hoe het tot een besluit komt’, zegt Levente Klein van IBM research. ‘Bij een AI die foto’s van honden en katten categoriseert is een fout niet zo erg. Maar we willen AI’s ook gebruiken in robotica, bij weersvoorspellingen – zoals het risico op orkanen – en in zelfrijdende auto’s. Dan wil je de beslissingen begrijpen of in elk geval zorgen dat ze ergens op slaan.’

 Om te zorgen dat AI’s met meer realistische voorspellingen komen en om hun beslissingsprocessen duidelijker te makken hebben onderzoekers van IBM Physics-Informed Neural Networks (PINN) modellen ontwikkeld. ‘Bijvoorbeeld bij weermodellen of de bewegingen van een auto weten we heel goed wat er wel en niet mogelijk is op basis van de natuurwetten. We proberen de neurale netwerken deze natuurwetten aan te leren, zodat ze een voorspelling doen of beslissing nemen die reëel is binnen die wetten.’

De onderzoekers hebben PINN getest op een relatief simpel systeem waarvan ze het verloop kennen: de ontwikkeling van een (rook)pluim bij een licht briesje. ‘We vergeleken de voorspellingen van AI-modellen met en zonder aangeleerde natuurwetten’, vertelt Klein. ‘Daarbij varieerden we ook de hoeveelheid beschikbare data, om de modellen te testen onder realistische omstandigheden, waar er geen perfecte metingen beschikbaar zijn.’ Het PINN model bleek significant beter te werken en kon, dankzij kennis over de natuurwetten, de missende informatie goed invullen. ‘Bovendien zijn de beslissingen die de AI maakt beter te begrijpen, omdat het voldoet aan de natuurwetten, zoals causaliteit. Daardoor is het minder een black box.’

De volgende stap is om de natuurkundig onderlegde AI’s te gebruiken voor complexere data. Voor klimaatmodellen is er bijvoorbeeld input in de vorm van aardobservaties van satellieten. Maar dit zijn vaak wazige beelden, die maar een keer per week gemaakt worden. Klein: ‘We willen kijken of PINN’s kunnen helpen om met deze beelden de uitstoot van broeikasgassen door bijvoorbeeld auto’s of olie- en gaswinning beter in kaart te brengen.’ Dit zou het mogelijk maken om duidelijker bronnen van verontreinigingen aan te wijzen en om in beeld te brengen hoe broeikasgassen zich verspreiden in de atmosfeer en welke rol het weer hierin speel om zo klimaatmodellen te verbeteren.