artikel
Meten is weten, ramden ze er bij mij van jongs af aan in. Op het eerste oog is daar geen speld tussen te krijgen. Maar, denk ik steeds vaker, wat doen we met het onmeetbare?
Niets is te groot om te meten, werpen de astronomen tegen, en niets is te klein, stellen quantumfysici. Maar kan iets wel te ingewikkeld zijn om te meten?
De kunstmatige intelligentie probeert ons te overtuigen van niet. Een ontwikkelaar laat me de uitkomsten zien van een programma dat exacerbaties moet voorspellen en zo complicaties voorkomen bij COPD-patiënten. Heel relevant, want in Finland komt zo’n veertig procent van de mensen die met een exacerbatie worden opgenomen binnen een jaar te overlijden.
De ontwikkelaar komt met grafieken op de proppen die suggereren dat met de applicatie zowel het opnamerisico als de sterfte flink afnemen, en dat zelfs in termen van CO2-emissies de winst aanzienlijk is.
‘Meten is weten geldt alleen als je ook weet wat je niet meet’
U leest het goed: suggereren. Want als ik die avond de preprint van het cohort bestudeer, stuit ik op bezwaren. Slechts een op de drie gescreende patiënten deed uiteindelijk aan het onderzoek mee. Vaak was ‘geen toegang tot technologie’ of ‘ongepast om te rekruteren’ een reden om niet mee te doen. Wanneer wordt rekruteren ongepast? Bij de gematchte controlegroep was van een dergelijke selectie geen sprake. De groepen blijken niet goed vergelijkbaar en daarmee zijn de conclusies onbetrouwbaar. Matchen is een kunst.
Kan ik wel op je predictiemodel vertrouwen als je niet kunt matchen? Nee, denk ik dan, of althans: niet zonder meer. Machine learning en deep learning hebben immers ook hun blinde vlekken. Meten is weten geldt alleen als je ook weet wat je niet meet. Want als je dat niet doet, reduceer je de wetenschap tot metenschap. De toeslagenaffaire leert ons wat de risico’s zijn van algoritmen. Een van de problemen van kunstmatige intelligentie is dat de systemen hun voorspellingen onvoldoende kunnen toelichten. Zelflerende programma’s zijn vatbaar voor drogredeneringen waar de klassieke filosofen ons al voor waarschuwden, ze herkennen bijvoorbeeld associaties maar geen causaliteit, maar aan filosofen hebben ze geen boodschap.
Maar ze komen eraan. Systemen die medische data koppelen aan biomedische kennis. Het zal niet lang duren tot we het op pathofysiologisch en therapeutisch vlak tegen ze afleggen. Wie weet wordt dat ooit het domein van machines en beperken wij ons dan tot coachen en medeleven betuigen. Tot ook die functie door robots wordt overgenomen. Misschien wordt de mens wel overbodig.
Reacties