Het allergrootste risico van Kunstmatige Intelligentie

16 december 2022
Het allergrootste risico van Kunstmatige Intelligentie
AI
Premium

Kunstmatige intelligentie (AI) wordt in menig glazen bol gezien als een geweldig instrument om onze zorg toegankelijk en betaalbaar te houden. Maar AI kent ook een enorm en levensgroot risico.

“People should stop training radiologists now”, zei deep Learning-guru Geoffrey Hinton in 2016. Hinton redeneerde: binnen een handvol jaren is AI beter dan een getrainde professional in het herkennen van plekjes op foto’s. Dus stop met opleiden van die professional.

Risico 1: baan kwijtraken door AI
Anno 2022 is het niet raar deze uitspraak van Hinton breder te trekken dan radiologen. Alle medische professionals kennen elementen in hun takenpakket waarin AI iets kan betekenen. En misschien zelfs wel overnemen. Maar is dat een risico? Zouden alle drukbezette/overbelaste professionals niet blij moeten zijn als technologie beschikbaar komt die enkele taken kan overnemen?

Of daarmee de baan en het bestaansrecht van een beroepsgroep onder druk komt te staan, is maar de vraag. Een radioloog doet meer dan plekjes op foto’s zoeken. Ik zag laatst een krantenartikel uit 1968 met een toepasselijke quote: “Any doctor who can be replaced by a machine deserves to be replaced by a machine.” Je raakt je baan dus niet kwijt, je schuift wat taken door naar technologie.

Risico 2: kleine leugens, grote leugens en statistiek
“Torture the data until it confesses” luidt een gezegde. Er bestaat een risico dat AI leert van correlaties in data, zonder dat daar een begrijpbare relatie aan ten grondslag ligt. Voor je het weet slaat data-gedreven werken om in een ongrijpbaar algoritme dat uitkomsten genereert die niemand begrijpt.

Besef je hierbij dat data nooit de werkelijkheid vangen en dat algoritmes geen waarheid ontsluiten. Kunstmatige intelligentie is eigenlijk Wiskundige Slimmigheid. Dat besef helpt om naast data-gedreven technologie ook een data-gedragen manier van besluitvorming vorm te geven. Dat is een proces en houding waarin de mens aan het stuur zit en het algoritme besluitvorming ondersteunt. The algorithm-in-the-loop zonder dat het algoritme een loopje met ons neemt.

Risico 3: Winter is coming (?)
Het vakgebied rond AI is niet van gisteren. Er zijn in de afgelopen decennia al vele glorieuze voorspellingen gedaan en niet uitgekomen. Leidend tot dalende interesse (en investeringen) in technologie en oplossingen. Die periodes worden AI-winters genoemd. Er is een risico dat de huidige hype rond AI zijn belofte niet kan waarmaken: oplossingen die niet aansluiten bij de praktijk, niet schaalbaar zijn of niet kosteneffectief zijn bijvoorbeeld.

Dit kan een afwachtende, en misschien wel apathische houding veroorzaken bij professionals. En dat brengt ons bij het allergrootste risico.

Het grootste risico (en een oplossingsstrategie)
Er is een verhaal over een groep brandweerlieden die ingesloten raakte door een bosbrand. Met het vuur nog op enige afstand stonden de brandweerlieden voor een belangrijke keuze: vluchten of afwachten. Allen behalve één kozen voor het vluchten en deden een poging door de vuurzee heen te rennen. Geen een van hen overleefde deze ramp.

Die ene die overbleef startte een Escape Fire: door bij de eigen voeten een kleine, gecontroleerde brand te ontsteken, zorgde hij dat het aanstormende vuur uiteindelijk geen brandstof meer had om hem te bereiken. Hij had zichzelf gered van het aanstormende vuur door zelf een vuurtje te stichten.

Het allergrootste risico van kunstmatige intelligentie is dat we apathisch afwachten of het gedachteloos tegemoet rennen. De oplossingsstrategie is een Escape Fire: start in je eigen omgeving met AI en leer zo wat het voor jou kan betekenen.