Algomedics: de alchemie van slimme algoritmen

22 februari 2019
Kunstmatige-intelligentie-4
AI
Blog

Er vallen uiteraard ook de nodige tegengeluiden te horen. Kan artificiële intelligentie nu echt zoveel met algoritmen? En bagger er in bij het opstellen van dergelijke AI-algoritmen levert ook gewoon bagger er uit op (rubbish in, rubbish out). Vertrouwen wij niet te veel op beslissingsondersteunende systemen?

En waar blijft de menselijke component?

Waarom wel?

Heel simpel: Het gaat relatief snel, scheelt vaak een hoop kostbare manuren, het systeem raakt niet vermoeid en is 24 uur per dag en 365 dagen per jaar beschikbaar.

Werkt het logaritmische beslissingssysteem eenmaal goed, dan kan het in 70-80 procent van de gevallen net zo betrouwbaar of zelfs beter zijn dan het menselijk oordeel. Er blijft echter een valkuil dat op basis van verkeerde ingevoerde informatie of haperende sensoren verkeerde beslissingen uit het AI-systeem rollen.

Patroonherkenning

Als AI-algoritmen ergens goed in zijn, dan is het patroonherkenning, danwel de patronen die ze ingevoerd hebben gekregen. Met machineleren kan het AI-algoritme nog verder gaan door het zelf interpreteren van opgedane ervaringen.

Een belangrijke ‘maar’ in deze is en blijft echter dat het een AI-algoritme niet uitmaakt wat het herkent! Tandenstokers of kankercellen, het zal een logaritmische worst zijn.

Fout positief en negatief

Een belangrijk gegeven bij medische en statistische bevindingen is het vals negatief (gemist) en vals positief (ten onrechte vastgesteld). Het AI-algoritme is in deze niet beter of slechter dan de ingevoerde testmethode.

De al eerder genoemde 70-80 procent correct moet dan echt omhoog. Of er is een aanvullende vorm van menselijke supervisie nodig. In het ergste geval kan AI bijvoorbeeld een patiënt op basis van een regulaire ademhaling en normale hartslag gezond verklaren omdat het blauw zien van de cyanose niet in de beslissingsmodule werd opgenomen.

Spraakherkenning

Ook een interessante ontwikkeling is slimme domotica met pratende speakers, robots op de helpdesk, het bedienen van de connected car en zorgondersteuning bij cliënten met fysieke beperkingen.

Eenvoudige commando’s zonder accenten, dialect of een verkouden spreker wil nog wel aardig lukken. Geautomatiseerd tekstbegrip is echter een geheel andere zaak. Zo sloeg in 2016 de zelflerende tekst interpreterende Twitterrobot Tay van Microsoft na gevoed te zijn door internettrollen met bad content op hol. Dit nog voor een bekende president dit ook is gaan doen. Compleet met fake news, complottheorieën en ongefundeerde ontkenningen. Dit menselijke aspect is ook de AI blijkbaar niet vreemd.

En ook geavanceerdere antwoord- / responsesystemen vielen door de mand door gebrek aan empathie en geen begrip voor minder logische menselijke zaken.

Houdt het simpel en direct. Dan gaat het wel lukken. Anderzijds is er in deze nog een lange weg te gaan.

Bias

Vooringenomenheid vormt de dood in de pot bij AI-beslissingssystemen. Een logaritme dat bij voorbaat al redeneert van ‘Het zal wel weer zo zijn’ kan goed de digitale mist ingaan. Dit gebeurt regelmatig gewoon onbewust. Degene die de Big Data invoerde had dat vaak zelf ook niet in de gaten.

Een bekend voorbeeld is hetgeen er in de film Minority Report, het voorspellen van te plegen misdaden, gebeurt als je dat naar onze AI probeert om te zetten. Vraag aan de politie waar een misdaad (kan gaan) plaatsvinden en als eerste komen dan ook de slechtere buurten en plaatsen waar drugs verkocht worden in de gedachten.

Dat zal best voor de kleinere criminaliteit maar moorden, huiselijk geweld en fraude komen ook gewoon in de beste wijken voor.

Idem het herkennen van criminelen aan foto’s. Laten nu inderdaad de meest ingevoerde boevenfoto’s die van de reeds gepakte misdadigers zijn. En wat is de referentie van ‘geen boef’: Google, Instagram of LinkedIn?

Achterstanden, gezondheidsrisico’s voorspellen

Een zelfde valkuil bij het voorspellen van achterstanden in de gezondheid of een grotere kans op het krijgen van een ziekte. Dat je in een lagere SES-wijk woont of, nog erger, vrouw bent, hoeft helemaal niet te betekenen dat een bepaald risico ook voor jou geldt. En de verzekeraar maar de risico’s inschatten voor de premiehoogte.

De burger en de AVG liggen ronduit wakker van het Risico-Indicatie-Systeem van de overheid. Dit koppelt de Big Datasystemen van de gemeenten en overheid met elkaar. Maar wat zijn de daarbij gestelde analysevragen eigenlijk en waarop zijn die indicaties dan wel gebaseerd? En wie heeft deze data hoe, wanneer en op welke wijze ingevoerd

Ongelijkheid

In bedenkelijke gevallen kan de data-alchemie ongelijkheid gaan creëren. Zit je net in de verkeerde groep, zijn de juiste of ontlastende data net niet voorhanden en rammelt het AI-model, dan kan je toch mooi zo maar de pisang zijn. Bijvoorbeeld te oud, verkeerde woonbuurt, te laag inkomen, al een paar keer gescheiden, verslaafde familieleden etc. Het zal toch van de gekke zijn als je bij een jonger iemand wel en een ouder, gezond iemand niet in de beslissingsprijzen zou vallen.

Betrouwbare trainingsdata

Alles staat of valt dus met het ter beschikking hebben en invoeren van betrouwbare trainingsdata voor de beslissingsondersteunende AI-logaritmen. Selectie op het hoogst mogelijke kwaliteitsniveau. Natuurlijk kan het daarbij best eens misgaan. Als er dan ook maar een alarm is ingebouwd dat afgaat als resultaten te veel afwijken of gewoon vreemd zijn!

De term beslissingsondersteunend staat er ook niet voor niets. De superviserende mens heeft nog altijd het laatste woord. Zo niet, dan komt de geest uit de fles net als bij die oude alchemisten.

Bij complexe data wordt een zogenaamd bewezen trackrecord aanbevolen. Daarmee valt terug te kijken hoe het AI-systeem tot een beslissing of oordeel is gekomen.

Camerabeelden

Als laatste de interpretatie van camerabeelden. Daar hangt ons land inmiddels vol mee. Ook rukken zij bij medische beeldvormende technieken navenant op. Dan rijzen er toch weer vragen als: hoe goed is de toegepaste camera? Denk bijvoorbeeld aan de smartphone. Hoe gaat de beeldverwerking na de opname in zijn werk? Wat is de kwaliteit van de herkenningsapp die de opgenomen beelden interpreteert. En met welke database vergelijkt deze app eigenlijk?

Allemaal behoorlijk lastig en regelmatig niet eenduidig. Niettemin ontstijgt de beeldherkenning momenteel het niveau van ‘fuzzy logic’ (= de op grond van de waarneming meest waarschijnlijke / gebruikte aanpak). Zij wordt daarmee ook geschikt voor massale screenings en thuisgebruik. Kan straks een AI-systeem mensen met een besmettelijke ziekte op publieke plaatsen detecteren?

Algomedics op basis van AI-algoritmen dient de alchemie te ontstijgen. En dat is best realistisch en valt tevens goed te doen. Zorgvuldigheid, voorzichtigheid en de verkregen beslissingen regelmatig monitoren blijven daarbij een must.