Recente ontwikkelingen binnen AI zijn fantastisch

20 oktober 2022
Recente ontwikkelingen binnen AI zijn fantastisch
AI
Premium

Om even bij mijn statement in de kop te blijven: bijvoorbeeld AI die osteoporose ontdekt, mét hoge nauwkeurigheid… door het analyseren van routinematig gemaakte tandheelkundige röntgenfoto's. Dit jaar publiceerden wetenschappers in Japan hieromtrent een artikel. Of het detecteren van Parkinson uit… ademhalingspatronen? In augustus beschreef een team van de MIT Jameel Clinic hoe zij een AI-model hebben ontwikkeld dat de ziekte van Parkinson kan opsporen door nachtelijke ademhalingspatronen te analyseren. Het AI-model kan ook de ernst van de ziekte bepalen en de progressie in de tijd volgen.

Nog een paar dan: tijdens de zomermaanden kondigden Bayesian Health en Johns Hopkins baanbrekende resultaten aan waaruit blijkt dat een nieuw klinisch ingezet AI-platform ziekenhuizen heeft geholpen het aantal sepsis-doden met 18 procent te verminderen. En volgens een recent gepubliceerde studie was een AI-model – OtoDX - meer dan 95 procent nauwkeurig in het diagnosticeren van een oorontsteking, vergeleken met 65 procent bij een groep clinici die dezelfde beelden bekeek.

Ook de ontwikkelingen van GPT-3 zijn ronduit fascinerend. GPT-3 is een machine-leermodel (machine learning), wat betekent dat het kan leren en taken kan verbeteren zonder daarvoor expliciet geprogrammeerd te zijn. Het maakt bovendien gebruik van kunstmatige neurale netwerken voor diep leren (deep learning), waardoor het zichzelf kan trainen met behulp van hersenachtige algoritmestructuren. 

GPT-3 wordt nu zelfs ingezet om zelfstudie efficiënter te maken, met als voorwaarde volautomatische transcriptie van de online lezing met OpenAI Whisper (automatisch spraakherkenningssysteem). GPT-3 vat die transcriptie samen in eenvoudige bewoordingen. Vervolgens stelt GPT-3 je extra vragen om je begrip te verbeteren. En om je te testen en te evalueren, genereert GPT-3 huiswerkvragen.

Data = (smeer-)olie
In het verleden schreef ik in ICT&health al over AI: ‘Allerslechtste Intelligentie’ (2017) en ‘Wat kan AI voor uw hospitaal betekenen?’ (2021). Heel kort door de bocht is de conclusie nog dezelfde: de kwaliteit van AI is volledig afhankelijk van de hoeveelheid data én de kwaliteit van die data. 

Data is de nieuwe olie, niet zozeer olie als uitdrukking van waarde, maar olie als smeermiddel om de AI-machine zo goed mogelijk te laten draaien. Zowel te weinig olie als olie van lage kwaliteit zijn oorzaak van haperende of onbetrouwbare machines. 

Boren naar zorgdata
En wie heeft de meeste middelen om grote hoeveelheden data op te pompen en te raffineren tot bruikbare grondstof? Inderdaad: Big Tech. Facebook, Apple, Microsoft, Google en Amazon (FAMGA), allemaal zetten ze fors in op gezondheidszorg.

En ze doen dat razendsnel. Bijvoorbeeld Google. Na het voltooien van de acquisitie van Fitbit (smartwatches) aanvang 2021, introduceerde Google recent de ‘Device Connect voor Fitbit’. Dit is een volledig pakket met open mhealth, cloud healthcare API, open source data connectoren en dashboarden. Uiteraard inclusief AI en machine learning-tools. Gericht op ziekenhuizen, farma bedrijven, verzekeraars etc.

Het blijft niet beperkt tot de Big Tech. Zo werken Sanofi (farma), Generali (verzekeraar), Orange (telco) en Capgemini (IT) in Frankrijk samen om een digitaal zorg-ecosysteem te bouwen.

Hoe dan ook, het resultaat is dat diegene met het meeste kapitaal de meeste datapunten kan verwerven én de best presterende AI kan bouwen. 

Wat is daar mis mee?
Als het enkel een kwestie is van het meeste kapitaal, zullen grote bedrijven eigenaar worden van zowel de data als het algoritme. En het ligt in de natuur van bedrijven om te groeien en winst te genereren. 

Dit betekent het blijven aankopen van data, concurrenten uitschakelen (of overnemen) en een perpetuum van nieuwe verdienmodellen bedenken… ten koste van de patiënt of burger. Dit betekent ook het afschermen van zowel gegevens als algoritmes en verhinderen dat buitenstaanders toegang krijgen tot die data. Bijgevolg is er ook geen controle meer op de gebruikte data en algoritmes. Is die nog wel accuraat? Is die gemanipuleerd? 

En wat als jouw persoonlijke data die zich op een platform bevindt, wordt gebruikt (of gekocht) door een andere partij? Zoals GSK (farma) die in 2018 een samenwerking aankondigde met 23andme, een bedrijf dat beschikt over enorme hoeveelheden persoonlijke DNA-data.

Het is bovendien verontrustend dat iemands data (EPD, persoonlijke gegevens, etc.) worden verzameld, bewerkt en herverpakt om die data vervolgens terug aan te bieden aan diezelfde eigenaar van data… tegen een vergoeding.

Maar één van de meest beangstigende dingen van kunstmatige intelligentie is dat het de macht overstijgt van nationale staten om het te controleren, in te dammen of te reguleren.

Het wordt nóg complexer als initiatieven die op het eerste zicht nobel zijn, zoals ‘OpenAI’, op het tweede zicht helemaal niet open zijn. OpenAI en Google hebben hun code niet gedeeld of hun modellen openbaar gemaakt. Externe onderzoekers hebben weinig inzicht in hoe deze modellen worden getraind. Het is onmogelijk om te beweren dat OpenAI transparantie en veiligheid niet heeft opgeofferd voor commercialisering. 

Fors tegengewicht
Tegenwicht biedt onder meer de HippoAI Foundation. Dat is een altruïstische data trustee en open-source AI-accelerator. Zij verenigen, zuiveren en de-identificeren data verkregen via individuele en institutionele datadonaties. Dit betekent dat ze data beschikbaar stellen, zonder enige vorm van compensatie, voor open-source gebruik dat ten goede komt aan de gemeenschap of de samenleving als geheel, zoals het gebruik van borstkankerdata om de wereldwijde toegang tot borstkanker-diagnostiek te verbeteren.

BLOOM is gecreëerd door meer dan 1.000 vrijwillige onderzoekers in een project genaamd BigScience, dat werd gecoördineerd door AI startup Hugging Face1 met financiering van de Franse overheid. De onderzoekers hopen dat de ontwikkeling van een open-access LLM (Large Language Model) net zo goed presteert als andere toonaangevende modellen. Ze willen ervoor zorgen dat hun inspanningen zullen leiden tot langdurige veranderingen in de cultuur van AI-ontwikkeling en zal helpen de toegang tot geavanceerde AI-technologie te democratiseren voor onderzoekers over de hele wereld. 

‘A gigantic oil drilling platform in the sea painted by Rembrandt’, created by Dall-E.

EleutherAI dan: een losse vereniging van computerwetenschappers die een gigantisch AI-systeem hebben gebouwd dat kan wedijveren met enkele van de krachtigste modellen voor machinaal leren op de planeet. De groep ontleent zijn naam aan het oude Griekse woord voor vrijheid, eleutheria. Het is een gratis en open-source AI-taalmodel dat streeft naar GPT-3-kracht met samenwerking en distributie op Linux-schaal.

Hierbij zoals gebruikelijk een lijst van voor dit artikel relevante (AI-)startups. 

Measure Labs
Measure Labs is een ontwikkelaar van een AI-platform dat wordt gebruikt voor mobiele gezondheidssensoren. Dit platform biedt zorgorganisaties toegang tot vitale functies van patiënten op afstand, helpt de bereikbaarheid te vergroten, de zorg te verbeteren en kosten te verlagen. Dankzij een computervisie-model kan een zorgverlener onmiddellijk fysiologische gegevens van hun patiëntenpopulatie opvolgen. Zij bieden bovendien een AI-geactiveerde SDK (Software Development Kit) en API (Application Programming Interface) aan met betrekking tot de verzamelde data.

January
Naar eigen zeggen is January 's werelds eerste virtuele continue glucosemeter. Draag eenmaal de continue glucosemeter (CGM) en January's AI leert uw bloedsuiker te controleren en te voorspellen, zelfs nadat u de sensor hebt verwijderd. "January gebruikt AI om zijn klanten te assisteren om beslissingen te nemen over wat ze moeten eten, inclusief voorspellingen over hoe ze zouden kunnen reageren op verschillende voedingsmiddelen, zelfs voordat ze deze eten."

Abridge
AI voor medische conversaties. Technologie die u helpt meer uit uw gesprekken te halen. Hun intelligente tools produceren gestructureerde gegevens en inzichten voor uw organisatie, ongeacht het platform.

Het werkt met eender welke audio-input of transcripties van gesprekken en chats. De audio kan vastgelegd worden met de standalone oplossingen van Abridge of u laadt ze op vanuit uw eigen voorkeursbron. Het resultaat is klinisch bruikbare en factureerbare documentatie. Patiënten ontvangen na het bezoek een samenvatting, gebaseerd op het gesprek.

Maverick
Maverick biedt een gepersonaliseerde autonome medische codeeroplossing die zich voortdurend aanpast aan unieke codeerbehoeften. De codeersoftware analyseert medische documenten die in vrije tekst opgesteld zijn door middel van AI. Vervolgens bepaalt het algoritme nauwkeurig de overeenkomstige medische codes.

XpertDox
XpertDox biedt een reeks producten en diensten aan die gericht zijn op het gebruik van slimme technologie om de administratie van de gezondheidszorg en de ervaringen van patiënten te verbeteren. Hun eerste product, XpertTrial, omvat databasebeheer, een zoekmachine en een patiëntenwervingsplatform voor klinische studies dat op maat is gemaakt voor organisaties in de gezondheidszorg om patiënten te werven. Meer recentelijk lanceerde het bedrijf zijn nieuwste product, XpertCoding, dat gebruik maakt van AI om autonoom medische claims te coderen.

Surge
Surge is een biotechbedrijf dat zich richt op het optimaliseren van de behandeling van patiënten die een operatie ondergaan. Surge maakt gebruik van een gepatenteerd AI-algoritme dat in staat is de immuun-vingerafdruk te decoderen die wordt verkregen uit een bloedmonster vóór de operatie. Deze voorspellende test biedt een betrouwbare beoordeling van iemands risico op het ontwikkelen van een postoperatieve infectie.

Optellum
Optellum is de leider in AI-gebaseerde longkankerdiagnose. De tekenen van longkanker worden in een vroeg stadium gediagnosticeerd zodat de behandeling van patiënten met tumoren eerder kan worden gestart en invasieve procedures zoals biopsies op goedaardige laesies geminimaliseerd worden. In het VK wordt Optellum's oplossing gebruikt om risicovolle longknobbels te voorspellen. 

Referenties

1. Hugging Face: een AI-gemeenschap die helpt om geavanceerde modellen te bouwen, trainen en implementeren op basis van een open referentiebron voor machinaal leren.