Programma

Nieuws
Tip hier de redactie
Bekijk overzicht
Artikel delen

Ethiek moet al vanaf ontwerp in AI geborgd worden

AI heeft een steeds grotere impact op onze dagelijkse wereld en treft miljoenen mensen, niet alleen in het bedrijfsleven, maar ook in de gezondheidszorg, het onderwijs, de overheid en vele andere gebieden. Neem bijvoorbeeld voorspellende analyses, waarmee patiënten kunnen worden gescreend op mogelijke coronabesmettingen op basis van gegevens van routinematige bloedonderzoeken, of om ziekenhuisheropnames van patiënten met hartfalen te voorspellen met behulp van een op aandacht gebaseerd neuraal netwerk.

Tags

Deel dit artikel

Wilt u belangrijke informatie delen met de redactie?

Tip hier de redactie

Maar AI heeft een bias-probleem, weet Mykola Pechenizkiy, hoogleraar Datamining aan de Technische Universiteit Eindhoven en een van de pioniers in ethische AI. “AI-gebaseerde voorspellingen weerspiegelen noodzakelijkerwijs de gegevens waarop ze zijn gebaseerd, die, zoals we weten, vaak uit balans zijn op manieren die de bestaande ongelijkheden in de samenleving versterken. Of, zoals data-analisten het graag zeggen: garbage in, garbage out.” Voorbeelden zijn gezichtsherkenningssoftware die onderscheid maakt tussen gezichten met een donkere huidskleur en de gezichten van vrouwen of een geavanceerd taalmodel ( GPT-3) die een expliciete neiging heeft om moslims in verband te brengen met geweld.

Toenemende impact AI

De toenemende impact van AI op de wereld om ons heen maakt vooringenomenheid in gegevens een groot probleem, dat computerwetenschappers dwingt om een ​​standpunt in te nemen. “Ik ben er sterk van overtuigd dat ethiek een integraal onderdeel van AI moet zijn. Het kan niet langer worden beschouwd als een bijzaak van een optimalisatieprobleem, zoals traditioneel het geval is, ” zegt Pechenizkiy. “We moeten stoppen met de gegevens de schuld te geven en AI betrouwbaar te maken vanaf het ontwerp.”

Tegenwoordig zijn AI en machine learning nauw verbonden met eerlijkheid en non-discriminatie, stelt Pechenizkiy. “Als je een algoritme bouwt dat werkgevers helpt te beslissen wie er voor een sollicitatiegesprek moet worden uitgenodigd, moet het niet alleen nauwkeurig zijn, maar ook verschillende aspecten van diversiteit respecteren en juridisch en ethisch naleven. Of als je een AI-systeem ontwerpt om huidkanker te diagnosticeren, zou het moeten werken voor zowel mannen als vrouwen en voor mensen met zowel een lichtere als een donkere huidskleur.”

Fairness-bewust machine learning

Pechenizkiy en zijn collega’s aan de TU / e zijn pioniers op het gebied van ethische AI. Het eerste proefschrift over fairness-bewust machine learning is aan de TU / e geschreven door Faisal Kamiran. “In 2010, toen nog maar weinig mensen de relevantie ervan inzagen, schreven we een aantal baanbrekende papers over dit onderwerp, bijvoorbeeld over het leren van de beslissingsboom op basis van discriminatie. We hebben een nieuwe classificatietechniek ontworpen op basis van het leren van de beslissingsboom, die nauwkeurige voorspellingen genereert voor toekomstige besluitvorming, maar waarbij kwetsbare groepen niet worden gediscrimineerd.”

De techniek houdt zowel bij de constructie van de beslissingsboom als bij het labelen van de bladeren rekening met discriminatie, zonder aan nauwkeurigheid in te boeten. Dit werkt beter dan alleen de vooringenomenheid ‘wegnemen’ voordat traditionele classificatie-algoritmen worden toegepast, meent de hoogleraar. “Ons model werkt ook bij indirecte discriminatie. Bijvoorbeeld wanneer de etniciteit van een persoon sterk verbonden is met het gebied waarin hij woont, wat leidt tot een classificatie die discrimineert op basis van postcode.”

Aanpak vooringenomenheid

Veel recenter werk, vanaf 2020, behandelt vooringenomenheid in aanbevelingssystemen. Aanbevelingen worden gebruikt door bedrijven als Amazon en Spotify om gebruikersvoorkeuren te voorspellen en hen gepersonaliseerde aanbevelingen te geven. Onderzoek heeft aangetoond dat deze systemen, hoewel ze zeer effectief zijn, aan een aantal problemen lijden vanwege feedbackloops die stereotiep gedrag introduceren en versterken. Als gevolg hiervan geven ze de voorkeur aan een beperkt aantal zeer populaire inhoud en kunnen ze bevooroordeeld zijn tegen bepaalde groepen, zoals vrouwen.

Promovendus Masoud Mansoury heeft een op grafieken gebaseerd algoritme ontworpen, Fairmatch, dat de diversiteit in aanbevelingen aanzienlijk verbetert. Het werkt als een nabewerkingstool bovenop elk bestaand standaard aanbevelingsalgoritme. “Het idee is om de zichtbaarheid te verbeteren van items van hoge kwaliteit die slecht zichtbaar zijn in de oorspronkelijke reeks aanbevelingen”, zegt Pechenizkiy. “Het mooie is dat Fairmatch ook in andere contexten kan worden gebruikt, bijvoorbeeld in aanbevelers die momenteel minder nauwkeurige voorspellingen voor vrouwen genereren of om goedbetaalde banen eerlijk te verdelen over mannen en vrouwen.”

Tags

Deel dit artikel

Wilt u belangrijke informatie delen met de redactie?

Tip hier de redactie

Mis niks en ontvang de spannendste ontwikkelingen