AI-voorspelling ziekten op individueel niveau niet ethisch verantwoord
AI-voorspelling ziekten op individueel niveau niet ethisch verantwoord. Studie in Nature heeft voordelen voor populatie, niet voor individu.
AI-voorspelling ziekten op individueel niveau niet ethisch verantwoord. Studie in Nature heeft voordelen voor populatie, niet voor individu.
Modieus koketteren met Artificial Intelligence in de psychiatrie. Herhaling van zetten na 8 jaar en een vreemde publicatie in een vakblad.
Kamerbrief zorg-AI deels opgehangen aan sprekende bloempot-robot. Zeer veel financieel natte-vinger-werk becijfert ongeloofwaardig miljard euro aan voordeel.
AI-algoritmen ondanks representatieve input toch met raciale bias. Adequate validatie van onderzoeksafspraken en meetmethodieken bij subgroepen dient gewaarborgd te zijn.
In het Verenigd Koninkrijk is vanaf eind 2017 binnen een samenwerkingsverband van huisartsen(GP At Hand) in Londen de triage-app Babylon in gebruik. Deze app werkt als chatbot bij hulpvragen bij die huisartsen. Er bestaat van diverse kanten uit medische hoek in het V.K. serieuze kritiek op deze app. Eén van die critici publiceerde zijn bezwaren o.a. op Twitter onder het pseudoniem @DrMurphy11. Afgelopen maandag 24 februari 2020 verzorgde hij een bijdrage op een bijeenkomst van de The Royal Society of Medicine’ gewijd aan “Recent developments in AI and digital health 2020“. Hij gaf daar aangekondigd als Dr Murphy, onder zijn eigen naam David Watkins, een presentatie waarin hij opriep tot meer onafhankelijke verificatie van claims die Babylon Health, het bedrijf achter de app, ventileert. Ook riep hij op tot het minder hypen van een dergelijke app. Diezelfde dag kwam Babylon Health met een ongemeen harde en stuitende persverklaring. Lees meer
Recente reacties