AI-algoritmen ondanks representatieve input toch met raciale bias
AI-algoritmen ondanks representatieve input toch met raciale bias. Adequate validatie van onderzoeksafspraken en meetmethodieken bij subgroepen dient gewaarborgd te zijn.
AI-algoritmen ondanks representatieve input toch met raciale bias. Adequate validatie van onderzoeksafspraken en meetmethodieken bij subgroepen dient gewaarborgd te zijn.
Deep learning o.b.v. digitale zorgdossiers is tot mislukken gedoemd. Interessante bespiegelingen van een Google Brain Team research-engineer.
Gevaar Artificial Intelligence door herkenning raciale identiteit in medische beeldvorming. Raciale bias kan ongemerkt uitslag binnensluipen.
FDA ontwikkelt nieuwe strategie Artificial Intelligence/Machine Learning. Ook interessante materie voor Nederland.
Het begrip “digitale tweeling” of “Digital Twin” is iets wat de laatste twee jaar nogal eens te horen is. Een digitale tweeling is een digitale replica van een levende of niet-levende fysieke entiteit. Digital Twin verwijst naar een digitale replica van potentiële en feitelijke fysieke activa (fysieke tweeling), processen, mensen, plaatsen, systemen en apparaten die voor verschillende doeleinden kunnen worden gebruikt. Onze nationale international Philips timmert sinds 2018 aan de weg in de zorg met dit concept. Daarmee doelend op het maken van een Digital Twin van een orgaan of van een persoon. Uiteraard gaat dat niet alleen met hard- en software, maar vooral met data afkomstig van patiënten. Sinds Philips geen gloeilampen en beeldbuizen meer maakt, zet het concern hard in op medische apparatuur en medische ICT-applicaties. Voor zoiets als een Digital Twin van een orgaan, maar vooral van een persoon zijn zorgdata nodig, heel veel zorgdata. Lees meer
Recente reacties