morele robot

3 – 4 minuten

0 reacties

Angeline: “Carl, heb jij de VPRO/Human serie De volmaakte mens gevolgd? Een van de onderwerpen was de robot. En dan vooral ook de vraag naar het morele van zo’n robot. Heeft jouw operatierobot weleens een moreel dilemma?”

Carl: “Ons apparaat heet wel operatierobot, maar het is geen robot. Het voert geen commando’s zelfstandig uit. Het is een bewegingsvertaler. De commerciële naam robot bekt wel lekker. Maar het is alleen een instrument dat ons helpt de operatie (op afstand) met veel beter zicht uit te voeren. Dus ik heb ook nog geen morele dilemma’s…”

Angeline: “Dus jouw operatierobot is helemaal geen robot, maar gereedschap, zoals een nijptang. Nijptangen hebben geen ethische vragen, want ze hebben geen (moreel) bewustzijn, geen keuzevrijheid en geen verantwoordelijkheid. Omdat jouw operatierobot dus geen ethische vragen kan hebben, liggen al die vragen helemaal bij jou. Jij moet tijdens een operatie vast wel eens kiezen tussen twee kwaden. Wat doe je dan? Hoe ga je terwijl je aan het werk bent met morele dilemma’s om?”

Carl: “Uiteraard komen wij tijdens operaties wel eens voor een dilemma te staan. Als je tijdens een operatie ziet dat een tumor bijvoorbeeld veel groter is dan van tevoren bedacht, kan het zijn dat je een beslissing moet nemen om of een veel grotere operatie te doen, of de operatie te staken. Meestal worden die beslismomenten al voor de operatie met de patiënt besproken.”

Angeline: “Verstandig, want je kunt het tijdens de operatie natuurlijk niet aan de patiënt voorleggen of even een moreel beraad gaan houden. Goed om verschillende scenario’s en handelingsmogelijkheden van tevoren met de patiënt te bespreken. Je hanteert dus een soort scenario-ethiek, zo van ‘als dit het geval is, dan doen we dat’. Zo’n model zou tot op zekere hoogte ook kunnen werken bij robots. Je maakt gewoon een automatisch beslismodel voor verschillende situaties… Je gaat me nu toch niet vertellen dat jij zélf eigenlijk een operatierobot bent, als het over morele dilemma’s gaat? Daar kan ik me eerlijk gezegd niets bij voorstellen, daar ben je veel te aardig voor.”

Carl: “Nee ik beschouw mijzelf inderdaad niet als robot. Ik weet dat ik mens ben. Wij artsen en mensen hebben eigenschappen die computers niet hebben. Wel worden die computers steeds slimmer gemaakt. Zo zijn er ontwikkelingen om alle wetenschappelijke gegevens van een bepaalde aandoening in een computer te stoppen. Als je dan de gegevens van een patiënt invoert, komt de computer razendsnel met een wetenschappelijk onderbouwd advies voor een bepaalde behandeling. Wellicht dat die in de toekomst zelf de beslissingen kunnen gaan nemen. Het wordt nog een hele uitdaging om als mens de controle te houden over de beslissingen.”

Angeline: “Hmm… Je zet me nu wel verder aan het denken. Moeten mensen wel de controle willen houden over alle beslissingen? Als een mens beslist, dan is dat nog helemaal geen garantie dat die beslissing ook moreel oké is. Kijk maar om je heen. Mensen doen soms ronduit slechte dingen. Misschien kun je in bepaalde gevallen beter met een robot zonder moreel kompas te maken hebben dan met een slecht mens. Wat vind jij?”

Carl: “Je mag toch wel aannemen dat er ook nog humane artsen zijn die echt wel morele beslissingen willen nemen. Misschien wordt dat straks wel een belangrijke indicator voor de machtige zorgverzekeraars.”

Angeline: “Mijn idee!”

Gepubliceerd op Rijnstate blogs, 16/07/2015
Deze blog is geschreven door ziekenhuisethicus Angeline van Doveren (@PoEthiek) en uroloog Carl Wijburg (@Roboturoloog) van Rijnstate.

 

Een artikel van


0 reacties

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *