4USE aspecten: Difference between revisions

From Control Systems Technology Group
Jump to navigation Jump to search
(Created page with '=Terug= Verslag Groep 4 =USE aspecten=')
 
No edit summary
 
(5 intermediate revisions by 2 users not shown)
Line 4: Line 4:


=USE aspecten=
=USE aspecten=
Het onderzoek dat wij gaan uitvoeren, is gebaseerd op een heleboel redenen. Deze redenen hebben allemaal te maken met de onderdelen van USE. Wij willen het bijvoorbeeld voor de user aantrekkelijker maken om robots te gebruiken door een juiste interactie te bedenken om de users en robots dichter bij elkaar te laten komen. Maar we willen ook bijvoorbeeld bedrijven iets kunnen aanraden over hoe zij het beste hun robotproduct kunnen brengen aan het publiek zonder dat zij er vanaf schrikken. Ook hebben wij met robottechniek veel te maken met wetten en regels, normen en waarden. Dit heeft invloed op beide user en enterprise. In de volgende twee hoofdsukken worden de wee aspecen onder de loep genomen.
'''USER'''
De users van het product zijn natuurlijk de end-users. Zij heten ook wel de consumenten. Zij beslissen of zij het product kopen of niet, gebruiken of niet, en of het bevalt of niet. In ons onderzoek gaan we ervanuit dat er angst voor  robos heerst onder de end-users. We hebben gegronde redenen om te denken dat die angst er is, want we hebben research gedaan naar artikelen en studies die kunnen aantonen dat er op z’n minst een wantrouwen is naar robots. Omdat de technologie vrij nieuw is, hebben users nog niet de tijd kunnen nemen (of willen nemen) om erover na te denken. In ons geval waren het de proefpersonen die ineens geconfronteerd werden met stellingen over persoonlijke situaties waar ze eventueel later in zouden kunnen komen. De zorgrobot is namelijk nu heel erg in trek. Er zijn verschillende competities om te laten zien wat jij allemaal al kan met je zorgrobot. De ontwikkeling ervan wordt elke dag beter. Met deze argumenten zou je kunnen aannemen dat het heel realistisch is dat er over 20 á 30 jaar zorgrobots te vinden zijn in verzorgingstehuizen, en misschien over een paar jaar later in het houshouden van de user. Wij hebben de stellingen in de enquête zo gepersonaliseerd dat de proefpersonen vaak moeite hadden met het antwoord. Het feit dat de stellingen van de enquête misschien wel echt werkelijke situaties worden, kan misschien ook al angst oproepen. Er zijn verschillende perspectieven wat betreft die angst. Wij hebben het meest onderzoek gedaan naar de normen en waarden. Robots zouden bijvoorbeeld niet op kunnen tegen de normen en waarden die bepaalde users hanteren, die bepaalde users verwachten van robots. Als robots deze dus niet waar kunnen maken, mist er al een groot stuk vertrouwen en in het ergste geval vloeit daar angst uit. Dit heeft dus veel te maken met de deugden ethiek [1] achter robottechnologie. Deze ethiek stelt de deugden van de actor centraal. Men moet handelen met de goede karaktereigenschappen. Kan het zo zijn dat robots goed kunnen handelen volgens deugden die te maken hebben met de normen en waarden? Zijn ze ooit goed genoeg? Zodra robots kunnen beslissen om te handelen naar een deugd, kunnen ze er dan ook voor kiezen om te handelen naar een ondeugd? Zijn users bang voor de ethische keuzes die robots eventueel kunnen maken?  Verdere perspectieven die we behandeld hebben zijn het uiterlijk van de robot, de taken die de robot mag uitvoeren, de toekomst van robots en of het aan de voorkennis ligt van mensen.
Maar we kunnen ook alles bekijken vanuit het utilisme [1], waarbij we centraal zetten dat door robots zoveel mogelijk geluk wordt gebracht aan zoveel mogelijk mensen. Daarbij maakt het niet uit hoe dat bewerkstelligt wordt. Uiteindelijk maakt het verder niet uit hoe zorgbehoevenden aan hulp komen, als ze er maar beter op worden in hun verdere leven. Hierbij wordt iets minder rekening gehouden met de normen, maar waarden als geluk, onafhankelijkheid, veiligheid, betrouwbaarheid, en tevredenheid worden wel gerealiseerd (uiteindelijk). Toch ligt dit voor robottechnologie heel gevoelig. Een robot zou in principe in alle opzichten kunnen helpen, maar de user kan van allerlei gevoelens koesteren waar hij niet omheen kan (zoals griezelig uiterlijk, de manier waarop de robot functioneert) . Ondanks dat de robot gewoon zijn taak doet, zal de user niet helemaal vertrouwd raken met de robot. Dit helpt niet om uiteindelijk het geluk te maximaliseren.
Als alle zorg robots worden geprogrammeerd met de kennis van alle wetten in het Nederlandse wetboek,  dus robots ethisch laten handelen met uitgangspunt de beginsel ethiek [1], zouden er dan problemen kunnen optreden in de praktijk? Zorg robots zouden in principe dan niets kunnen doen dat in strijd is met de wet. Onze normen komen in grote strekking overeen met de wetten en regels. Maar als de user dagelijks met een zorgrobot te maken krijgen, wordt er een soort emotionele band ontwikkeld tussen de user en de robot. Robots mogen niet in conflict raken met die band,  want dan zakt het vertrouwen in de robot weer bij de user. Als de user iets vraagt van de robot, wat hij eigenlijk niet mag doen, zal er irritatie ontstaan bij de user. Ook zijn robots die puur en alleen op de wetten zijn geprogrammeerd, en geen mogelijkheden hebben tot het hebben van een emotionele band, minder gebruiksvriendelijk dan een robot die zich perfect aanpast aan de wensen van de user.
We kunnen hieruit concluderen dat we vooral een normatieve ethiek willen hanteren wat betreft de robots. We willen de normen en waarden van de users zoveel mogelijk in tact houden en we willen dat zorgrobots deze normen en waarden respecteren en dat ze niet hier tegenin gaan. We willen hiermee bereiken dat de angst voor zorgrobots verminderd wordt.
Nog steeds blijven er een paar aspecten onzeker. We weten nu natuurlijk niet hoe users precies zullen reageren op zorgrobots als deze permanent en dagelijks opereren in hun leven. Wel is hier al wat over te discussiëren. In het artikel [3] worden zes discussiepunten uitgelicht.
* '''De mogelijkheid dat het contact van mensen verloren gaat'''. Dit is zeker het geval als zorgrobots het hele systeem van verzorgers gaat overnemen. In de meeste gevallen van zorgbehoevenden is dat zij oud en eenzaam zijn. Als de verzorger zo af en toe langskomt, is dat zeer prettig voor deze personen, want dan kunnen ze even een babbeltje maken. Aangezien dat wordt vervangen door een machine die misschien niet over alles kan praten (of users hebben totaal niet het gevoel dat ze tegen een gelijkwaardig persoon praten), is er zeker een gevaar dat bepaalde mensen helemaal geen contact meer gaan hebben met de buitenwereld. Het tegenargument is dan dat ouderen zelf moeten kiezen om meer sociaal te zijn, en dit kan juist realistischer worden door middel van robottechnologie. Met een persoonlijke zorgrobot die hen kan ondersteunen, kunnen ze juist meer onafhankelijker worden en dus vaker op pad gaan. Ook in dit geval zal angst plaatsmaken voor een blije emotie.
* '''Objectivering''': users voelen zich een object omdat er voor hun wordt beslist dat verzorgers worden vervangen door zorgrobots vanwege bijvoorbeeld de kosten. Ze hebben het gevoel dat ze nog minder controle hebben over hun leven dan toen ze werden verzorgd door verzorgers. Maar aan de andere kant hoeft dit niet zo te zijn. Want verzorgers zijn ook niet allemaal even gelijkwaardig. Verzorgers hebben ook wel eens een chagrijnige bui of houden zich niet aan de rechten van de mens. Daar heeft een zorg robot geen last van. Deze kan vooral de waardigheid van mensen in tact laten. In sommige gevallen zijn de users meer bang voor een verzorger dan voor een zorgrobot.
* '''Privacy''': een robot kan natuurlijk veel observeren, detecteren, en ook opslaan. Waar gaat deze informatie allemaal naar toe? Hoe groot is de kans dat het in de verkeerde handen valt? Privacy is een heel gevoelig onderwerp. Er direct aan gekoppeld is de waarde: verantwoordelijkheid. Wie kunnen we de schuld geven als er belangrijke en zeer persoonlijke informatie over mij uitlekt? Het voordeel van al die gegevens die een zorg robot kan opmeten is dat er veel sneller gedetecteerd kan worden wanneer er een arts nodig is. Zelfs verzorgers kunnen niet in een oogopslag opmerken wanneer hun waardes te laag worden, of wanneer er hartslag daalt. Ook kan een zorgrobot gevaarlijke situaties voorkomen en zo meer levens redden. De waarde veiligheid wordt dan vooral in tact gehouden. Dit zal ook angst kunnen reduceren bij de users.
* '''Verlies van vrijheid'''. Dit heeft te maken met robots die enerzijds de users meer onafhankelijk maken van anderen, maar ook anderzijds robots die kunnen adviseren, of zelfs de user kan tegenhouden om bepaalde acties uit te voeren. Omdat ze juist zo alles nauwkeurig kunnen meten, willen ze gevaarlijke situaties voorkomen. Hierin kunnen ze de users tegenhouden om onverantwoordelijke dingen te doen. De user kan dit ervaren als enerzijds beperking in hun vrijheid, maar anderzijds ook als een groter gevoel van veiligheid. Er moet dus een balans worden gemaakt tussen het verbeteren van het leven van de user maar ook het beschermen van de user en beamen van de menselijke rechten. Als die balans optimaal is, dan zal de angst ook gauw minimaal worden.
* '''Misleiding'''. De zorg robots die er nu zijn om de users van een kameraad te voorzien, zijn ontwikkeld om de users minder eenzaam te laten voelen. Maar sommigen geloven dat dit de users alleen maar misleidt. De zijn namelijk zo ontworpen dat ze een sterke emotionele band met ze kunnen ontwikkelen. Deze band echter is niet echt, omdat het uiteindelijk slechts machines zijn. Sterker nog, in artikel [3] wordt zelfs gehint naar het infantiliseren van users. Natuurlijk hoeft dit niet zo te zijn, want deze zorg robots kunnen er juist voor zorgen dat de users met anderen erover kunnen praten. Het is natuurlijk wel een heel interessant en leuk onderwerp om aan te snijden. Zo kunnen er meer mogelijkheden gecreëerd worden om sociale interacties aan te gaan. Dit leidt dan uiteindelijk ook tot angstvermindering.
* '''De eventuele controle over robots'''. In hoeverre moeten we users controle geven over robots? Hoeveel controle zal ervoor zorgen dat de angst voor robots sterk verminderd? Mensen voelen zich prettig bij het idee van controle, dus ook controle over robots. Een uit-knop die in alle situaties werkt, lijkt een goede optie te zijn. Hierdoor kunnen users ten alle tijden de interactie met de robot stopzetten als die hun niet bevalt. Hierdoor zal de angst voor het feit dat robots hun eigen leven kunnen leiden, weggenomen worden.
In het artikel [2] wordt een bepaalde aanpak aangekaart, waarbij wordt gekeken naar het proces zelf, en dus niet naar het uiteindelijke geluk waar de zorgrobot voor zal zorgen. Het doel is om de zorgbehoevenden, de users, centrale menselijke mogelijkheden te geven. In het bijzonder wordt er gehoopt dat hiermee verzwakte mensen effectiever kunnen communiceren met hun fysieke en sociale omgeving. Het doel van de robot is dus om uiteindelijk bij te dragen aan de “human flourishing” (het menselijk welbevinden) door de autonomie van de zorgvrager te vergroten. Deze aanpak heet “capabilities approach”. De capabilities approach focust zich op vrijheid, in de vorm van individuele mogelijkheden, om dingen te doen waar de persoon waarde aan hecht. Er wordt een verschil gemaakt tussen “functioning” (daadwerkelijk een bepaalde taak uitvoeren) en “capabilities” (kansen/mogelijkheden om een taak uit te voeren). Bij de meeste onderzoeken wordt gefocust op functioning, omdat dat makkelijker te meten is. Dat neemt echter niet weg dat capabilties ook niet onbelangrijk is. Ook worden er twee typen zorg benoemd: oppervlakkige zorg en intensieve zorg. Met oppervlakkig wordt bedoeld dat de robot simpelweg taken gaat uitvoeren, terwijl bij intensieve zorg de robot ook een soort vriend wordt van de zorgvrager. Voor ons is het interessant om te kijken naar welke type zorg (of welke balans tussen deze twee typen zorg) het meeste de angst laat verminderen. De grote vraag is of de zorgrobots geaccepteerd zullen worden. Mensen kunnen zich snel verbonden voelen met niet-mensen (denk aan dieren, robotdieren, auto’s), wat ervoor zou kunnen zorgen dat de zorgrobots ook geaccepteerd worden. In de zorg is deze acceptatie echter vaak minder groot, uit angst voor afname van interactie met de medemens. Ook zal hij minder geaccepteerd worden als het helemaal ter vervanging is van een menselijke zorgverlener, i.p.v. als assistentie. Ook hangt de acceptatie af van de context, het uiterlijk van de robot en de kwetsbaarheid van de zorgvrager.
Al met al is het heel belangrijk om na te denken over de moraliteit achter de robottechnologie. Robottechnologie kan namelijk normen en waarden implementeren, het heeft invloed op de manier waarop users de wereld zien en hoe we erin handelen [4]. We hebben namelijk te maken met een “mediation of perception” waarin de technologie het beeld van users verandert. Dit gebeurt natuurlijk ook als er eenmaal zorgrobots in het leven geblazen worden. Men zal er dagelijks mee te maken hebben, en dus zal de interactie met die zorgrobots ervoor zorgen dat hun beeld op de realiteit anders word dan voordat ze met zorgrobots in contact kwamen. Ook hebben we een “mediation of action” waarin de technologie iets voorschrijft over hoe de user moet handelen met die technologie. Dit is uiteraard ook van toepassing, want een user is in die zin afhankelijk van de technologie achter de zorgrobot en past zich daarom ook aan op wat de zorgrobot kan en niet.
Tot slot willen we nog het type user vaststellen. Dit doen we door middel van wat we geleerd hebben uit de USE base course [4]. We hebben enerzijds te maken met users die gebruik willen maken van de zorgrobots, maar ook users die hier niet voor gekozen hebben, maar waarschijnlijk toch moeten, de zogenaamde users versus (resistant) non-users. De zorgrobots zijn natuurlijk bedoeld voor een bepaalde projected user, namelijk de zorgbehoevenden, maar eigenlijk zou iedereen er eentje kunnen aanschaffen en gebruiken, ongeacht leeftijd, geslacht of etniciteit. We hebben ook te maken met professionele users, die feedback geven op de engineers om hun product te verbeteren.
De users in het algemeen hebben dus invloed op de technologie en andersom. Door een ideale wisselwerking zouden we dus kunnen voorkomen dat er angst ontstaat voor de zorg robots.
'''ENTERPRISE'''
Er zijn ook verschillende types van bedrijven [4].
* Type 1: Bedrijven met slechts eigenbelang. Ethische normen worden slechts nageleefd met het oog op eigenbelang. Reputatie en winst als motief.
* Type 2: Bedrijven die niet afgaan op wat maatschappelijk wenselijk is.
* Type 2a: Bedrijven die handelen gebaseerd op de markt.
* Type 2b: Bedrijven die handelen gebaseerd op de wet.
* Type 3: Bedrijven die ruime verantwoordelijkheid hebben,  respect hebben voor de rechten en belangen van betrokkenen.
Omdat we met robottechnologie in de zorg te maken hebben, hebben we indirect te maken met mensen. Wij willen namelijk dat deze mensen in goede handen zijn met een zorgrobot. Daarom zou een bedrijf van type 3 perfect zijn voor de ontwikkeling van zorgrobots. Zo’n bedrijf zal ervoor gaan zorgen dat het product wat users aanschaffen, voldoet aan de verwachtingen die de users hebben. Een zorgrobot is namelijk een heel precair product voor de users. Daarom moet Enterprise er alles aan doen om dit zo goed mogelijk aan de users te presenteren. En daar helpt ons onderzoek bij. Wij willen uiteindelijk een aanbeveling kunnen doen over hoe Enterprise het beste hun product kan introduceren bij het publiek. We doen namelijk onderzoek naar verschil in interacties tussen mens en robot. In de ene interactie ontmoet de user het product direct, één op één. In de andere interactie ontmoet de user het product via een scherm, indirect dus. Voor een Enterprise is het filmpje een goedkopere oplossing dan elke user het product te laten testen. In het beste geval zou uit ons onderzoek komen dat er geen verschil in de houding is tegenover het product. Dit zou betekenen dat een filmpje over het product evengoed aanslaat als een real-life meeting met het product. Dan heeft het geen zin om extra kosten te maken op zo’n groot project. Met het onderzoek zouden we dus eventueel kosten kunnen besparen voor de Enterprise. Aan de andere kant kunnen we ook meer winst maken, door te concluderen dat ofwel het filmpje beter aanslaat dan de real-life meeting, ofwel andersom. Dan weet de Enterprise waar te investeren om uiteindelijk meer winst te maken. Dus voor de Enterprise is ons onderzoek een win-win situatie.
Verder is het voor een Enterprise belangrijk om verantwoordelijkheid toe te schrijven op alle gebieden waarover zij die hebben. Ook moeten ze kunnen verantwoorden waarom ze welke beslissing hebben gemaakt voor het product. Ze moeten klachten en andere gevallen vanuit de user opnemen in het systeem en die gebruiken om het product beter te maken. Ze moeten constant vernieuwen en innoveren om zo hun product elke keer te upgraden, en ondertussen rekening houden met kosten, milieu, klantvriendelijkheid, mensen rechten, werkomstandigheden en andere enterprise-gerelateerde zaken. Deze worden allemaal opgenomen in een document, genaamd CSR (Corporate Social Responsibility).
Wat risico’s betreft, moet een bedrijf natuurlijk met een aantal zaken rekening houden. Als bedrijf kun je namelijk te maken krijgen met een hazard [1]: wanneer men gebruikt maakt van een technologie, kan dit lijden tot schade of ongewilde effecten. Deze eigenschap bezit een zorgrobot sowieso, omdat sommige users afhankelijk zijn van deze robots. Als er wat mis gaat, dan heeft dit directe invloed op de user. Dus moeten we het risico bepalen. Dit is de waarschijnlijkheid van een ongewenste gebeurtenis die kan plaatsvinden. Je hebt natuurlijk verschillende soorten risico’s:
* '''Een acceptabel risico''': een risico dat moreel acceptabel is
* '''Een onacceptabel risico''': een risico dat moreel onacceptabel is en waar dus maatregelen voor genomen moeten worden.
* '''Een onzeker risico''': een risico die je niet voorziet omdat er een gebrek aan kennis is.
Wat een designer kan doen om zo goed mogelijk met risico’s om te gaan:
* Een robot zo ontwerpen, dat het gevaren vermijdt.
* Een factor meenemen in het ontwerp waarmee je het veiliger maakt  dan nodig is
* Een mechanisme ontwerpen die er voor zorgt dat de robot zichzelf uitschakelt als het mis gaat
* Een ontwerp met bepaalde veiligheidsgrenzen om specifieke risico’s te vermijden zonder het hele systeem uit te zetten.
Vervolgens moet er een “risk-assessment” gedaan worden. Dat is een systematisch onderzoek waarin de risico’s van een technologie van een activiteit in kaart worden gebracht en kwantitatief uitgedrukt in een zeker risico-maatregel. Deze bestaat uit vier stappen:
* Eerst start je de robot op en laat hem functioneren zonder mensen erbij. Dan wordt er geobserveerd of al in dit stadium wat mis gaat.
* Dan laat je de robot een interactie hebben met proefpersonen die bewust zijn dat ze een bepaald risico lopen (door middel van een consent form). Ook hier wordt er geobserveerd.
* De resultaten worden bekeken, en er wordt een overzicht gemaakt van overige risico’s op korte en lange termijn.
* Het risico wordt tot slot bepaald en er wordt nagegaan om dat risico acceptabel is of niet.
Deze risk-assessment heeft natuurlijk een bepaalde nauwkeurigheid en betrouwbaarheid. Daar moet altijd rekening mee gehouden worden. Maar toch is het goed voor een bedrijf om deze risk-assessment uit te voeren, omdat het zo kan werken aan de risico’s die eruit rollen en daarmee de angst verminderen bij de users.
Kortom: het is dus nuttig en rendabel om deze USE-aspecten te bekijken, voor zowel de USER als de ENTERPRISE. Met technologieën als deze, waarbij de toekomst zo onzeker is,  zouden discussies over deze aspecten nu al aan de orde moeten zijn. Helaas blijft de regelgeving achter en dit zorgt er onder andere voor dat de robottechnologie niet zo snel ontwikkeld word als dat het zou kunnen.
=Bronnen=
[1] Poel, I. van de, and Royakkers, L. Ethics, Technology, and Engineering: An Introduction. Malden, MA: Wiley-Blackwell, 2011.
[2] Robot caregivers: harbingers of expanded freedom for all?
Jason Borenstein • Yvette Pearson
[3] Granny and the robots: ethical issues in robot care for the elderly
[4] USE Base Course 0SAB0

Latest revision as of 19:17, 18 October 2014

Terug

Verslag Groep 4

USE aspecten

Het onderzoek dat wij gaan uitvoeren, is gebaseerd op een heleboel redenen. Deze redenen hebben allemaal te maken met de onderdelen van USE. Wij willen het bijvoorbeeld voor de user aantrekkelijker maken om robots te gebruiken door een juiste interactie te bedenken om de users en robots dichter bij elkaar te laten komen. Maar we willen ook bijvoorbeeld bedrijven iets kunnen aanraden over hoe zij het beste hun robotproduct kunnen brengen aan het publiek zonder dat zij er vanaf schrikken. Ook hebben wij met robottechniek veel te maken met wetten en regels, normen en waarden. Dit heeft invloed op beide user en enterprise. In de volgende twee hoofdsukken worden de wee aspecen onder de loep genomen.

USER

De users van het product zijn natuurlijk de end-users. Zij heten ook wel de consumenten. Zij beslissen of zij het product kopen of niet, gebruiken of niet, en of het bevalt of niet. In ons onderzoek gaan we ervanuit dat er angst voor robos heerst onder de end-users. We hebben gegronde redenen om te denken dat die angst er is, want we hebben research gedaan naar artikelen en studies die kunnen aantonen dat er op z’n minst een wantrouwen is naar robots. Omdat de technologie vrij nieuw is, hebben users nog niet de tijd kunnen nemen (of willen nemen) om erover na te denken. In ons geval waren het de proefpersonen die ineens geconfronteerd werden met stellingen over persoonlijke situaties waar ze eventueel later in zouden kunnen komen. De zorgrobot is namelijk nu heel erg in trek. Er zijn verschillende competities om te laten zien wat jij allemaal al kan met je zorgrobot. De ontwikkeling ervan wordt elke dag beter. Met deze argumenten zou je kunnen aannemen dat het heel realistisch is dat er over 20 á 30 jaar zorgrobots te vinden zijn in verzorgingstehuizen, en misschien over een paar jaar later in het houshouden van de user. Wij hebben de stellingen in de enquête zo gepersonaliseerd dat de proefpersonen vaak moeite hadden met het antwoord. Het feit dat de stellingen van de enquête misschien wel echt werkelijke situaties worden, kan misschien ook al angst oproepen. Er zijn verschillende perspectieven wat betreft die angst. Wij hebben het meest onderzoek gedaan naar de normen en waarden. Robots zouden bijvoorbeeld niet op kunnen tegen de normen en waarden die bepaalde users hanteren, die bepaalde users verwachten van robots. Als robots deze dus niet waar kunnen maken, mist er al een groot stuk vertrouwen en in het ergste geval vloeit daar angst uit. Dit heeft dus veel te maken met de deugden ethiek [1] achter robottechnologie. Deze ethiek stelt de deugden van de actor centraal. Men moet handelen met de goede karaktereigenschappen. Kan het zo zijn dat robots goed kunnen handelen volgens deugden die te maken hebben met de normen en waarden? Zijn ze ooit goed genoeg? Zodra robots kunnen beslissen om te handelen naar een deugd, kunnen ze er dan ook voor kiezen om te handelen naar een ondeugd? Zijn users bang voor de ethische keuzes die robots eventueel kunnen maken? Verdere perspectieven die we behandeld hebben zijn het uiterlijk van de robot, de taken die de robot mag uitvoeren, de toekomst van robots en of het aan de voorkennis ligt van mensen.

Maar we kunnen ook alles bekijken vanuit het utilisme [1], waarbij we centraal zetten dat door robots zoveel mogelijk geluk wordt gebracht aan zoveel mogelijk mensen. Daarbij maakt het niet uit hoe dat bewerkstelligt wordt. Uiteindelijk maakt het verder niet uit hoe zorgbehoevenden aan hulp komen, als ze er maar beter op worden in hun verdere leven. Hierbij wordt iets minder rekening gehouden met de normen, maar waarden als geluk, onafhankelijkheid, veiligheid, betrouwbaarheid, en tevredenheid worden wel gerealiseerd (uiteindelijk). Toch ligt dit voor robottechnologie heel gevoelig. Een robot zou in principe in alle opzichten kunnen helpen, maar de user kan van allerlei gevoelens koesteren waar hij niet omheen kan (zoals griezelig uiterlijk, de manier waarop de robot functioneert) . Ondanks dat de robot gewoon zijn taak doet, zal de user niet helemaal vertrouwd raken met de robot. Dit helpt niet om uiteindelijk het geluk te maximaliseren.

Als alle zorg robots worden geprogrammeerd met de kennis van alle wetten in het Nederlandse wetboek, dus robots ethisch laten handelen met uitgangspunt de beginsel ethiek [1], zouden er dan problemen kunnen optreden in de praktijk? Zorg robots zouden in principe dan niets kunnen doen dat in strijd is met de wet. Onze normen komen in grote strekking overeen met de wetten en regels. Maar als de user dagelijks met een zorgrobot te maken krijgen, wordt er een soort emotionele band ontwikkeld tussen de user en de robot. Robots mogen niet in conflict raken met die band, want dan zakt het vertrouwen in de robot weer bij de user. Als de user iets vraagt van de robot, wat hij eigenlijk niet mag doen, zal er irritatie ontstaan bij de user. Ook zijn robots die puur en alleen op de wetten zijn geprogrammeerd, en geen mogelijkheden hebben tot het hebben van een emotionele band, minder gebruiksvriendelijk dan een robot die zich perfect aanpast aan de wensen van de user.

We kunnen hieruit concluderen dat we vooral een normatieve ethiek willen hanteren wat betreft de robots. We willen de normen en waarden van de users zoveel mogelijk in tact houden en we willen dat zorgrobots deze normen en waarden respecteren en dat ze niet hier tegenin gaan. We willen hiermee bereiken dat de angst voor zorgrobots verminderd wordt. Nog steeds blijven er een paar aspecten onzeker. We weten nu natuurlijk niet hoe users precies zullen reageren op zorgrobots als deze permanent en dagelijks opereren in hun leven. Wel is hier al wat over te discussiëren. In het artikel [3] worden zes discussiepunten uitgelicht.

  • De mogelijkheid dat het contact van mensen verloren gaat. Dit is zeker het geval als zorgrobots het hele systeem van verzorgers gaat overnemen. In de meeste gevallen van zorgbehoevenden is dat zij oud en eenzaam zijn. Als de verzorger zo af en toe langskomt, is dat zeer prettig voor deze personen, want dan kunnen ze even een babbeltje maken. Aangezien dat wordt vervangen door een machine die misschien niet over alles kan praten (of users hebben totaal niet het gevoel dat ze tegen een gelijkwaardig persoon praten), is er zeker een gevaar dat bepaalde mensen helemaal geen contact meer gaan hebben met de buitenwereld. Het tegenargument is dan dat ouderen zelf moeten kiezen om meer sociaal te zijn, en dit kan juist realistischer worden door middel van robottechnologie. Met een persoonlijke zorgrobot die hen kan ondersteunen, kunnen ze juist meer onafhankelijker worden en dus vaker op pad gaan. Ook in dit geval zal angst plaatsmaken voor een blije emotie.
  • Objectivering: users voelen zich een object omdat er voor hun wordt beslist dat verzorgers worden vervangen door zorgrobots vanwege bijvoorbeeld de kosten. Ze hebben het gevoel dat ze nog minder controle hebben over hun leven dan toen ze werden verzorgd door verzorgers. Maar aan de andere kant hoeft dit niet zo te zijn. Want verzorgers zijn ook niet allemaal even gelijkwaardig. Verzorgers hebben ook wel eens een chagrijnige bui of houden zich niet aan de rechten van de mens. Daar heeft een zorg robot geen last van. Deze kan vooral de waardigheid van mensen in tact laten. In sommige gevallen zijn de users meer bang voor een verzorger dan voor een zorgrobot.
  • Privacy: een robot kan natuurlijk veel observeren, detecteren, en ook opslaan. Waar gaat deze informatie allemaal naar toe? Hoe groot is de kans dat het in de verkeerde handen valt? Privacy is een heel gevoelig onderwerp. Er direct aan gekoppeld is de waarde: verantwoordelijkheid. Wie kunnen we de schuld geven als er belangrijke en zeer persoonlijke informatie over mij uitlekt? Het voordeel van al die gegevens die een zorg robot kan opmeten is dat er veel sneller gedetecteerd kan worden wanneer er een arts nodig is. Zelfs verzorgers kunnen niet in een oogopslag opmerken wanneer hun waardes te laag worden, of wanneer er hartslag daalt. Ook kan een zorgrobot gevaarlijke situaties voorkomen en zo meer levens redden. De waarde veiligheid wordt dan vooral in tact gehouden. Dit zal ook angst kunnen reduceren bij de users.
  • Verlies van vrijheid. Dit heeft te maken met robots die enerzijds de users meer onafhankelijk maken van anderen, maar ook anderzijds robots die kunnen adviseren, of zelfs de user kan tegenhouden om bepaalde acties uit te voeren. Omdat ze juist zo alles nauwkeurig kunnen meten, willen ze gevaarlijke situaties voorkomen. Hierin kunnen ze de users tegenhouden om onverantwoordelijke dingen te doen. De user kan dit ervaren als enerzijds beperking in hun vrijheid, maar anderzijds ook als een groter gevoel van veiligheid. Er moet dus een balans worden gemaakt tussen het verbeteren van het leven van de user maar ook het beschermen van de user en beamen van de menselijke rechten. Als die balans optimaal is, dan zal de angst ook gauw minimaal worden.
  • Misleiding. De zorg robots die er nu zijn om de users van een kameraad te voorzien, zijn ontwikkeld om de users minder eenzaam te laten voelen. Maar sommigen geloven dat dit de users alleen maar misleidt. De zijn namelijk zo ontworpen dat ze een sterke emotionele band met ze kunnen ontwikkelen. Deze band echter is niet echt, omdat het uiteindelijk slechts machines zijn. Sterker nog, in artikel [3] wordt zelfs gehint naar het infantiliseren van users. Natuurlijk hoeft dit niet zo te zijn, want deze zorg robots kunnen er juist voor zorgen dat de users met anderen erover kunnen praten. Het is natuurlijk wel een heel interessant en leuk onderwerp om aan te snijden. Zo kunnen er meer mogelijkheden gecreëerd worden om sociale interacties aan te gaan. Dit leidt dan uiteindelijk ook tot angstvermindering.
  • De eventuele controle over robots. In hoeverre moeten we users controle geven over robots? Hoeveel controle zal ervoor zorgen dat de angst voor robots sterk verminderd? Mensen voelen zich prettig bij het idee van controle, dus ook controle over robots. Een uit-knop die in alle situaties werkt, lijkt een goede optie te zijn. Hierdoor kunnen users ten alle tijden de interactie met de robot stopzetten als die hun niet bevalt. Hierdoor zal de angst voor het feit dat robots hun eigen leven kunnen leiden, weggenomen worden.

In het artikel [2] wordt een bepaalde aanpak aangekaart, waarbij wordt gekeken naar het proces zelf, en dus niet naar het uiteindelijke geluk waar de zorgrobot voor zal zorgen. Het doel is om de zorgbehoevenden, de users, centrale menselijke mogelijkheden te geven. In het bijzonder wordt er gehoopt dat hiermee verzwakte mensen effectiever kunnen communiceren met hun fysieke en sociale omgeving. Het doel van de robot is dus om uiteindelijk bij te dragen aan de “human flourishing” (het menselijk welbevinden) door de autonomie van de zorgvrager te vergroten. Deze aanpak heet “capabilities approach”. De capabilities approach focust zich op vrijheid, in de vorm van individuele mogelijkheden, om dingen te doen waar de persoon waarde aan hecht. Er wordt een verschil gemaakt tussen “functioning” (daadwerkelijk een bepaalde taak uitvoeren) en “capabilities” (kansen/mogelijkheden om een taak uit te voeren). Bij de meeste onderzoeken wordt gefocust op functioning, omdat dat makkelijker te meten is. Dat neemt echter niet weg dat capabilties ook niet onbelangrijk is. Ook worden er twee typen zorg benoemd: oppervlakkige zorg en intensieve zorg. Met oppervlakkig wordt bedoeld dat de robot simpelweg taken gaat uitvoeren, terwijl bij intensieve zorg de robot ook een soort vriend wordt van de zorgvrager. Voor ons is het interessant om te kijken naar welke type zorg (of welke balans tussen deze twee typen zorg) het meeste de angst laat verminderen. De grote vraag is of de zorgrobots geaccepteerd zullen worden. Mensen kunnen zich snel verbonden voelen met niet-mensen (denk aan dieren, robotdieren, auto’s), wat ervoor zou kunnen zorgen dat de zorgrobots ook geaccepteerd worden. In de zorg is deze acceptatie echter vaak minder groot, uit angst voor afname van interactie met de medemens. Ook zal hij minder geaccepteerd worden als het helemaal ter vervanging is van een menselijke zorgverlener, i.p.v. als assistentie. Ook hangt de acceptatie af van de context, het uiterlijk van de robot en de kwetsbaarheid van de zorgvrager.

Al met al is het heel belangrijk om na te denken over de moraliteit achter de robottechnologie. Robottechnologie kan namelijk normen en waarden implementeren, het heeft invloed op de manier waarop users de wereld zien en hoe we erin handelen [4]. We hebben namelijk te maken met een “mediation of perception” waarin de technologie het beeld van users verandert. Dit gebeurt natuurlijk ook als er eenmaal zorgrobots in het leven geblazen worden. Men zal er dagelijks mee te maken hebben, en dus zal de interactie met die zorgrobots ervoor zorgen dat hun beeld op de realiteit anders word dan voordat ze met zorgrobots in contact kwamen. Ook hebben we een “mediation of action” waarin de technologie iets voorschrijft over hoe de user moet handelen met die technologie. Dit is uiteraard ook van toepassing, want een user is in die zin afhankelijk van de technologie achter de zorgrobot en past zich daarom ook aan op wat de zorgrobot kan en niet. Tot slot willen we nog het type user vaststellen. Dit doen we door middel van wat we geleerd hebben uit de USE base course [4]. We hebben enerzijds te maken met users die gebruik willen maken van de zorgrobots, maar ook users die hier niet voor gekozen hebben, maar waarschijnlijk toch moeten, de zogenaamde users versus (resistant) non-users. De zorgrobots zijn natuurlijk bedoeld voor een bepaalde projected user, namelijk de zorgbehoevenden, maar eigenlijk zou iedereen er eentje kunnen aanschaffen en gebruiken, ongeacht leeftijd, geslacht of etniciteit. We hebben ook te maken met professionele users, die feedback geven op de engineers om hun product te verbeteren.

De users in het algemeen hebben dus invloed op de technologie en andersom. Door een ideale wisselwerking zouden we dus kunnen voorkomen dat er angst ontstaat voor de zorg robots.

ENTERPRISE

Er zijn ook verschillende types van bedrijven [4].

  • Type 1: Bedrijven met slechts eigenbelang. Ethische normen worden slechts nageleefd met het oog op eigenbelang. Reputatie en winst als motief.
  • Type 2: Bedrijven die niet afgaan op wat maatschappelijk wenselijk is.
  • Type 2a: Bedrijven die handelen gebaseerd op de markt.
  • Type 2b: Bedrijven die handelen gebaseerd op de wet.
  • Type 3: Bedrijven die ruime verantwoordelijkheid hebben, respect hebben voor de rechten en belangen van betrokkenen.

Omdat we met robottechnologie in de zorg te maken hebben, hebben we indirect te maken met mensen. Wij willen namelijk dat deze mensen in goede handen zijn met een zorgrobot. Daarom zou een bedrijf van type 3 perfect zijn voor de ontwikkeling van zorgrobots. Zo’n bedrijf zal ervoor gaan zorgen dat het product wat users aanschaffen, voldoet aan de verwachtingen die de users hebben. Een zorgrobot is namelijk een heel precair product voor de users. Daarom moet Enterprise er alles aan doen om dit zo goed mogelijk aan de users te presenteren. En daar helpt ons onderzoek bij. Wij willen uiteindelijk een aanbeveling kunnen doen over hoe Enterprise het beste hun product kan introduceren bij het publiek. We doen namelijk onderzoek naar verschil in interacties tussen mens en robot. In de ene interactie ontmoet de user het product direct, één op één. In de andere interactie ontmoet de user het product via een scherm, indirect dus. Voor een Enterprise is het filmpje een goedkopere oplossing dan elke user het product te laten testen. In het beste geval zou uit ons onderzoek komen dat er geen verschil in de houding is tegenover het product. Dit zou betekenen dat een filmpje over het product evengoed aanslaat als een real-life meeting met het product. Dan heeft het geen zin om extra kosten te maken op zo’n groot project. Met het onderzoek zouden we dus eventueel kosten kunnen besparen voor de Enterprise. Aan de andere kant kunnen we ook meer winst maken, door te concluderen dat ofwel het filmpje beter aanslaat dan de real-life meeting, ofwel andersom. Dan weet de Enterprise waar te investeren om uiteindelijk meer winst te maken. Dus voor de Enterprise is ons onderzoek een win-win situatie. Verder is het voor een Enterprise belangrijk om verantwoordelijkheid toe te schrijven op alle gebieden waarover zij die hebben. Ook moeten ze kunnen verantwoorden waarom ze welke beslissing hebben gemaakt voor het product. Ze moeten klachten en andere gevallen vanuit de user opnemen in het systeem en die gebruiken om het product beter te maken. Ze moeten constant vernieuwen en innoveren om zo hun product elke keer te upgraden, en ondertussen rekening houden met kosten, milieu, klantvriendelijkheid, mensen rechten, werkomstandigheden en andere enterprise-gerelateerde zaken. Deze worden allemaal opgenomen in een document, genaamd CSR (Corporate Social Responsibility).

Wat risico’s betreft, moet een bedrijf natuurlijk met een aantal zaken rekening houden. Als bedrijf kun je namelijk te maken krijgen met een hazard [1]: wanneer men gebruikt maakt van een technologie, kan dit lijden tot schade of ongewilde effecten. Deze eigenschap bezit een zorgrobot sowieso, omdat sommige users afhankelijk zijn van deze robots. Als er wat mis gaat, dan heeft dit directe invloed op de user. Dus moeten we het risico bepalen. Dit is de waarschijnlijkheid van een ongewenste gebeurtenis die kan plaatsvinden. Je hebt natuurlijk verschillende soorten risico’s:

  • Een acceptabel risico: een risico dat moreel acceptabel is
  • Een onacceptabel risico: een risico dat moreel onacceptabel is en waar dus maatregelen voor genomen moeten worden.
  • Een onzeker risico: een risico die je niet voorziet omdat er een gebrek aan kennis is.

Wat een designer kan doen om zo goed mogelijk met risico’s om te gaan:

  • Een robot zo ontwerpen, dat het gevaren vermijdt.
  • Een factor meenemen in het ontwerp waarmee je het veiliger maakt dan nodig is
  • Een mechanisme ontwerpen die er voor zorgt dat de robot zichzelf uitschakelt als het mis gaat
  • Een ontwerp met bepaalde veiligheidsgrenzen om specifieke risico’s te vermijden zonder het hele systeem uit te zetten.

Vervolgens moet er een “risk-assessment” gedaan worden. Dat is een systematisch onderzoek waarin de risico’s van een technologie van een activiteit in kaart worden gebracht en kwantitatief uitgedrukt in een zeker risico-maatregel. Deze bestaat uit vier stappen:

  • Eerst start je de robot op en laat hem functioneren zonder mensen erbij. Dan wordt er geobserveerd of al in dit stadium wat mis gaat.
  • Dan laat je de robot een interactie hebben met proefpersonen die bewust zijn dat ze een bepaald risico lopen (door middel van een consent form). Ook hier wordt er geobserveerd.
  • De resultaten worden bekeken, en er wordt een overzicht gemaakt van overige risico’s op korte en lange termijn.
  • Het risico wordt tot slot bepaald en er wordt nagegaan om dat risico acceptabel is of niet.

Deze risk-assessment heeft natuurlijk een bepaalde nauwkeurigheid en betrouwbaarheid. Daar moet altijd rekening mee gehouden worden. Maar toch is het goed voor een bedrijf om deze risk-assessment uit te voeren, omdat het zo kan werken aan de risico’s die eruit rollen en daarmee de angst verminderen bij de users.

Kortom: het is dus nuttig en rendabel om deze USE-aspecten te bekijken, voor zowel de USER als de ENTERPRISE. Met technologieën als deze, waarbij de toekomst zo onzeker is, zouden discussies over deze aspecten nu al aan de orde moeten zijn. Helaas blijft de regelgeving achter en dit zorgt er onder andere voor dat de robottechnologie niet zo snel ontwikkeld word als dat het zou kunnen.

Bronnen

[1] Poel, I. van de, and Royakkers, L. Ethics, Technology, and Engineering: An Introduction. Malden, MA: Wiley-Blackwell, 2011.

[2] Robot caregivers: harbingers of expanded freedom for all? Jason Borenstein • Yvette Pearson

[3] Granny and the robots: ethical issues in robot care for the elderly

[4] USE Base Course 0SAB0