Hoe we ons voelen over robots die zich voelen

Naarmate robots slim genoeg worden om onze gevoelens te detecteren en gepast te reageren, kunnen ze zoiets als hun eigen emoties hebben. Maar dat maakt ze niet noodzakelijkerwijs meer op mensen.24 oktober 2017

Delcan & Company + Jenu



Octavia, een humanoïde robot die is ontworpen om branden op marineschepen te bestrijden, heeft een indrukwekkend scala aan gezichtsuitdrukkingen onder de knie.

Als ze uitgeschakeld is, ziet ze eruit als een pop van mensenmaat. Ze heeft een glad wit gezicht met een stompe neus. Haar plastic wenkbrauwen liggen gelijkmatig op haar voorhoofd als twee kleine gekapseisde kano's.





nieuw ruimtepakontwerp

De kwestie van kunstmatige intelligentie

Dit verhaal maakte deel uit van ons nummer van november 2017

  • Zie de rest van het nummer
  • Abonneren

Als ze echter aan is, vliegen haar oogleden open en begint ze emotie te tonen. Ze kan haar hoofd knikken in een gebaar van begrip; ze kan haar ogen wijd openzetten en haar beide wenkbrauwen optrekken in een overtuigende schijn van schrik; of ze kan haar hoofd opzij houden en haar mond verknoeien, waardoor menselijke verwarring wordt nagebootst. Als komisch effect kan ze zelfs één wenkbrauw optrekken en het andere oog samenknijpen terwijl ze haar metalen vingers tegen elkaar tikt, alsof ze wraakacties beraamt.

Maar Octavia's scala aan gezichtsuitdrukkingen is niet haar meest indrukwekkende eigenschap. Wat verbazingwekkend is, is dat haar emotionele affect een nauwkeurige reactie is op haar interacties met mensen. Ze kijkt bijvoorbeeld blij als ze een van haar teamgenoten herkent. Ze kijkt verbaasd als een teamgenoot haar een commando geeft dat ze niet had verwacht. Ze kijkt verward als iemand iets zegt dat ze niet verstaat.



Ze kan gepaste emotionele affectie tonen omdat ze enorme hoeveelheden informatie over haar omgeving verwerkt. Ze kan zien, horen en aanraken. Ze inventariseert haar omgeving met behulp van de twee camera's die in haar ogen zijn ingebouwd en analyseert kenmerken zoals gelaatstrekken, huidskleur en kleding. Ze kan de stemmen van mensen detecteren met behulp van vier microfoons en een spraakherkenningsprogramma genaamd Sphinx. Ze kan 25 verschillende objecten door aanraking identificeren, ze heeft ze geleerd door ze met haar vingers fysiek te manipuleren in verschillende mogelijke posities en vormen. Alles bij elkaar vormen deze perceptuele vaardigheden een onderdeel van haar belichaamde cognitieve architectuur, waardoor ze - volgens haar makers van het Navy Center for Applied Research in Artificial Intelligence - kan denken en handelen op een manier die vergelijkbaar is met mensen.

Dat is een opwindende bewering, maar het is niet per se schokkend. We zijn gewend aan het idee dat machines zich als mensen gedragen. Automaten die in het 18e-eeuwse Frankrijk werden gemaakt, konden dansen, de tijd bijhouden en de drums, het hakkebord of de piano bespelen. Als kind dat in de jaren tachtig opgroeide, begeerde ik om de een of andere reden een pop waarin werd geadverteerd dat ze in haar broek kon plassen.

De Octavia kan uitdrukkingen overbrengen, maar het blijkt dat gezichtsuitdrukkingen niet vereist zijn voor mensen om zich emotioneel gehecht te voelen aan hun robots. US Naval Research Laboratory

We zijn zelfs gewend aan het idee dat machines denken op een manier die ons aan mensen doet denken. Veel van onze lang gekoesterde high-water marks voor menselijke cognitie - het vermogen om een ​​grootmeester bij het schaken bijvoorbeeld te verslaan, of om een ​​metrisch nauwkeurig sonnet te componeren - zijn gehaald en overtroffen door computers.



Octavia's acties - de angstige verwijding van haar ogen, de verwarde rimpel van haar plastic wenkbrauwen - lijken echter een stap verder te gaan. Ze impliceren dat ze niet alleen denkt zoals wij denken, maar ook menselijke emoties voelt.

Dat is niet echt het geval: Octavia's emotionele affectie is volgens Gregory Trafton, die de afdeling Intelligent Systems leidt van het Navy AI-centrum, alleen bedoeld om het soort denken dat ze doet te demonstreren en het voor mensen gemakkelijker te maken om met haar om te gaan. Maar het is niet altijd mogelijk om een ​​scheidslijn te trekken tussen denken en voelen. Zoals Trafton erkent, is het duidelijk dat de gedachten en emoties van mensen verschillend zijn, maar elkaar beïnvloeden. En als, zoals hij zegt, emoties cognitie beïnvloeden en cognitie emoties beïnvloedt, wijst Octavia's vermogen om te denken, redeneren en waarnemen op enkele van de grotere vragen die gepaard gaan met de opkomst van intelligente machines. Wanneer zullen machines slim genoeg zijn om iets te voelen? En hoe zouden we dat echt weten?

Gepersonaliseerde gevoelens

Octavia is geprogrammeerd met theory of mind, wat betekent dat ze kan anticiperen op de mentale toestanden van haar menselijke teamgenoten. Ze begrijpt dat mensen mogelijk tegenstrijdige overtuigingen of bedoelingen hebben. Wanneer Octavia een commando krijgt dat afwijkt van haar verwachtingen, voert ze simulaties uit om vast te stellen wat de teamgenoot die het commando heeft gegeven denkt en waarom die persoon denkt dat dit onverwachte doel geldig is. Ze doet dit door haar eigen modellen van de wereld door te nemen, maar ze enigszins aan te passen, in de hoop er een te vinden die naar het gestelde doel leidt. Wanneer ze haar hoofd naar één kant kantelt en haar wenkbrauwen fronst, is dit om aan te geven dat ze deze simulaties uitvoert, in een poging de overtuigingen van haar teamgenoot beter te begrijpen.

We weten nog steeds niet alles wat te maken heeft met het voelen van emoties.

Octavia is niet geprogrammeerd met emotionele modellen. Haar theory of mind is een cognitief patroon. Maar het werkt net als empathie, de meest gekoesterde van alle menselijke emoties.

Andere robotfabrikanten gaan voorbij aan de kwestie van de emotionele intelligentie van hun machines. SoftBank Robotics, bijvoorbeeld, dat Pepper verkoopt - een prettige en sympathieke humanoïde robot die is gebouwd om als een menselijke metgezel te dienen - beweert dat Pepper menselijke emoties kan waarnemen, eraan toevoegend dat Pepper graag met je omgaat, dat Pepper meer wil weten over je smaak, uw gewoonten, en gewoon wie u bent. Maar hoewel Pepper het vermogen heeft om menselijke emoties te herkennen, en hoewel Pepper in staat is te reageren met een blije glimlach of uitdrukking van verdriet, beweert niemand dat Pepper voelt eigenlijk zulke emoties.

Wat zou er nodig zijn voor een robot-maker om dat te beweren? Om te beginnen weten we nog steeds niet alles wat te maken heeft met het voelen van emoties.

Dingen beoordeeld

  • Cultuur en interactie tussen mens en robot in gemilitariseerde ruimtes: een oorlogsverhaal

    Door Julie Carpenter
    Routledge, 2016

  • Hoe emoties worden gemaakt: het geheime leven van de hersenen

    Door Lisa Feldman Barrett
    Houghton Mifflin Harcourt, 2017

  • De strategie voor robot- en autonome systemen van het Amerikaanse leger

    maart 2017

In de afgelopen jaren hebben revoluties in de psychologie en neurowetenschappen het concept van emotie radicaal opnieuw gedefinieerd, waardoor het nog moeilijker wordt om vast te pinnen en te beschrijven. Volgens wetenschappers zoals de psycholoog Lisa Feldman Barrett, een professor aan de Northeastern University, wordt het steeds duidelijker dat onze emoties sterk variëren, afhankelijk van de cultuur waarin we zijn opgegroeid. Ze variëren zelfs sterk binnen een persoon in verschillende situaties. In feite, hoewel we de algemene gevoelens delen die deel uitmaken van wat bekend staat als affect (plezier, ongenoegen, opwinding en kalmte) met de meeste andere mensen en vele andere dieren, variëren onze meer acute en specifieke emoties meer dan dat ze bepaalde normen volgen. Angst is bijvoorbeeld een cultureel overeengekomen concept, maar het speelt zich op talloze manieren af ​​in ons lichaam. Het is geïnspireerd door verschillende stimuli, het manifesteert zich anders in onze hersenen en het wordt op verschillende manieren uitgedrukt op onze gezichten. Er is geen enkel angstcentrum of angstcircuit in de hersenen, net zoals er geen betrouwbare angstige gezichtsuitdrukking is: we verwerken en tonen allemaal onze angst op radicaal verschillende manieren, afhankelijk van de situatie - manieren waarop we, door interacties met andere mensen, leren om identificeren of labelen als angst.

Als we het over angst hebben, dan hebben we het over een algemeen overkoepelend concept in plaats van iets dat uit een specifiek deel van de hersenen komt. Zoals Barrett het stelt, construeren we ter plekke emoties door een samenspel van lichamelijke systemen. Dus hoe kunnen we van programmeurs verwachten dat ze menselijke emoties in robots nauwkeurig modelleren?

goede soldaten

Er zijn ook morele dilemma's rond het programmeren van robots om emoties te hebben. Deze problemen worden vooral goed gedemonstreerd door militaire robots die, net als Octavia, zijn ontworpen om in angstaanjagende, pijnlijke of potentieel dodelijke situaties te worden gestuurd in plaats van minder noodzakelijke menselijke teamgenoten.

Op een conferentie in 2017, gesponsord door het enigszins alarmerend getitelde Mad Scientist Initiative van het leger, specificeerde luitenant-generaal Kevin Mangum, de plaatsvervangend commandant voor Army Training en Doctrine Command, dat dergelijke robots autonoom zouden moeten en zullen zijn. Als we naar onze steeds complexere wereld kijken, lijdt het geen twijfel dat robotica, autonome systemen en kunstmatige intelligentie een rol zullen spelen, zei Mangum. De strategie voor robot- en autonome systemen van het leger 2017 voorspelt volledige integratie van autonome systemen tegen 2040, ter vervanging van de huidige bomopruimingsrobots en andere machines die op afstand door mensen worden bediend.

Een civiele trainer laat parachutisten zien hoe ze het display voor een PackBot-slagveldrobot moeten opzetten. Hoe onuitsprekelijk deze robots ook lijken, soldaten in het veld ontwikkelen een band met hen en beschouwen ze als onderdeel van het team. Michael J. McLeodo

Als deze robots zelfstandig kunnen handelen en denken, moeten ze dan, net als Octavia, worden geprogrammeerd met de schijn van menselijke emotie? Moeten ze worden geprogrammeerd om daadwerkelijk? hebben menselijke emotie? Als we ze de strijd in sturen, moeten ze dan niet alleen denken, maar ook meevoelen met hun menselijke metgezellen?

Aan de ene kant natuurlijk niet: als we robots ontwerpen met het uitdrukkelijke doel om ze aan gevaar bloot te stellen, zou het sadistisch zijn om ze het vermogen te geven om terreur, trauma of pijn te lijden.

Aan de andere kant, als emotie intelligentie beïnvloedt en vice versa, kunnen we er dan zeker van zijn dat een robot zonder emotie een goede soldaat zou zijn? Wat als het gebrek aan emotie leidt tot domme beslissingen, onnodige risico's of overdreven wrede vergelding? Zou een robot zonder emotie kunnen besluiten dat de intelligente beslissing zou zijn om te plegen wat een menselijke soldaat zou voelen als een oorlogsmisdaad? Of zou een robot zonder toegang tot angst of woede betere beslissingen nemen dan een mens in dezelfde angstaanjagende en gekmakende situatie?

En dan is er de mogelijkheid dat als emotie en intelligentie onlosmakelijk met elkaar verbonden zijn, er niet zoiets bestaat als een intelligente robot zonder emotie, in welk geval de vraag hoeveel emotie een autonome robot zou moeten hebben, in sommige opzichten oncontroleerbaar is van de programmeur die zich bezighoudt met intelligentie.

wat gebeurt er als Rusland de verkiezingen hackt?

emotionele gehechtheid

Er is ook de vraag hoe deze robots hun menselijke teamgenoten kunnen beïnvloeden.

Tegen 2010 was het Amerikaanse leger begonnen met het inzetten van een vloot van ongeveer 3.000 kleine tactische robots, grotendeels als reactie op het toenemende gebruik van geïmproviseerde explosieven in oorlogsvoering. In plaats van menselijke soldaten rollen deze robots onbeschermde wegen af, donkere grotten in en door smalle deuropeningen om onvoorspelbare IED's te detecteren en uit te schakelen.

Soldaten hebben gemeld zich radeloos te voelen wanneer zulke metgezellen op het slagveld als de Talon, hier getoond, worden vernietigd tijdens hun werk. Qinetiq

Deze vloot bestaat voornamelijk uit iRobot's PackBot en QinetiQ North America's Talon, robots die niet bijzonder geavanceerd zijn. Ze lijken een beetje op WALL-E, hun boxy metalen lichamen gebalanceerd op rubberen treden waarmee ze een behoorlijk goed werk kunnen doen bij het oversteken van rotsachtig terrein, het beklimmen van trappen en het vinden van hun weg door schemerige gangen. Ze hebben scharnierende armen uitgerust met videocamera's om hun omgeving te overzien, en klauwen om aan explosieven te sleutelen.

Het zijn handige tools, maar ze zijn niet bepaald autonoom. Ze worden op afstand bediend, zoals speelgoedauto's, door soldaten die apparaten vasthouden die soms zijn uitgerust met joysticks. Als voorbeeld van AI is de PackBot niet zo veel geavanceerder dan het bekendere product van iRobot, de Roomba die onder je fauteuil stofzuigt.

En toch, zelfs nu, ondanks het niet-expressieve karakter van deze robots, ontwikkelen menselijke soldaten een band met hen. Julie Carpenter demonstreert in Cultuur en interactie tussen mens en robot in gemilitariseerde ruimtes dat deze relaties gecompliceerd zijn, zowel lonend als pijnlijk.

Toen Carpenter een militair vroeg om zijn gevoelens over een vernietigde robot te beschrijven, antwoordde hij:

Ik bedoel, het was niet duidelijk … ergens in de buurt van hetzelfde niveau als, zoals, je weet wel, een vriend van je die gewond raakte of zag dat een lid werd uitgeschakeld of iets dergelijks. Maar er was nog steeds een zeker verlies, een gevoel van verlies omdat er iets met een van je robots gebeurde.

Een andere militair vergeleek zijn robot met een hond:

Ik bedoel, je zorgde net zo goed voor dat ding als voor je teamleden. En je zorgde ervoor dat het werd opgeruimd, en zorgde ervoor dat de batterijen altijd opgeladen waren. En als je hem niet gebruikte, was hij zo goed mogelijk veilig weggestopt, want je wist dat als er iets met de robot zou gebeuren, het jouw beurt was, en niemand denkt dat graag.

Weer een andere man legde uit waarom zijn teamgenoot hun robot een menselijke naam gaf:

Tegen het einde van onze tour brachten we meer tijd buiten de draad door met slapen in onze vrachtwagens dan dat we binnen waren. We sliepen ruim vijf tot zes dagen van de week in onze vrachtwagens buiten de draad, en het waren drie mannen in de vrachtwagen, weet je, één lag op de voorstoelen; de andere ligt over het torentje. En we kunnen geen gevoelige items downloaden en buiten de vrachtwagen laten staan. Alles moet worden afgesloten, dus onze TALON stond in het middenpad van onze truck en onze junior-man noemde hem Danielle, zodat hij 's nachts een vrouw had om mee te knuffelen.

‘Mijn mooie robot is vermoord…’ was eigenlijk de uitspraak die ik tegen mijn teamleider deed.

Deze mannen benadrukken allemaal dat de robots gereedschappen zijn, geen levende wezens met gevoelens. Toch geven ze hun robots menselijke namen en stoppen ze 's nachts veilig in. Ze maken grappen over die impuls, maar er zit een enigszins verontrustende dissonantie in de grappen. De geïnterviewde militairen Carpenter lijken enigszins vast te zitten tussen twee gevoelens: ze begrijpen de absurditeit van de zorg voor een emotieloze robot die is ontworpen om vervangbaar te zijn, maar ze ervaren niettemin de verleiding om te geven, in ieder geval een beetje.

Nadat Carpenter haar eerste interviews had gepubliceerd, ontving ze meer communicatie van mannen en vrouwen in het leger die een echte band met hun robots hadden ontwikkeld. Een voormalige explosievenopruimingstechnicus schreef:

Omdat ik een EOD-technicus ben van acht jaar en drie implementaties, kan ik je vertellen dat ik je onderzoek buitengewoon interessant vond. Ik kan het volledig eens zijn met de andere technici die je hebt geïnterviewd door te zeggen dat de robots gereedschappen zijn en als zodanig zal ik ze in elke situatie sturen, ongeacht het mogelijke gevaar.

Tijdens een missie in Irak in 2006 verloor ik echter een robot die ik Stacy 4 had genoemd (naar mijn vrouw die ook een EOD-techneut is). Ze was een uitstekende robot die me nooit problemen gaf en altijd perfect presteerde. Stacy 4 werd volledig verwoest en ik kon slechts zeer kleine stukjes van het chassis herstellen. Onmiddellijk na de explosie die Stacy 4 vernietigde, kan ik me nog steeds het gevoel van woede herinneren, en veel ervan. Mijn mooie robot is vermoord … was eigenlijk de verklaring die ik aan mijn teamleider deed. Nadat de missie was voltooid en ik zoveel mogelijk van de robot had hersteld, huilde ik om het verlies van haar. Het voelde alsof ik een dierbaar familielid had verloren. Ik belde die avond mijn vrouw en vertelde het haar ook. Ik weet dat het stom klinkt, maar ik heb er nog steeds een hekel aan om erover na te denken. Ik weet dat de robots die we gebruiken gewoon machines zijn en ik zou dezelfde beslissingen opnieuw nemen, zelfs als ik de uitkomst weet.

Ik waardeer het menselijk leven. Ik waardeer de relaties die ik heb met echte mensen. Maar ik kan je vertellen dat ik Stacy 4 zeker mis, ze was een goede robot.

Als dit het soort getuigenissen is dat kan worden verzameld van soldaten die interactie hebben met gezichtsloze machines zoals PackBots en Talons, wat zou je dan horen van soldaten die worden ingezet met robots zoals Octavia, die zien, horen en aanraken en kunnen anticiperen op de gemoedstoestanden van haar menselijke teamgenoten ?

In populaire gesprekken over de ethiek van het geven van gevoelens aan robots, hebben we de neiging om ons te concentreren op de effecten van dergelijke technologische innovatie op de robots zelf. Films en tv-programma's van Blade Runner naar Westworld aandacht besteden aan het trauma dat zou worden toegebracht aan het voelen van robots door mensen die ze voor hun vermaak gebruiken. Maar er is ook het omgekeerde om te overwegen: het trauma dat wordt toegebracht aan de mensen die zich hechten aan robots en ze vervolgens naar een zekere dood sturen.

hoe lang duurt social distancing
Verwant verhaal Een opkomende trend in kunstmatige intelligentie is om computers te laten detecteren hoe we ons voelen en dienovereenkomstig te reageren. Ze kunnen ons zelfs helpen meer compassie voor elkaar te ontwikkelen.

Wat dit alles nog ingewikkelder maakt, is dat als een robot als Octavia menselijke emoties gaat voelen, die gevoelens niet alleen het resultaat zullen zijn van de cognitieve architectuur die ze heeft gekregen om mee te beginnen. Als ze op onze emoties lijken, zullen ze evolueren in de context van haar relaties met haar teamgenoten, haar plaats in de wereld die ze bewoont.

Als haar unieke robotleven bijvoorbeeld wordt besteed aan het in brand vliegen van haar menselijke metgezellen, of alleen wegrennen over woestijnwegen vol met explosieven, zullen haar emoties anders zijn dan die ervaren door een meer beschutte robot, of een meer beschutte robot. menselijk. Ongeacht de herkenbare emotionele uitingen die ze maakt, als ze haar leven doorbrengt in onmenselijke situaties, zijn haar emoties misschien niet herkenbaar menselijk.

Louisa Hall, een schrijfster in New York, is de auteur van: Spreken , een roman uit 2015 over kunstmatige intelligentie.

zich verstoppen

Werkelijke Technologieën

Categorie

Geen Categorie

Technologie

Biotechnologie

Technisch Beleid

Klimaatverandering

Mensen En Technologie

Siliconen Vallei

Computergebruik

Mit Nieuws Tijdschrift

Kunstmatige Intelligentie

Ruimte

Slimme Steden

Blockchain

Toekomst Verhaal

Alumni Profiel

Alumni Aansluiting

Mit Nieuws-Functie

1865

Mijn Uitzicht

Massaweg 77

Ontmoet De Auteur

Profielen In Vrijgevigheid

Gezien Op De Campus

Alumnibrieven

Nieuws

Verkiezingen 2020

Met Index

Onder De Koepel

Brandslang

Oneindige Verhalen

Pandemisch Technologieproject

Van De President

Coververhaal

Fotogallerij

Aanbevolen