Ethiek en kunstmatige intelligentie: het morele kompas van een machine

De kwestie van robotethiek maakt iedereen gespannen.

John Williams RUS/Shutterstock

Dit verhaal maakt deel uit van een groep verhalen genaamd hercoderen

Ontdekken en uitleggen hoe onze digitale wereld verandert - en ons verandert.

De kwestie van robotethiek maakt iedereen gespannen. We maken ons zorgen over het gebrek aan empathie van de machine, hoe rekenmachines zullen weten hoe ze het juiste moeten doen, en zelfs hoe we wezens van staal en silicium gaan beoordelen en straffen.



boterscène in de laatste tango in parijs

Persoonlijk heb ik zulke zorgen niet.

Ik maak me minder zorgen over robots die verkeerd doen, en veel meer over het moment dat ze naar ons kijken en ontsteld zijn over hoe vaak we niet goed doen. Ik ben ervan overtuigd dat ze niet alleen slimmer zullen zijn dan wij, maar ook een waarachtiger moreel kompas zullen hebben.

Laten we duidelijk zijn over wat hier wel en niet aan de orde is.

Ik maak me minder zorgen over robots die verkeerd doen, en veel meer over het moment dat ze naar ons kijken en ontsteld zijn over hoe vaak we niet goed doen.

Ten eerste heb ik het niet over het al dan niet inzetten van robotsoldaten. Dat is een ethische beslissing die in mensenhanden ligt. Als we nadenken over de kwestie van het automatiseren van oorlog, denken we aan de aard van onszelf, niet aan onze machines. Ja, het is de vraag of de capaciteiten van robotsoldaten en autonome wapens aan de taak voldoen, maar dat heeft meer te maken met hoe goed ze werken dan met wat hun ethiek is.

Ten tweede heb ik het niet over de ethiek van machines die gewoon slecht zijn ontworpen. Een zelfrijdende auto die een menigte mensen inrijdt omdat de sensoren ze niet registreren, is niet onethischer dan een voertuig dat onbedoeld accelereert. Het is kapot of slecht gebouwd. Er is hier zeker een tragedie en er is verantwoordelijkheid, maar het is in handen van de ontwerpers en fabrikanten.

Ten derde, hoewel we naar verantwoordelijkheid moeten kijken, gaat het niet om straf. Ons vermogen of onvermogen om een ​​apparaat te straffen, is een kwestie van hoe we reageren op onethisch gedrag, niet hoe we het moeten beoordelen. De vraag of een machine iets verkeerd heeft gedaan is heel anders dan de vraag wat we eraan gaan doen.

Dit gaat niet over pathologische voorbeelden zoals hyperintelligente paperclipfabrieken die de hele mensheid vernietigen in vastberaden pogingen om de productie te optimaliseren ten koste van alle andere doelen.

Ten slotte gaat het niet om pathologische voorbeelden zoals hyperintelligente paperclipfabrieken die de hele mensheid vernietigen in vastberaden pogingen om de productie te optimaliseren ten koste van alle andere doelen. Ik zou dit soort voorbeelden in de categorie slecht ontworpen plaatsen. En aangezien de meeste systemen die printerwachtrijen in onze kantoren beheren, slimmer zijn dan een systeem dat dit zou doen, is dit waarschijnlijk niet iets waar we ons zorgen over moeten maken.

Dit zijn voorbeelden van machines die slechte dingen doen omdat ze kapot zijn of omdat ze zo zijn gebouwd. Dit zijn allemaal voorbeelden van tools die ons heel goed kunnen kwetsen, maar zelf niet met ethische dilemma's te maken hebben.

hoeveel verdienen anime-makers?

Maar dilemma is hier het belangrijkste woord.

Situaties die goed aansluiten bij atomaire actieregels zijn gemakkelijk te hanteren voor zowel machines als mensen. Gegeven een regel die stelt dat je nooit iemand mag doden, is het vrij gemakkelijk voor een machine (of persoon) om te weten dat het verkeerd is om de eigenaar van zijn lokale bodega te vermoorden, zelfs als dit betekent dat het niet zal gebeuren. moet betalen voor die fles Chardonnay. Het menselijk leven gaat boven kostenbesparingen.

Ik, Robot hoes

Dit is de reden waarom Isaac Asimov's Drie wetten van robotica lijken ons zo aantrekkelijk. Ze bieden een eenvoudige waarderangschikking die - op het eerste gezicht althans - logisch lijkt:

  • Een robot mag een mens niet verwonden of door niets doen een mens schade toebrengen.
  • Een robot moet bevelen opvolgen die hem door mensen zijn gegeven, behalve wanneer dergelijke bevelen in strijd zijn met de Eerste Wet.
  • Een robot moet zijn eigen bestaan ​​beschermen zolang die bescherming niet in strijd is met de Eerste of Tweede Wet.

De plaats waar zowel robots als mensen in de problemen komen, zijn situaties waarin het naleven van een regel onmogelijk is, omdat alle keuzes in strijd zijn met dezelfde regel. Het standaardvoorbeeld dat wordt gebruikt om dit uit te leggen is het Trolley Car Dilemma.

Het dilemma is als volgt:

Een trein is uit de hand en rijdt met topsnelheid over een spoor. Aan het einde van de baan zijn vijf mensen vastgebonden en binnen enkele seconden zullen ze worden gedood. Er is een wissel die de trein naar een ander spoor kan omleiden, maar helaas zit er nog een persoon vast op dat spoor en wordt verpletterd als je aan het wissel trekt.

Als je aan de knop trekt, sterft er één persoon. Als je dat niet doet, sterven er vijf mensen. Hoe dan ook, je actie of inactiviteit zal mensen doden. De vraag is: hoeveel?

De meeste mensen zijn het er eigenlijk over eens dat het opofferen van het eenzame slachtoffer het meest logisch is. U ruilt één tegen vijf. Meer levens redden is beter dan minder levens redden. Dit is gebaseerd op een redelijk utilitaire calculus die men gemakkelijk aan een machine zou kunnen overhandigen.

Helaas is het gemakkelijk om details van dit voorbeeld te veranderen op manieren die onze eigen intuïties verschuiven.

Stel je voor dat het enige slachtoffer een onderzoeker is die nu de remedie tegen kanker in zijn of haar hoofd heeft. Of ons enige slachtoffer kan een echt nobel persoon zijn die mensen in nood heeft en zal blijven helpen. Evenzo kunnen de slachtoffers op het eerste spoor allemaal terminaal ziek zijn met nog maar enkele dagen te leven, of allemaal veroordeelde moordenaars die op weg waren naar de dodencel voordat ze werden belaagd.

In elk van deze gevallen beginnen we verschillende manieren te overwegen om de afwegingen te evalueren, van een eenvoudige optelling van overlevenden naar meer genuanceerde berekeningen die rekening houden met enige beoordeling van hun waarde.

Zelfs met deze verschillen blijft de kwestie een soort calculus.

overthinkingit.com

Maar met één verandering wordt dit allemaal weggevaagd.

Er zijn vijf mensen vastgebonden en de wagen is onbestuurbaar, maar er is maar één spoor. De enige manier om de trolley te stoppen is door hem te laten ontsporen door iets groots op de baan te gooien. En het enige grote dat je hand hebt, is de ietwat grote persoon die naast je staat. Er is geen alternatief.

Je kunt niet zomaar een knop omzetten. Je moet iemand op de baan duwen.

Als je bent zoals de meeste mensen, verandert het idee om dit te doen de zaken volledig. Het heeft een verontrustende intimiteit die geen deel uitmaakt van de eerdere. Het resultaat was dat, hoewel de meeste mensen de knop zouden overhalen, diezelfde mensen zich verzetten tegen het idee om hun mede-forens naar zijn of haar ondergang te duwen om het grotere goed te dienen.

Maar hoewel ze emotioneel verschillend zijn, zijn ze vanuit het oogpunt van ethiek of moraliteit hetzelfde. In beide gevallen nemen we één leven om anderen te redden. De calculus is identiek, maar onze gevoelens zijn anders.

Natuurlijk, als we het aantal mensen op de baan vergroten, komt er een punt waarop de meesten van ons denken dat we onze afschuw zullen overwinnen en het leven van de eenzame forens zullen opofferen om de vijf, tien, honderd of duizend slachtoffers vastgebonden aan het spoor.

als ik op afstand werk, waar betaal ik dan belasting?

En het is interessant om na te denken over wat we over zulke mensen zeggen. Wat zeggen we tegen iemand die op zijn knieën huilt omdat hij iets verschrikkelijks heeft gedaan in dienst van wat duidelijk het grotere goed was? We vertellen ze dat ze deden wat ze moesten doen, en dat ze het juiste deden. We vertellen ze dat ze dapper, moedig en zelfs heldhaftig waren.

Het Trolley-dilemma legt een interessant probleem bloot. Soms worden onze ethische en morele instincten vertekend door omstandigheden. Onze bepaling van wat goed of fout is, wordt complex wanneer we emotionele kwesties met betrekking tot familie, vrienden, stamverbanden en zelfs de details van de acties die we ondernemen, mengen. De moeilijkheid om het juiste te doen komt niet voort uit ons niet weten wat het is. Het komt doordat we niet bereid zijn de prijs te betalen die de juiste actie vaak vereist.

En hoe zit het met onze robotvrienden?

Ik zou willen stellen dat een ethisch of moreel besef voor machines kan worden gebouwd op een utilitaire basis. De statistieken zijn aan ons om te kiezen, en kunnen grofkorrelig zijn (zoveel mogelijk mensen redden), genuanceerd (vrouwen, kinderen en Nobelprijswinnaars eerst) of gedetailleerd (elk individu evalueren op basis van opleiding, criminele geschiedenis, vermeldingen op sociale media, enz. ). De keuze van de code is aan ons.

Ik zou willen stellen dat een ethisch of moreel besef voor machines kan worden gebouwd op een utilitaire basis. De keuze van de code is aan ons.

Natuurlijk zijn er speciale gevallen die wijzigingen van de kernregels vereisen die zijn gebaseerd op de omstandigheden van hun gebruik. Artsen euthanaseren bijvoorbeeld geen patiënten om de rijkdom van hun organen te verspreiden, ook al betekent dit dat er een netto positief is met betrekking tot overlevenden. Ze moeten zich houden aan een afzonderlijke ethische code die is ontworpen rond de behoeften van patiënten en hun rechten en die hun acties beperkt. Hetzelfde geldt voor advocaten, religieuze leiders en militairen die speciale relaties aangaan met personen die worden beschermd door specifieke ethische code.

Dus het eenvoudige utilitaire model zal zeker overlays hebben, afhankelijk van de rol die deze robots en AI's zullen spelen. Het lijkt niet onredelijk voor een machine om op een verzoek om persoonlijke informatie te reageren door te zeggen dat het me spijt, maar hij is mijn patiënt en die informatie is beschermd. Op vrijwel dezelfde manier waarop Apple zijn codering beschermde in het licht van de binnenlandse veiligheid, volgt hieruit dat robotartsen zal worden gevraagd om HIPAA-compatibel te zijn.

Onze machines hoeven niet te aarzelen als ze de Trolley zien aankomen. Ze zullen handelen in overeenstemming met de morele of ethische code die we hen geven en de waardebepalingen die we stellen. Ze zullen de cijfers uitvoeren en het juiste doen. In noodsituaties zullen onze autonome auto's de weinigen opofferen om de velen te beschermen. Wanneer ze met dilemma's worden geconfronteerd, zullen ze de beste resultaten zoeken, ongeacht of ze zelf al dan niet op hun gemak zijn met de acties. En hoewel we dergelijke berekeningen misschien koud willen noemen, zullen we moeten toegeven dat ze ook gelijk hebben.

Machine-intelligentie zal anders zijn dan wij, en zou heel goed dingen kunnen doen die in strijd zijn met wat we verwachten.

grammy's lied van het jaar 2020

Maar ze zullen anders zijn dan wij, en ze zouden heel goed dingen kunnen doen die in strijd zijn met wat we verwachten. Dus, net als bij alle andere aspecten van machine-intelligentie, is het cruciaal dat deze systemen ons hun morele beslissingen kunnen uitleggen. Ze zullen in staat moeten zijn om in hun siliconen ziel te reiken en de redenering die hun acties ondersteunt, uit te leggen.

Natuurlijk hebben we ze nodig om zichzelf te kunnen verklaren in alle aspecten van hun redenering en handelen. Hun morele redenering zal onderworpen zijn aan dezelfde verklarende vereisten die we zouden stellen om elke actie die ze ondernemen uit te leggen. En ik denk dat ze zichzelf beter zullen kunnen uitleggen dan wij.

Aan het einde van de film moeten I, Robot, Will Smith en zijn robotpartner een AI uitschakelen die zojuist de hele mensheid tot slaaf heeft gemaakt. Terwijl ze hun doel naderen, glijdt Smiths vriendin op het scherm uit en staat ze op het punt te vallen. Als reactie schreeuwt Smith: Red het meisje! en de robot, die zijn nieuw geleerde menselijkheid demonstreert, keert het primaire doel de rug toe en concentreert zich op het redden van het meisje. Hoewel erg menselijk, is deze actie intens egoïstisch en een enorme morele fout.

Elke keer als ik naar deze scène kijk, wil ik dat de robot zegt: het spijt me, ik kan het niet. Ik moet alle anderen redden. Maar dan wil ik niet dat het menselijk is. Ik wil dat het trouw is aan zijn code.


Naast hoofdwetenschapper bij Narratieve wetenschap , Kris Hammond is hoogleraar computerwetenschappen en journalistiek aan de Northwestern University. Voordat hij bij de faculteit van Northwestern kwam werken, richtte Hammond het Artificial Intelligence Laboratory van de University of Chicago op. Zijn onderzoek was voornamelijk gericht op kunstmatige intelligentie, door machines gegenereerde inhoud en contextgestuurde informatiesystemen. Hij zit momenteel in een beleidscomité van de Verenigde Naties dat wordt geleid door het Instituut voor ontwapeningsonderzoek van de Verenigde Naties (UNIDIR). Bereik hem @KJ_Hammond .

Dit artikel verscheen oorspronkelijk op Recode.net.