Ik heb een weekend doorgebracht bij Google om met nerds over liefdadigheid te praten. Ik kwam weg... bezorgd.

Een bord met een routebeschrijving bij Google

Een bord met aanwijzingen op Google's Quad Campus tijdens EA Global.

Anna Riedl

'Er is één ding dat ik gemeen heb met iedereen in deze kamer. We doen allemaal heel hard ons best om erachter te komen hoe we de wereld kunnen redden.'

De spreker, Cat Lavigne, zweeg even en herhaalde zichzelf. 'We proberen de wereld te veranderen!'



Lavigne sprak de aanwezigen toe van de Effective Altruism Global-conferentie, die ze in het weekend van 31 juli tot 2 augustus hielp organiseren op de Quad Campus van Google in Mountain View. Effectieve altruïsten denk dat eerdere pogingen om goed te doen - door te geven aan liefdadigheidsinstellingen of te werken voor non-profitorganisaties of overheidsinstanties - grotendeels ineffectief zijn geweest, deels omdat ze te veel werden gedreven door de wens om je goed te voelen en te weinig door de koude, harde gegevens die nodig zijn om te bewijzen wat echt goed doet.

waarom zijn mijn verizon-gegevens zo traag?

Het is een krachtig idee en een idee dat al levens heeft gered. GiveWell , de liefdadigheidsevaluatieorganisatie waaraan effectief altruïsme zijn oorsprong kan vinden, heeft filantropie naar bewijs geduwd en weg van geven op basis van persoonlijke grillen en sentimenten. Effectieve altruïsten zijn ook opmerkelijk vooruitstrevend geweest over de bio-industrie, waarbij ze het probleem van dierenleed serieus hebben genomen zonder te vervallen in PETA-achtige houding en schijnheiligheid.

Effectief altruïsme (of EA, zoals voorstanders het noemen) is echter meer dan een overtuiging. Het is een beweging, en zoals elke beweging is ze begonnen met het ontwikkelen van een cultuur, en een reeks machtige belanghebbenden, en een bepaalde reeks zorgwekkende pathologieën. Op dit moment is EA erg blank, erg mannelijk en gedomineerd door werknemers in de technische industrie. En het is steeds meer geobsedeerd door ideeën en gegevens die de klassenpositie en belangen van de leden van de beweging weerspiegelen, in plaats van een verlangen om echte mensen te helpen.

In het begin ging EA vooral over het bestrijden van wereldwijde armoede. Nu gaat het steeds meer om het financieren van computerwetenschappelijk onderzoek om een ​​door kunstmatige intelligentie veroorzaakte apocalyps te voorkomen. Met het risico van overgeneralisering, hebben de informatica-majors elkaar ervan overtuigd dat computerwetenschappelijk onderzoek de beste manier is om de wereld te redden. In vergelijking daarmee, zeiden meerdere aanwezigen, is wereldwijde armoede een 'afrondfout'.

Ik identificeer me als een effectieve altruïst: ik vind het belangrijk om goed te doen met je leven, en zoveel mogelijk goed doen is een nobel doel. Ik denk zelfs dat AI-risico een echte uitdaging is die de moeite waard is om aan te pakken. Maar sprekend als een blanke mannelijke nerd op het autismespectrum, effectief altruïsme kan niet alleen voor blanke mannelijke nerds op het autismespectrum zijn. Verklaren dat wereldwijde armoede een 'afrondfout' is en dat iedereen eigenlijk computerwetenschappelijk onderzoek zou moeten doen, is een geweldige manier om ervoor te zorgen dat de beweging gevaarlijk homogeen en uiteindelijk irrelevant blijft.

Moeten we vandaag om de wereld geven? helemaal niet ?

Ondergang. Zoete ondergang.

Een artistiek concept van een inslag van een asteroïde die de vroege aarde raakt. Slechts een van de vele manieren waarop we allemaal kunnen sterven!

Don Davis / NASA

EA Global werd gedomineerd door talk of existentiële risico's, of X-risico's . Het idee is dat het uitsterven van de mens veel, veel erger is dan alles wat kan gebeuren met echte, levende mensen vandaag .

Om effectieve altruïsten het te horen uitleggen, komt het neer op eenvoudige wiskunde. Tot nu toe hebben ongeveer 108 miljard mensen geleefd, maar als de mensheid nog 50 miljoen jaar meegaat, en de huidige trends aanhouden, zal het totale aantal mensen dat ooit zal leven meer als 3 quadriljoen bedragen. Mensen die tijdens of vóór 2015 leven, zouden dus slechts 0,0036 procent uitmaken van alle mensen ooit.

De cijfers worden zelfs nog groter als je bedenkt - zoals voorstanders van X-risk gewoonlijk doen - de mogelijkheid van interstellaire reizen. Nick Bostrom – de Oxford-filosoof die het concept van existentieel risico populair maakte – schat dat er ongeveer 10^54 menselijke levensjaren (of 10^52 levens van elk 100 jaar) in onze toekomst zouden kunnen liggen als we zowel het reizen tussen zonnestelsels beheersen als uitzoeken hoe menselijke hersenen na te bootsen in computers.

Zelfs als we deze schatting van 10^54 'slechts 1% kans geven om correct te zijn', schrijft Bostrom, 'vinden we dat de verwachte waarde van het verminderen van het existentiële risico met slechts een miljardste van een miljardste van een procentpunt is honderd miljard keer zoveel waard als een miljard mensenlevens.'

Anders gezegd: het aantal toekomstige mensen dat nooit zal bestaan ​​als mensen uitsterven, is zo groot dat het verminderen van het risico op uitsterven met 0.00000000000000001 procent naar verwachting 100 miljard meer levens zal redden dan, laten we zeggen, het voorkomen van de genocide van 1 miljard mensen. Dat pleit, naar het oordeel van Bostrom en anderen, om prioriteit te geven aan inspanningen om het uitsterven van de mens te voorkomen boven andere inspanningen. Dit is wat obsessieven met X-Risk bedoelen als ze beweren dat het beëindigen van armoede in de wereld een 'afrondfout' zou zijn.

Waarom Silicon Valley bang is dat zijn eigen creaties de mensheid zullen vernietigen

AI doem praten

Van links naar rechts: Daniel Dewey, Nick Bostrom, Elon Musk, Nate Soares en Stuart Russell.

Anna Riedl

Er zijn een aantal potentiële kandidaten voor het meest bedreigende X-risico. Persoonlijk maak ik me het meest zorgen over wereldwijde pandemieën , zowel omdat zaken als de Zwarte Dood en de Spaanse griep al eerder massale sterfte hebben veroorzaakt, en omdat globalisering en de opkomst van synthetische biologie ziekten zowel gemakkelijker hebben verspreid als gemakkelijker (opzettelijk of niet) kunnen aanpassen voor maximale dodelijkheid. Maar wat dat betreft ben ik in de minderheid. Het enige X-risico waarover eigenlijk iedereen op de conferentie wilde praten, was kunstmatige intelligentie.

De specifieke zorg — geuit door vertegenwoordigers van groepen zoals de Machine Intelligence Research Institute (MIRI) in Berkeley en Bostrom's Instituut voor de toekomst van de mensheid in Oxford - is over de mogelijkheid van een 'inlichtingenexplosie'. Als mensen in staat zijn om een ​​AI te maken die net zo slim is als mensen, zo luidt de theorie, dan spreekt het vanzelf dat die AI slim genoeg zou zijn om zichzelf te creëren, en om zichzelf nog slimmer te maken. Dat zou een proces van exponentiële groei in intelligentie in gang zetten totdat we een AI krijgen die zo slim is dat hij vrijwel zeker de wereld zou kunnen beheersen als hij dat zou willen. En er is geen garantie dat het mensen in staat zou stellen te blijven bestaan ​​zodra het zo krachtig werd. 'Het lijkt vrij moeilijk om een ​​seed-AI zo te ontwerpen dat de voorkeuren, indien volledig geïmplementeerd, consistent zouden zijn met het voortbestaan ​​van mensen en de dingen waar we om geven', Bostrom vertelde me in een interview vorig jaar.

Dit is geen marginaal gezichtspunt in Silicon Valley. De belangrijkste donor van MIRI is de Thiel Foundation, gefinancierd door PayPal en medeoprichter van Palantir en miljardair-engelinvesteerder Peter Thiel, die heeft gegeven $ 1.627 miljoen daten. Jaan Tallinn, de ontwikkelaar van Skype en Kazaa, is zowel een grote MIRI-donor als mede-oprichter van twee groepen: de Instituut voor de toekomst van het leven en de Centrum voor de studie van existentieel risico - werken aan aanverwante zaken. En eerder dit jaar kreeg het Future of Life Institute miljoen van Thiels PayPal-buddy, Elon Musk, CEO van Tesla Motors/SpaceX , die zich zorgen maakte over het AI-risico na het lezen van Bostroms boek superintelligentie .

Het is moeilijk om manieren te bedenken om dit probleem aan te pakken, behalve meer AI-onderzoek te doen, wat de kans op de apocalyps zou kunnen vergroten

En inderdaad, het AI-risicopanel - met Musk, Bostrom, MIRI's uitvoerend directeur Nate Soares en de legendarische UC Berkeley AI-onderzoeker Stuart Russell - was het meest gehypte evenement bij EA Global. Musk sloeg het natuurlijk op voor de menigte. Op een gegeven moment begon Russell de opmerking van AI-onderzoeker Andrew Ng te weerleggen dat je zorgen maken over AI-risico's hetzelfde is als 'je zorgen maken over overbevolking op Mars', en hij antwoordde: 'Stel je voor dat de regeringen, universiteiten en bedrijven van de wereld miljarden uitgeven aan een plan om Mars te bevolken. ' Musk keek verlegen op, legde zijn hand op zijn kin en grijnsde alsof hij wilde vragen: 'Wie zegt dat ik niet ben?'

De bijdrage van Russell was het nuttigst, omdat het bevestigde dat dit echt een probleem is waar serieuze mensen in het veld zich zorgen over maken. De analogie die hij gebruikte was met nucleair onderzoek. Net zoals nucleaire wetenschappers ethische normen en beste praktijken hebben ontwikkeld die tot nu toe hebben geholpen ervoor te zorgen dat er 70 jaar lang geen bommen zijn gebruikt bij aanvallen, drong hij erop aan dat AI-onderzoekers een vergelijkbare ethiek omarmen en niet alleen coole dingen maken omwille van leuke dingen maken.

Wat als het AI-gevarenargument voor de helft te slim is?

Waarom heeft hij een klok op zijn borst?

Let op: niet hoe de Doom AI eruit zal zien.

Shutterstock

Wat het meest zorgwekkend was, was de heftigheid waarmee AI-puzzels de prioriteit van de oorzaak boven andere oorzaakgebieden beweerden. Om te beginnen hebben we zo'n diepe onzekerheid over AI - of algemene intelligentie überhaupt mogelijk is, of intelligentie is echt alles wat een computer nodig heeft om de samenleving over te nemen, of kunstmatige intelligentie een onafhankelijke wil en macht zal hebben zoals mensen dat doen of dat het gewoon een hulpmiddel blijft, wat het zou betekenen om een ​​'vriendelijke' versus 'kwaadaardige' AI te ontwikkelen - dat het moeilijk te denken is van manieren om dit probleem vandaag aan te pakken, behalve door meer AI-onderzoek te doen, wat op zichzelf de kans op de apocalyps zou vergroten waar dit kamp zich zorgen over maakt.

Het algemene antwoord dat ik hierop kreeg was: 'Ja, zeker, maar zelfs als er een zeer, zeer, zeer kleine kans is dat we het AI-risico verminderen, overtreft dat nog steeds de wereldwijde armoede, omdat de kans dat 10^52 mensen in de toekomst bestaan ​​redt veel meer levens dan armoedebestrijding ooit zou kunnen.'

Het probleem is dat je deze logica kunt gebruiken om zo ongeveer alles te verdedigen. Stel je voor dat een tovenaar opdook en zei: 'Mensen staan ​​op het punt uit te sterven tenzij je me $ 10 geeft om een ​​magische spreuk uit te spreken.' Zelfs als je maar denkt dat er een kans van, laten we zeggen, 0,000000000000001 procent is dat hij gelijk heeft, moet je hem nog steeds, volgens deze redenering, de $ 10 geven, omdat de verwachte waarde is dat je 10^32 levens redt.

Bostrom noemt dit scenario 'De overval van Pascal' en het is een enorm probleem voor iedereen die pogingen probeert te verdedigen om het risico van uitsterven van de mens te verminderen, met uitsluiting van al het andere. Deze argumenten geven een vals gevoel van statistische precisie door waarschijnlijkheidswaarden op overtuigingen te slaan. Maar die waarschijnlijkheidswaarden zijn letterlijk gewoon verzonnen. Misschien zal het geven van $ 1.000 aan het Machine Intelligence Research Institute de kans verkleinen dat AI ons allemaal doodt met 0.00000000000000001. Of misschien maakt het de kansen slechts met 0.00000000000000000000000000000000000000000000000000000000000000001 kleiner. Als dat laatste waar is, is het geen slimme donatie; als je de kansen vermenigvuldigt met 10^52, heb je naar verwachting 0,00000000000001 levens gered, wat behoorlijk ellendig is. Maar als het eerste waar is, is het een briljante donatie en heb je naar verwachting 100.000.000.000.000.000.000.000.000.000 levens gered.

Ik heb er geen vertrouwen in dat we deze risico's met genoeg precisie begrijpen om te kunnen zeggen of een liefdadigheidsinstelling voor AI-risico's onze kans op onheil kan verkleinen met 0.00000000000000001 of met slechts 0.00000000000000000000000000000000000000000000000000000000000000001. En toch, om het argument te laten werken, moet je dat soort onderscheid kunnen maken.

Het andere probleem is dat de AI-menigte lijkt aan te nemen dat mensen die macht in de toekomst bestaan, moeten gelijk worden geteld voor mensen die Vast en zeker bestaan ​​vandaag. Dat is geenszins een voor de hand liggende positie, en tonnen filosofen betwisten het . Het houdt onder andere in wat bekend staat als de Weerzinwekkende conclusie : het idee dat de wereld haar bevolking moet blijven vergroten totdat het absoluut maximale aantal mensen leeft, levens leiden die rechtvaardig zijn amper waard om te leven. Maar als je zegt dat mensen die alleen macht bestaan, tellen minder dan mensen die echt of zal echt bestaan, ontwijk je die conclusie, en het argument om alleen om de verre toekomst te geven, wordt aanzienlijk zwakker (hoewel nog redelijk overtuigend ).

Donald Trump praat over zwarte mensen

Goed doen door agressieve zelfpromotie

Het

Een blik op de campus van Google op de eerste dag van de conferentie.

Dylan Matthews

Om eerlijk te zijn, de AI-mensen waren niet de enige game in de stad. Een andere groep legde de nadruk op 'meta-liefdadigheid', ofwel geven aan en werken voor effectieve altruïstische groepen. Het idee is dat er meer goed kan worden gedaan als effectieve altruïsten proberen de beweging uit te breiden en meer mensen aan boord te krijgen dan wanneer ze zich richten op eerste-ordeprojecten zoals armoedebestrijding.

Dit is duidelijk waar tot op zekere hoogte. Er is een reden dat liefdadigheidsinstellingen advertenties kopen. Maar uiteindelijk moet je ophouden meta te zijn. Als Jeff Kaufman – een ontwikkelaar in Cambridge die beroemd is onder effectieve altruïsten omdat hij, samen met zijn vrouw Julia Wise, de helft van het gezinsinkomen doneert aan effectieve goede doelen – betoogde in een lezing waarom wereldwijde armoede een belangrijk aandachtspunt zou moeten zijn, als je meta-liefdadigheid te ver doordrijft , krijg je een beweging die echt goed is in zichzelf uitbreiden, maar niet per se goed in het daadwerkelijk helpen van mensen.

Effectief altruïsme is geen vervanging voor bewegingen waardoor gemarginaliseerde volkeren hun eigen bevrijding zoeken

En je moet meta-liefdadigheid doen goed - en hoe meer EA geobsedeerd raakt door AI, hoe moeilijker het is om dat te doen. De beweging heeft een zeer reëel demografisch probleem, dat bijdraagt ​​aan zeer reële intellectuele oogkleppen van het soort dat aanleiding geeft tot de AI-obsessie. En het is moeilijk voor te stellen dat door EA toe te passen in een van de meest blanke en meest mannelijke vakgebieden (tech) en academische vakken (computerwetenschap) er veel toe zal bijdragen om meer mensen met verschillende achtergronden bij de groep te krijgen.

De zelf-feliciterende toon van het evenement hielp ook niet mee. Ik deinsde fysiek terug tijdens de introductiesessie toen Kerry Vaughan, een van de organisatoren van het evenement, verklaarde: 'Ik geloof echt dat effectief altruïsme de laatste sociale beweging zou kunnen zijn die we ooit nodig hebben.' In de annalen van zinnen die door blanke mannen alleen met een strak gezicht gezegd konden worden, mocht diegene de kroon spannen.

Effectief altruïsme is een nuttig kader om na te denken over hoe goed te doen door middel van iemands carrière, of door politieke belangenbehartiging, of door liefdadigheid te geven. Het is geen vervanging voor bewegingen waarmee gemarginaliseerde volkeren hun eigen bevrijding zoeken. Als EA enige hoop wil hebben om meer buy-in te krijgen van vrouwen en mensen van kleur, moet dat op zijn minst erkennen Dat.

Er is hoop

Google stoelen zijn raar

Rondhangen bij EA Global.

Anna Riedl

Ik wil niet overdreven negatief zijn. EA Global zat ook vol met mensen die innovatieve projecten deden die mensen echt helpen - en niet alleen in wereldwijde armoede. Nick Cooney, de opleidingsdirecteur van Mercy for Animals, betoogde overtuigend dat bedrijfscampagnes voor een betere behandeling van landbouwhuisdieren een effectieve interventie zouden kunnen zijn. Een uitgevoerd door de Humane Liga dwong foodservicebedrijven - de bedrijven die cafetaria's, foodcourts en dergelijke leveren - om zich ertoe te verbinden nooit eieren te gebruiken van kippen die opgesloten zitten in brute batterijkooien. Dat resulteerde in toezeggingen van bedrijven om 5 miljoen dieren per jaar te sparen, en toen de kosten van de campagne werden opgeteld, kostte het alleen al in het eerste jaar minder dan 2 cent per dier.

Een ander duwtje zorgde ervoor dat Walmart en Starbucks geen varkens gebruikten van boerderijen die inzetten 'draagkratten' die het voor drachtige varkens onmogelijk maken om zich om te draaien of meer dan een paar stappen te zetten. Dat kostte ongeveer 5 cent voor elk van de 18 miljoen gespaarde dieren. De campagnes van de Humane Society of the United States voor staatswetten die batterijkooien, draagkratten en andere onmenselijke praktijken beperken, hebben 40 miljoen dieren gespaard voor een prijs van 40 cent per stuk.

Dit is precies het soort dingen waar effectieve altruïsten naar zouden moeten kijken. Cooney sprak onze taal: zwaar op kwantitatieve meting, met de nadruk op effectiviteit en een minimum aan emotionele aantrekkingskracht. Hij identificeerde zich zelfs als 'geen dierlijk persoon'. 'Ik heb nooit huisdieren gehad toen ik opgroeide, en ik heb geen interesse om ze vandaag te krijgen', benadrukte hij. Maar hij hielp ook om te bewijzen dat EA-principes kunnen werken in gebieden buiten de wereldwijde armoede. Hij liet de beweging groeien zoals ze zou moeten groeien, op een manier die activisten met verschillende kernprincipes kan aantrekken in plaats van hen te vervreemden.

Als effectief altruïsme dat veel meer doet, kan het filantropie transformeren en een revolutionair model bieden voor rigoureuze, empirisch georiënteerde belangenbehartiging. Maar als het te onder de indruk raakt van zijn eigen slimheid, is de toekomst veel somberder.

Correctie: In dit artikel stond oorspronkelijk dat het Machine Intelligence Research Institute zich in Oakland bevindt; het is in Berkeley.