Zelfrijdende auto's moeten veiliger zijn dan gewone auto's. De vraag is hoeveel.

Hoe veilig is veilig genoeg, en hoe meten we het?

wat te doen tijdens een break-up?
Een zelfrijdend voertuig van Waymo in Mountain View, Californië in mei 2018.

Een zelfrijdend voertuig van Waymo in Mountain View, Californië in mei 2018.

Justin Sullivan/Getty Images

Dit verhaal maakt deel uit van een groep verhalen genaamd hercoderen

Ontdekken en uitleggen hoe onze digitale wereld verandert - en ons verandert.



Een van de grootste vragen rond zelfrijdende auto's is niet technologisch, maar in plaats daarvan filosofisch : Hoe veilig is veilig genoeg?

Het is niet iets waar een eenvoudig antwoord op bestaat.

Sinds de 2004 uitdaging waarmee de push van autonome voertuigen begon, is de opwinding over het vooruitzicht van vloten van zelfrijdende auto's op de weg toegenomen. Meerdere bedrijven zijn in het spel gestapt, waaronder techgiganten Google (met Waymo), Uber , en Tesla ; meer traditionele autofabrikanten, zoals Algemene motoren , Ford , en Volvo hebben zich in de strijd geworpen. De wereldwijde markt voor autonome voertuigen is: gewaardeerd naar schatting $ 54 miljard - en zal naar verwachting de komende zeven jaar vertienvoudigen.

Zoals bij elke innovatie, brengen zelfrijdende auto's veel technische problemen met zich mee, maar er zijn ook morele. Er zijn namelijk geen duidelijke parameters voor hoe veilig veilig genoeg wordt geacht om een ​​zelfrijdende auto op de weg te zetten. Op federaal niveau in de Verenigde Staten, richtlijnen op hun plaats zijn vrijwillig , en tussen staten, de wetten variëren . Als en wanneer parameters worden gedefinieerd, is er geen vaste norm om te meten of hieraan wordt voldaan.

Door mensen gecontroleerd rijden is tegenwoordig al een opmerkelijk veilige activiteit - in de Verenigde Staten is er ongeveer één dode voor elke 100 miljoen gereden mijlen . Zelfrijdende auto's zouden het vermoedelijk beter moeten doen, en dat is wat de bedrijven achter hen zeggen te zullen doen. Maar hoeveel beter is geen eenvoudig antwoord. Moeten ze 10 procent veiliger zijn? 100 procent veiliger? En is het acceptabel om te wachten tot autonome voertuigen aan superhoge veiligheidsnormen voldoen als dit betekent dat in de tussentijd meer mensen sterven?

Het testen van de veiligheid is een andere uitdaging. Het verzamelen van voldoende gegevens om te bewijzen dat zelfrijdende auto's veilig zijn, zou honderden miljoenen, zelfs miljarden kilometers vergen. Het is een potentieel enorm dure onderneming en daarom proberen onderzoekers andere manieren te vinden om de veiligheid van auto's zonder bestuurder te valideren, zoals computersimulaties en testbanen.

Verschillende actoren binnen de ruimte hebben verschillende theorieën over het verzamelen van gegevens om de veiligheid te testen. Zoals The Verge al aangaf , leunt Tesla op de gegevens die zijn auto's die al op de weg rijden produceren met zijn automatische pilootfunctie, terwijl Waymo dat doet computersimulaties combineren met zijn echte vloot.

De meeste mensen zeggen op een losse manier dat autonome voertuigen minstens zo goed moeten zijn als door mensen aangedreven conventionele voertuigen, zei Marjory Blumenthal, senior beleidsonderzoeker bij onderzoeksdenktank RAND Corporation, maar we hebben moeite om dat uit te drukken. concreet te maken en het ook daadwerkelijk waar te maken.

Volledig zelfrijdende auto's overal op de weg is waarschijnlijk nog ver weg

Om wat grondwerk te leggen, zijn er: zes niveaus autonomie vastgesteld voor zelfrijdende auto's, variërend van 0 tot 5. Een auto van niveau 0 heeft geen autonome mogelijkheden - een menselijke bestuurder bestuurt gewoon de auto. Een voertuig van niveau 4 kan vrijwel al het rijden alleen doen, maar onder bepaalde omstandigheden, bijvoorbeeld in vaste gebieden of bij mooi weer. Een voertuig van niveau 5 is er een die al het rijden onder alle omstandigheden kan doen, en een mens hoeft er helemaal niet bij betrokken te zijn.

Op dit moment zijn de automatiseringssystemen die op de weg zijn van bedrijven zoals Tesla, Mercedes, GM en Volvo, niveau 2, wat betekent dat de auto het stuur en de snelheid regelt op een goed gemarkeerde snelweg, maar een bestuurder moet nog steeds toezicht houden. Ter vergelijking: een Honda-voertuig uitgerust met zijn Sensing reeks technologieën, waaronder adaptieve cruisecontrol, rijstrookassistentie en noodremdetectie, is een niveau 1.

Dus als we het hebben over volledig zelfrijdende auto's, dan is dat een niveau 4 of een niveau 5. Daniel Sperling, oprichter en directeur van het Institute of Transportation Studies aan de Universiteit van Californië, Davis, vertelde Recode dat volledig zelfrijdende auto's - die niet vereisen dat er helemaal niemand in de auto zit en overal naartoe kan - zal niet gebeuren gedurende vele, vele decennia, misschien nooit. Maar auto's zonder bestuurder in een vooraf ingesteld geofenced gebied zijn mogelijk in een paar jaar, en sommige plaatsen hebben al langzaam rijdende, zelfrijdende shuttles in zeer beperkte gebieden.

Zeker, sommigen in de industrie beweren dat een tijdperk van volledig zelfrijdende auto's over de wegen dichterbij is. Tesla heeft vrijgegeven video's van auto's die zelf van de ene bestemming naar de andere rijden en zonder hulp parkeren, hoewel er een menselijke bestuurder aanwezig is. Maar misschien moet je de belofte van Tesla-topman Elon Musk om volgend jaar 1 miljoen volledig zelfrijdende taxi's te maken, niet serieus nemen.

Veiligheid is een maatschappelijke vraag waar geen gemakkelijke antwoorden op zijn

Door mensen gecontroleerd rijden in de VS is tegenwoordig al een relatief veilige activiteit, hoewel er duidelijk veel ruimte voor verbetering is: in 2017 kwamen 37.000 mensen om bij verkeersongevallen en verkeersongevallen blijven een belangrijkste doodsoorzaak . Dus als we wagenparken met zelfrijdende auto's op de weg krijgen, willen we dat ze veiliger zijn. En dat betekent niet alleen zelfrijdende technologie - er wordt ook veiligheidswinst geboekt omdat auto's zwaarder zijn, airbags en andere veiligheidsuitrusting hebben, beter remmen en minder vaak over de kop slaan. Maar als het gaat om hoeveel veiliger we precies willen dat een auto zonder bestuurder is, is dat een open vraag.

Hoeveel miljoenen kilometers moeten we dan rijden voordat we zeker weten dat een machine minstens zo veilig is als een mens? Greg McGuire, de directeur van het MCity-testlaboratorium voor autonome voertuigen aan de Universiteit van Michigan, vertelde me in een recent interview. Of moet het veiliger? Moet het 10 keer zo veilig zijn? Wat is onze drempel?

Een studie uit 2017 van RAND Corporation ontdekte dat hoe eerder sterk geautomatiseerde voertuigen worden ingezet, hoe meer levens uiteindelijk zullen worden gered, zelfs als de auto's net iets veiliger zijn dan auto's die door mensen worden bestuurd. Onderzoekers ontdekten dat het inzetten van auto's die slechts 10 procent veiliger zijn dan de gemiddelde menselijke bestuurder op de lange termijn meer levens zal redden dan te wachten tot ze 75 of 90 procent beter zijn.

Met andere woorden, terwijl we wachten tot zelfrijdende auto's perfect zijn, kunnen er meer levens verloren gaan.

Naast wat als veilig geldt, is er ook een raadsel over wie? is verantwoordelijk als er iets misgaat. Wanneer een menselijke bestuurder een ongeval of dodelijk ongeval veroorzaakt, bestaat er vaak weinig twijfel over wie de schuldige is. Maar als een zelfrijdende auto crasht, is het niet zo eenvoudig.

Sperling vergeleek het scenario met een ander type transport. Als een vliegtuig niet over de juiste software en technologie beschikt, wie is dan verantwoordelijk? Is het de softwarecoder? Is het de hardware? Is het het bedrijf dat eigenaar is van het voertuig? hij zei.

We hebben de aansprakelijkheidsvraag over zelfrijdende auto's al zien spelen nadat een Uber-testvoertuig in 2018 een vrouw had aangereden en gedood. Het incident veroorzaakte opschudding in de media en Uber een schikking bereikt met de familie van het slachtoffer. De familie van een man die in 2018 om het leven kwam tijdens het rijden in een Tesla klaagde de automaker aan eerder dit jaar, zeggende dat de automatische pilootfunctie fout was, en de National Transportation Safety Board zei in een voorlopig rapport dat de automatische piloot van Tesla actief was bij een fatale crash in Florida in maart. De familie van een man die stierf bij een Tesla-crash in 2016, heeft echter gezegd dat het hem of het bedrijf niets kwalijk neemt.

Er is ook een discussie gaande over welke keuzes de voertuigen moeten maken als ze worden geconfronteerd met een moeilijke situatie - bijvoorbeeld als een ongeval onvermijdelijk is, als een zelfrijdende auto uitwijkt op een voetpad vol voetgangers of tegen een paal rijdt, wat kan meer gevaar opleveren voor de personen in het voertuig?

kun je misoprostol zonder recept kopen bij walmart?

Het MIT Media Lab lanceerde een project, genaamd de Morele machine , om te proberen gegevens te gebruiken om erachter te komen hoe mensen over dat soort afwegingen denken. Het publiceerde een studie over zijn bevindingen van vorig jaar. [In] gevallen waarin de schade niet meer kan worden geminimaliseerd, maar kan worden verschoven tussen verschillende groepen mensen, hoe willen we dan dat auto's dat doen? Edmond Awad, een van de onderzoekers achter de studie, zei.

maar als Vox's Kelsey Piper uitgelegd op het moment, deze morele afwegingen, hoewel interessant, raken niet echt de kern van het veiligheidsdebat in zelfrijdende auto's:

[De] hele zelfrijdende auto-opstelling is meestal slechts een nieuwe manier om de aandacht te vestigen op een oude reeks vragen. Wat het MIT Media Lab aan de respondenten van de enquête vroeg om te beantwoorden, was een reeks varianten op het klassieke trolleyprobleem, een hypothetisch geconstrueerd in de moraalfilosofie om mensen te laten nadenken over hoe ze morele afwegingen maken. Het klassieke trolleyprobleem vraagt ​​of je aan een hendel zou trekken om een ​​trolley te verplaatsen die uit koers naar vijf mensen racet, dus in plaats daarvan doodt er één. Varianten hebben de omstandigheden onderzocht waaronder we bereid zijn om sommige mensen te doden om anderen te redden.

Het is een interessante manier om te leren hoe mensen denken als ze gedwongen worden te kiezen tussen slechte opties. Het is interessant dat er culturele verschillen zijn. Maar hoewel de verzamelde gegevens beschrijven hoe we morele keuzes maken, geven ze geen antwoord op de vraag hoe we dat zouden moeten doen . En het is niet duidelijk dat het relevanter is voor zelfrijdende auto's dan voor elk ander beleid dat we elke dag overwegen - die allemaal afwegingen met zich meebrengen die levens kunnen kosten.

Op het moment dat de studie werd uitgebracht in Natuur , Audi zei dat het zou kunnen helpen een discussie op gang te brengen over het nemen van beslissingen over zelfrijdende auto's, terwijl anderen, waaronder Waymo, Uber en Toyota, hun mond hielden.

Veiligheid meten wordt heel moeilijk

De moeilijkere vraag om te beantwoorden als het gaat om de veiligheid van zelfrijdende auto's, is misschien wel hoe je het kunt testen.

Er waren 1,16 dodelijke slachtoffers voor elke 100 miljoen gereden mijlen in de VS in 2017. Dat betekent dat zelfrijdende auto's honderden miljoenen kilometers, zelfs honderden miljarden kilometers zouden moeten rijden om hun betrouwbaarheid aan te tonen. Waymo vorig jaar gevierd zijn voertuigen hebben sinds de lancering in 2009 10 miljoen mijl op de openbare weg gereden.

Het verzamelen van miljarden kilometers testritten voor zelfrijdende auto's is een bijna onmogelijke onderneming. Zo'n project zou enorm duur en tijdrovend zijn — door enkele schattingen , die tientallen of zelfs honderden jaren in beslag nemen. Bovendien, elke keer dat er een verandering in de technologie is, zelfs als het maar een paar regels code zijn, zou het testproces vermoedelijk helemaal opnieuw moeten beginnen.

Niemand kon het zich ooit veroorloven om dat te doen, zei Steven Shladover, een gepensioneerd onderzoeksingenieur aan de University of California Berkeley. Daarom moeten we op zoek gaan naar andere manieren om dat niveau van veiligheidsborging te bereiken.

In 2018, RAND stelde een kader voor voor het meten van veiligheid in geautomatiseerde voertuigen, waaronder testen via simulatie, gesloten cursussen en openbare wegen met en zonder veiligheidschauffeur. Het zou in verschillende stadia plaatsvinden: wanneer de technologie wordt ontwikkeld, wanneer deze wordt gedemonstreerd en nadat deze is geïmplementeerd.

Zoals RAND-onderzoeker Blumenthal uitlegde, zijn crashtests onder de praktijken van de National Highway Traffic Safeway Administration gericht op de botsweerstand van voertuigen en de bescherming van de inzittenden, maar er moet worden getest wat de resultaten zijn van het gebruik van software die de automatisering belichaamt. Bedrijven doen die tests, maar er is geen breed, overeengekomen kader.

MCity aan de Universiteit van Michigan bracht in januari een wit papier het opstellen van veiligheidstestparameters die volgens haar zouden kunnen werken. Het stelde een ABC-testconcept voor van versnelde evaluatie (gericht op de meest risicovolle rijsituaties), gedragscompetentie (scenario's die overeenkomen met grote motorongevallen) en hoekgevallen (situaties die de grenzen van prestaties en technologie testen).

Het testen op de weg van volledig zelfrijdende auto's is de laatste stap, niet de eerste. Je mengt je met echte mensen, dus je moet erop kunnen vertrouwen dat je een veiligheidsmarge hebt waarmee je anderen niet in gevaar kunt brengen, zei McGuire van MCity.

Ook dan maakt het verschil waar de auto's worden getest. De reden dat zoveel bedrijven hun voertuigen testen in plaatsen zoals Arizona, is dat het relatief vlak en droog is - in meer gevarieerde landschappen of slecht weer worden voertuigdetectie en andere autonome mogelijkheden complexer en minder betrouwbaar.

In november 2018 zei Waymo CEO John Krafcik zelfs: hij denkt niet zelfrijdende technologie zal ooit in alle mogelijke omstandigheden kunnen werken zonder enige menselijke interactie. Hij zei ook dat hij gelooft dat het nog tientallen jaren zal duren voordat autonome auto's alomtegenwoordig zijn.

Als je naar enkele van de openbare uitspraken luistert, zijn de meeste bedrijven in de loop van de tijd veel bescheidener geworden omdat ze problemen in de echte wereld tegenkomen, zei Blumenthal.

Het komt neer op vertrouwen van het publiek

Het zijn niet alleen onderzoekers, ingenieurs en bedrijven in de zelfrijdende autosector die werken aan parameters voor het definiëren en meten van veiligheid - er is een rol weggelegd voor regelgevers. In de VS is er momenteel niet veel regelgevend kader, en het beleid ter zake is een onbeantwoorde vraag.

Regelgevers proberen nog steeds te bepalen wat voor soort gegevens ze realistisch kunnen verwachten en analyseren om de veiligheid van zelfrijdende auto's te evalueren.

Shladover legde uit dat een ander deel van het probleem is hoe we in het verleden met wet- en regelgeving rond autorijden in de VS zijn omgegaan. Op federaal niveau is de National Highway Traffic Safety Administration is verantwoordelijk voor het vaststellen van veiligheidsnormen voor voertuigen en het vaststellen van voorschriften voor apparatuur en wat er in voertuigen wordt ingebouwd. Het valt onder de auspiciën van het Department of Transportation, dat deel uitmaakt van de uitvoerende macht. In 2018 een NHTSA-regel in werking getreden dat vereist dat nieuwe auto's achteruitkijktechnologie hebben. De regel komt voort uit: wetgeving vastgesteld door het Congres in 2008.

Staten reguleren echter doorgaans het rijgedrag — snelheidslimieten instellen, bestuurders een vergunning geven, enz. — en steden en gemeenten kunnen hun eigen regels vaststellen, inclusief rond auto's zonder bestuurder . Zelfrijdende autosystemen overschrijden de traditionele grenzen tussen federale, staats- en stadsbestuur.

Een deel van het rijgedrag is eigenlijk ingebed in het voertuig, en dat zou normaal gesproken een federale verantwoordelijkheid zijn, maar het rijgedrag en de interactie met andere chauffeurs is een verantwoordelijkheid van de staat, zei Shladover. Op dat moment wordt het verward en ingewikkeld.

De NHTSA is momenteel op zoek naar openbaar hoe over de vraag of auto's zonder stuur of rempedalen op de weg moeten worden toegelaten. (Ze zijn momenteel verboden, hoewel bedrijven uitzonderingen kunnen aanvragen.) was een duw in het Congres vorig jaar om de zelfrijdende wetgeving door te voeren, maar het viel tegen . Maar federale, staats- en lokale overheden proberen nog steeds uit te zoeken hoe veilig gedrag van geautomatiseerde rijsystemen kan worden gegarandeerd en wie er de leiding over moet hebben.

Maar het opstellen van richtlijnen en bedrijven die het publiek verzekeren dat zelfrijdende technologie veilig is, is essentieel om de technologie vooruit te helpen. Sociaal vertrouwen in deze systemen en hoe deze bedrijven werken is net zo belangrijk als de engineering, zo niet meer, zei McGuire.

Fisher Price Rock With Me Wieg Herinnering

Zelfrijdende auto's - in hun beperkte gebruik - en geautomatiseerde technologie zijn tot nu toe zeer veilig gebleken, maar ze zijn niet onfeilbaar. De vraag die we als samenleving moeten beantwoorden, is hoe we veilig definiëren, zowel in wat het betekent als hoe we het bewijzen. Het idee om je leven in de handen van een camera en een auto te leggen is een ontmoedigend idee, ook al is het inderdaad veiliger.

We zijn gewend aan het idee dat er soms ongelukken gebeuren en dat een menselijke fout schade kan veroorzaken of levens kan kosten. Maar worstelen met een technologie en een bedrijf dat dit doet, is misschien ingewikkelder. De vliegtuigen van Boeing zijn nog steeds erg veilig, maar na een paar crashes die mogelijk verband houden met een van zijn geautomatiseerde systemen, de hele vloot van 737 MAX-vliegtuigen staat aan de grond . Ja, het is nodig om rationeel na te denken over zelfrijdende Tesla- en Waymo-auto's in plaats van op angst, maar het is begrijpelijk om niet op onze hoede te zijn voor het idee dat een regel code ons zou kunnen doden.

Sperling vertelde me dat hij denkt dat Wall Street een rol zou kunnen spelen bij het verbeteren van de veiligheid, namelijk dat investeerders geen bedrijf zullen steunen waarvan zij de voertuigen onveilig achten. Als je een auto bouwt met meerdere gebreken die tot doden leiden, zul je niet lang in het bedrijfsleven blijven, zei hij.

Het is in het belang van Tesla, Waymo, GM en alle betrokkenen om de veiligheidsvraag goed te krijgen. Ze hebben veel geïnvesteerd in zelfrijdende en geautomatiseerde technologie en hebben veel vooruitgang geboekt. Auto's met zelfrijdende capaciteiten zijn een toenemende realiteit en dat zal waarschijnlijk alleen maar toenemen.


Recode en Vox hebben hun krachten gebundeld om te ontdekken en uit te leggen hoe onze digitale wereld verandert - en ons verandert. Abboneer op Podcasts hercoderen om Kara Swisher en Peter Kafka de moeilijke gesprekken te horen leiden die de technologische industrie tegenwoordig nodig heeft.