Google presenteerde gisteren een prototype van een zelfrijdende auto -- een voertuig zonder stuur of pedalen. Volgens het bedrijf ligt de focus op veiligheid. Wereldwijd sterven jaarlijks 1,2 miljoen mensen in het verkeer, en Google gelooft dat robotauto's dat cijfer met negentig procent kunnen doen dalen. Maar wat gebeurt er als een ongeval tussen twee zelfrijdende auto's onvermijdelijk is?
--------------------------------------------------------------------------------------------------------
--------------------------------------------------------------------------------------------------------
Aangezien het grootste deel van de auto-ongevallen te wijten is aan asociaal gedrag en menselijke fouten, lijkt er weinig twijfel over te bestaan dat zelfrijdende auto's inderdaad veiliger zouden zijn. Robotauto's houden zich aan de verkeersregels en kunnen obstakels sneller detecteren en ontwijken dan menselijke bestuurders. Bovendien zouden ze ook minder brandstof verbruiken en vlotter verkeer toelaten.
Maar zelfrijdende voertuigen verleggen ook ethische grenzen, met name in het geval er toch een ongeval dreigt -- wat uiteraard altijd mogelijk blijft. Tom Chatfield vatte dat dilemma mooi samen in een artikel voor Aeon Magazine: "Wat doet je auto als er plots een school kinderen voor je wielen opduikt? Ontwijkt hij de kinderen, ook al brengt hij door dat manoeuvre jouw leven in gevaar? Of beslist de auto dat jij in de eerste plaats beschermd moet worden?"
De automatisering van de ethiek
Met andere woorden: zelfrijdende auto's automatiseren de ethische beslissingen bij een ongeval. In de hierboven beschreven situatie zal nu elke chauffeur in een fractie van een seconde voor zichzelf bepalen of hij of zij rechtdoor rijdt of tegen een boom knalt. Maar in het geval van een zelfrijdende auto beslist de software daarover. Die software moet uiteraard door een mens worden geschreven. De vraag is dan: op basis van welke waarden?
Matthieu Cherubini ging de uitdaging aan om een moreel systeem voor zelfrijdende auto's te creëren. Hij ontwikkelde drie algoritmes waarmee de voertuigen in een situatie ethische beslissingen moeten nemen. Cherubini laat zien dat dezelfde situatie tot heel andere resultaten kan leiden alnaargelang het algoritme.
In het humanistische algoritme wordt gemikt op een zo laag mogelijk aantal slachtoffers, waarbij een auto kan beslissen om de inzittenden op te offeren om anderen te sparen. In het beschermende algoritme kiest de auto er steeds voor de eigen inzittenden te beschermen, ook al gaat dat ten koste van meer mensenlevens in het andere voertuig (of zwakke weggebruikers). En in het op kosten gebaseerde algoritme wordt er berekend welke uitkomst de maatschappij het minst kost.
De verschillende situaties zijn visueel voorgesteld in een video. Pittig detail: het eerste wat de software doet, is scannen of er zich in een van de voertuigen vooraanstaande personen bevinden.
Kris De Decker
--------------------------------------------------------------------------------------------------------
(1)
De automatisering van de ethiek?
Een humanistisch algoritme... een beschermend algoritme... Ons leven hangt binnenkort aan een fragiel draadje van softwareprogrammaregels... Het is wennen hoor. Dit smaakt naar een voorgekauwde software kansberekening, gamen voor volwassenen... Voorlopig hou ik het nog liever bij het ouderwetse vleugje geluk. Maar, die zaken komen in sneltempo op ons af... Vreemd gevoel hoor!
Geplaatst door: willy.zon | 28 mei 2014 om 17:24
(2)
Dat doet me denken aan de onvergetelijke vraag van een NCRV radiomedewerker in pakweg 1960 na het gigantische spoorwegongeval bij Woerden (Nederland): zijn er ook belangrijke personen onder de slachtoffers?
Geplaatst door: Fre Metselaar | 28 mei 2014 om 17:41
(3)
En het doet natuurlijk denken aan de 3 of 4 robotwetten van Isaac Asimov, wiens robotverhalen veelal gaan over dit ethische dilemma.
Je kunt naast het bovenstaande ook nog de totale levensverwachting van beide partijen in de beslissing betrekken, of de totale levensverwachting maal de gemiddelde levenskwaliteit of ...
Robotwetten:
(0) Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade toegebracht wordt door zijn nalatigheid.
(1) Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt behalve als dit de Nulde Wet zou schenden.
(2) Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Nulde Wet of de Eerste Wet.
(3) Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Nulde, Eerste of Tweede Wet.
Geplaatst door: Friedhelm Veldhuijzen | 28 mei 2014 om 18:57
(4)
Het ontgaat mij ten enemale wat dit artikel met low tech te maken heeft.
Geplaatst door: sarvam | 28 mei 2014 om 19:10
(5)
Schieten Azimov's wetten hier in feite niet te kort? Want de "beslissingen" van de zelfrijdende auto hebben altijd menselijk letsel als gevolg, en in bepaalde gevallen is er ook sprake van zelfdestructie (bv. in de video, de auto die zichzelf van de brug rijdt om een bus vol passagiers te sparen)...
Geplaatst door: Kris De Decker | 28 mei 2014 om 19:11
(6)
@Kris Ja dat zijn de dilemma's inderdaad.
Maar in de filmpjes is ook te zien dat de robotauto zich willens en wetens in gevaarlijke situaties begeeft, zoals op de brug met het risico van een tegemoetkomende bus op de verkeerde weghelft. Dat zou je ook als nalatigheid van de robotauto kunnen beschouwen.
Geplaatst door: Friedhelm Veldhuijzen | 28 mei 2014 om 19:33
(7)
- Bij zo"n onverwachte gebeurtenis is een schrikreaktie waarschijnlijk, geen "ethische beslissing". Een snelle geprogrammeerde reaktie lijkt dan beter.
- Ook in de niet digitale wereld gaan mensen met macht voor of zijn in staat voor te kruipen, in die zin verandert er niets.
- "het beschermende algoritme kiest de auto ervoor de eigen inzittenden te beschermen, ook al gaat dat ten koste van meer mensenlevens"
Een humane overheid kan dit toch verbieden?
Geplaatst door: roland | 28 mei 2014 om 20:00
(8)
@ Roland
Een snelle geprogrammeerde reactie heeft inderdaad het potentieel om mensenlevens te sparen. Maar de vraag is dus op welke waarden je het algoritme baseert.
Onze "humane" overheid laat het bv ook toe dat mensen met SUV's rijden, die bij een stevige botsing andere weggebruikers nauwelijks een overlevingskans bieden.
Bijna alle veiligheidsvoorzieningen van auto's zijn nu gericht op het beschermen van de eigen inzittenden. Een humaan algoritme lijkt mij dus niet zo vanzelfsprekend.
Geplaatst door: kris de decker | 28 mei 2014 om 20:11
(9)
@Kris,
Niet alleen de SUV"s maar zeker ook alle vrachtwagens zouden dan verboden moeten worden.
Als de overheid eigen veiligheidsvoorzieningen belangrijk vindt, moeten motoren verboden zijn.
De EU is bezig met veiligheidsvoorzieningen voor voetgangers en fietsers.
Ook maatregelen als licht/signaal bij achteruit rijden e.d. zijn voor derden.
Geplaatst door: roland | 28 mei 2014 om 21:49
(10)
Vrachtwagens hebben een andere functie dan personenwagens, Roland. Ze halen ook niet de snelheid en het acceleratievermogen van een SUV. Er zitten snelheidsbegrenzers op, er gelden verplichte rusttijden, enzovoort.
Dat motoren zijn toegelaten doet niets af aan het feit dat vrijwel alle veiligheidsvoorzieningen in auto's gericht zijn op de eigen inzittenden. Snowboarden, parachutespringen, bergbeklimmen, fietsen zonder helm, vrijen zonder condoom: het is allemaal toegelaten en het heeft allemaal niks te maken met het onderwerp van dit artikel.
Geplaatst door: Kris De Decker | 29 mei 2014 om 10:27
(11)
Wat de veiligheid betreft, de NLse waterkering bijvoorbeeld is gebouwd op een faalfrequentie van eens per 10.000 jaar, de watersnood van 1953 kostte ca 2000 mensenlevens, dat is dus 0,2 doden/jaar, even kort door de bocht. Vergelijk dit eens met de 800 verkeersdoden/jaar in NL! Het verkeer is daarmee 4000 keer onveiliger!
Misschien dat de invoering van robotauto's leidt tot rationelere verkeersveiligheidsnormen. Rationeel gezien zijn bovenstaande ethische dilemma's dan niet meer zo relevant. Hooguit emotioneel...
Geplaatst door: Friedhelm Veldhuijzen | 29 mei 2014 om 12:09
(12)
In de -nagenoeg- perfecte wereld rijdt de auto zelf en detecteert het alle potentiële gevaren sneller als een menselijke bestuurder. Dus die klas schoolkinderen was allang door de computer waargenomen en de auto had al vaart verminderd. Wel is het natuurlijk noodzakelijk voor een compleet veilig verkeer, dat er geen 1 auto meer door een mens wordt bestuurd.
Geplaatst door: Peter van der Veer | 29 mei 2014 om 13:18
(13)
Suggestie van mijn dochter (9): elke auto stelt op voorhand d.m.v. een vragenlijstje een profiel op van de bestuurder en reageert dan zoals de bestuurder gereageerd zou hebben achter het stuur. Een aso-bestuurder zou dus ook een aso-computer krijgen.
Geplaatst door: Bruno B. | 29 mei 2014 om 18:30
(14)
@ Peter: Hoewel de kans groot is dat de klas schoolkinderen inderdaad tijdig wordt opgemerkt door de robotauto, blijven er altijd situaties mogelijk waarin een van de partijen schade zal oplopen.
Vergelijk het met een modern vliegtuig. De (automatische) veiligheidsvoorzieningen zijn indrukwekkend, en toch gaat er af en toe iets mis, omdat er iets gebeurt dat niet door het computersysteem werd voorzien. En op de grond kan er veel meer gebeuren dan in de lucht.
Google weet dat ook: ze zeggen niet dat het aantal verkeersdoden met 100 procent kan dalen, maar met 90 procent. Dat zijn nog altijd 120.000 doden per jaar, of pakweg 60.000 ongevallen waarbij een computer beslist over leven en dood.
@ Friedhelm: het is inderdaad heel opmerkelijk hoe tolerant we zijn tegenover de risico's van het autoverkeer. Maar de emotionele link zie ik niet. Het ontwerpen van een algoritme is altijd gebaseerd op rationele keuzes.
@ Bruno: Het educatieve algoritme... Leuk, misschien een extra stimulans om beter te studeren.
Geplaatst door: Kris De Decker | 30 mei 2014 om 02:05
(15)
@: "Vergelijk het met een modern vliegtuig. De veiligheidsvoorzieningen zijn indrukwekkend, en toch gaat er af en toe iets mis, omdat er iets gebeurt dat niet door het computersysteem werd voorzien. En op de grond kan er veel meer gebeuren dan in de lucht"
Een misser in de lucht heeft veel grotere gevolgen dan op de grond, terecht dat in de lucht hogere eisen worden gesteld.
Het onderwerp is niet dat het systeem iets niet heeft voorzien, maar bij een voorzien voorval een bepaald besluit neemt. Overheidsbeleid kan die keuze beinvloeden, zodat de morele keuze zoals vaker bij de overheid ligt.
Op straat zijn al heel wat maatregelen genomen om de zwakke weggebruiker te beschermen en de auto mogelijkheden te beperken. Meer kan altijd, ook bij het voertuig.
Geplaatst door: roland | 30 mei 2014 om 20:51
(16)
"Op straat zijn al heel wat maatregelen genomen om de zwakke weggebruiker te beschermen"
Het hangt er maar van af wat je 'heel wat' noemt. Als men de investeringen in maatregelen om de 'sterke weggebruiker' te beschermen en de maatregelen die eigenlijk vooral bedoeld zijn om er voor te zorgen dat de kwetsbare weggebruiker niet in de weg zit van het gemotoriseerd verkeer (maar die vaak wel worden voorgesteld als maatregelen om de kwetsbare weggebruiker in bescherming te nemen) mee in rekening brengt, dan vind ik dat zwaar tegenvallen.
Als ik dan ook nog rekening houd met de honderden mogelijkheden om weggebruikers (kwetsbare of anderen) eenvoudig beter te beschermen die niet genomen worden omdat ze ten koste zouden gaan van wat parkeerplaatsen, van de verkeersdoorstroming of die erg onpopulair zijn (snelheidsbegrenzers in wagens) dan kan ik alleen maar teleurgesteld zijn in de afwegingen die de overheid maakt.
"Een misser in de lucht heeft veel grotere gevolgen dan op de grond, terecht dat in de lucht hogere eisen worden gesteld."
Dat klopt. Maar hoe je het ook draait of keert, het resultaat is dat vliegen (per afgelegde kilometer) nu talloze malen veiliger is autorijden. Daar zijn vragen bij te stellen en de verklaring daarvoor is verre van rationeel. M.a.w. meer dan 3000 doden per dag wordt als redelijk normaal en acceptabel/onvermijdelijk beschouwt, maar als er elke dag een groot vliegtuig zou neerstorten dan zou dat als totaal onacceptabel worden beschouwd.
Geplaatst door: Renaat | 30 mei 2014 om 22:28
(17)
Of optioneel instelbare asociale algoritmes? Enkel op de duurdere modellen? Of asociaal ge-hacked? Zoals en opgedreven motor?
En hoe gaat de verzekering daar dan mee om?
Me dunkt dat deze automatisering van de ethiek bijna onvermijdelijk ook en economisering of valorisering ervan in zich draagt.
Geplaatst door: Marc Portier | 30 mei 2014 om 23:05
(18)
Voor wie het filmpje niet heeft gezien: in het op kosten gebaseerde algoritme wordt de fietser opgeofferd omdat op die manier schade aan twee auto's wordt vermeden.
Het prototype van Google rijdt erg traag, maar zelfrijdende auto's zouden wel eens richting het andere uiterste kunnen evolueren: omdat een computersysteem veel sneller kan reageren dan een mens, zou geautomatiseerd autoverkeer aan hogere snelheden relatief veilig kunnen verlopen. De zwakke weggebruiker is dan opnieuw de pineut.
@ Roland. "Het onderwerp is niet dat het systeem iets niet heeft voorzien, maar bij een voorzien voorval een bepaald besluit neemt."
Ik gaf een antwoord aan Peter, die suggereerde dat robotauto's geen ongevallen meer zouden veroorzaken en dat het ethische dilemma zich dus niet zou stellen.
Geplaatst door: Kris De Decker | 30 mei 2014 om 23:23
(19)
Voor een idee hoe zelfrijdend verkeer zou kunnen uitzien, bekijk ook deze animatie:
http://vimeo.com/37751380
@ Marc Portier
Het is inderdaad niet zeker dat de overheid bepaalt welke algoritmen er beschikbaar zijn. Het kan ook de markt zijn.
En ik zie de internetpagina al voor me: Hack je zelfrijdende auto. Of die van iemand anders.
Geplaatst door: Kris De Decker | 30 mei 2014 om 23:42
(20)
Wat nog niet vermeld wordt is dat computergestuurde auto 's dankzij een betere communicatie ook veel hoffelijker en daardoor efficiënter kunnen zijn. Een elektronisch equivalent van een richtingsaanwijzer bij het invoegen kan door de andere auto's bevestigd worden. Hoffelijkheid kan op die manier zelfs door het algoritme onvermijdelijk zijn.
Geplaatst door: Jürgen Devlieghere | 31 mei 2014 om 09:16
(21)
@Renaat,
Gezien de afgelegde afstand en de bijbehorende snelheid is een vergelijk per km bij vliegen niet zinvol, beter een vergelijk per reisuur.
Een vergelijkbaar aantal slachtoffers bij vliegen is onaanvaardbaar, omdat een groot aantal slachtoffers per keer naar verhouding veel zwaarder telt. Ook speelt het zakelijk belang van de luchtvaartmaatschappijen met een dreigende terugval van het gebruik.
Zeker over 'heel wat' valt te twisten, veiligheidsgordels, helmen e.d. zijn mogelijk juist nadelig voor de zwakke weggebruiker.
Verbetering voor de zwakke weggebruik laat zich moeilijk in kosten uitdrukken. De meest effektieve maatregelen zijn vaak heel goedkoop zoals een lagere snelheid, alkoholverbod e.d. en laten zich deels door boetes bij handhaving betalen. In een aantal gevallen zie je dure weing doelmatige maatregelen om de gemotoriseerd verkeer maar niet teveel te hinderen.
De morele keuze speelt bij overheden veel sterker dan mogelijk bij programmeurs.
Geplaatst door: roland | 31 mei 2014 om 10:32
(22)
"Wat nog niet vermeld wordt is dat computergestuurde auto 's dankzij een betere communicatie ook veel hoffelijker en daardoor efficiënter kunnen zijn. "
Dat kan. Maar om alle elementen in zo'n discussie naar voren te brengen is wel wat meer ruimte nodig. En die andere elementen zijn ook niet uitsluitend positief.
Het effect van een zelfrijdende auto kan ook zijn dat er auto's gaan rondrijden zonder passagiers en dat mensen langere verplaatsingsafstanden gaan afleggen omdat ze in de auto anderen zaken gaan kunnen doen. (Dus een stijging van de gemiddelde woon-werk-afstand is niet uit te sluiten.)
De efficiëntiewinst zou dus best teniet kunnen gedaan worden door een stijging van het autogebruik.
Geplaatst door: Renaat | 31 mei 2014 om 12:10
(23)
"Pittig detail: het eerste wat de software doet, is scannen of er zich in een van de voertuigen vooraanstaande personen bevinden."
Met andere woorden: het leven van een "vooraanstaand persoon" is meer waard dan dat van een doorsnee burger. :n
Geplaatst door: Stormbeest | 02 juni 2014 om 09:57
(24)
Als ik me niet vergis bestaat er dan al niet zoiets als 'inteligente' verkeerslichten die de lichten bedienen aan de hand van sensoren in het wegdek en zo?
Ik kan me voorstellen dat ongevallen op een kruispunt net wel of niet zouden kunnen gebeurd zijn naargelang de 'beslissingen' van de verkeerscomputer?
Geplaatst door: Mathias | 02 juni 2014 om 13:19
(25)
@Mathias,
intelligente verkeerslichten en intelligente auto's zijn toch echt niet te vergelijken. Intelligente verkeerslichten zouden slechts de oorzaak van ongevallen kunnen zijn als ze verkeerd zijn ingesteld of er een technisch probleem is.
Bij 'intelligente' auto's gaat het niet om problemen bij verkeerde programmering of technische problemen. Het gaat om situaties waarin een ongeval onvermijdelijk is en het gedrag van de auto die gerelateerd is aan de keuzes van de programmeur, morele implicaties heeft.
Ik kan me vergissen, maar ik heb de indruk dat je niet zo veel weet van de werking van 'intelligente' verkeerslichten.
Geplaatst door: Renaat | 03 juni 2014 om 13:22
(26)
En als het algoritme nu eens de oplossing kiest die de partij met de verkeersovertreding benadeelt?
In scenario 1 is dat de bus die deels op de verkeerde rijstrook rijdt. In het 2e geval de auto die geen voorrang van rechts verleent.
Dat lijkt me rechtvaardig en logisch en vermijdt dat 'vrije/niet-gestuurde' verkeersdeelnemers de robotgestuurde kunnen pesten/vermoorden. Het zal sociaal rijgedrag belonen en dan moeten we ons niet meer ergeren aan het feit dat bijvoorbeeld de bestuurder die te snel rijdt, meer kans heeft op overleven dan degene die zich aan de snelheidsbeperking houdt (wat een fysische logica is).
Geplaatst door: Jordy | 06 juni 2014 om 20:55
(27)
Op zich een mooi principe, maar vergeet niet dat er ook ongevallen gebeuren waarbij er niemand een overtreding begaan heeft of waarbij beide partijen in overtreding zijn. Het probleem kan daarmee dus hooguit verkleint worden, maar blijft bestaan.
Als het systeem van zelfrijdende wagens vergaand wordt ingevoerd, dan zullen er ook veel minder overtredingen begaan worden. Het relatieve aantal ongevallen waarbij geen overtreding aan de oorzaak ligt zal dan ook behoorlijk toenemen in zo'n situatie.
Overigens is het technisch makkelijker om veel ongevallen te vermijden dan om in te schatten wie er in overtreding is. Dat lijkt misschien eenvoudig en is het in sommige gevallen is het dat ook, maar er zijn ook heel wat regels die sterk afhankelijk zijn van interpretatie. (Denk bij voorbeeld maar aan de voorrang van een overstekende voetganger aan een zebrapad, ook dat is niet absoluut. En hoe gaat een auto de mate van alcoholintoxicatie van een ander bestuurder inschatten?)
Hoe men het ook draait of keert en hoewel ik heel wat voordelen zie in de zelfrijdende auto, er zitten ook heel wat addertjes onder het gras waar men zich maar beter bewust voor is en waar men beter niet te ligt over gaat.
Geplaatst door: Renaat | 06 juni 2014 om 22:19
(28)
Geautomatiseerd verkeer zou pas echt kunnen werken op geprivatiseerde wegen. En die zijn er nauwelijks. Het is wat dat betreft ook niet verwonderlijk dat er in het verkeer zoveel doden vallen. Wanneer een private partij hiervoor verantwoordelijk was, zou deze aan de hoogste boom worden opgehangen. Maar wanneer een overheid verantwoordelijk is, accepteert men het.
Geplaatst door: Benfatto | 15 juni 2014 om 00:23
(29)
@Benfatto,
op wat baseer je je uitspraak dat het enkel kan werken op geprivatiseerde wegen? Want een verdere onderbouwing voor deze sterke uitspraak geef je niet.
Geplaatst door: Renaat | 16 juni 2014 om 17:35
(30)
Volgens mij is er geen wezenlijk verschil tussen goede/slechte beslissingen van menselijke chauffeurs en goede/slechte beslissingen van (door mensen gekozen) algoritmes. Nu wordt (of zou toch moeten) een menselijke chauffeur beboet of aan de kant gezet als hij/zij het te gortig maakt, en in het geval van een zelfsturende auto zou het algoritme dat te agressief, roekeloos, etc. is, beboet of uit roulatie moeten genomen worden. In beide gevallen is de mens die kiest de verantwoordelijke actor: hetzij door het zelf vertonen van idioot gedrag, hetzij door het kiezen van een idioot stuuralgoritme.
Geplaatst door: twanty | 17 juni 2014 om 13:49
(31)
@ Twanty,
er is een wezenlijk verschil dat volgens mij ook in het artikel voldoende duidelijk naar voren komt.
Het gaat hier niet om 'bewust' verkeerd gedrag, het gaat om situaties waar er pijlsnel dient gereageerd te worden om de gevolgen van een ongeval te minimaliseren (wanneer een ongeval onvermijdelijk blijkt).
Als mensen in zo'n situatie belanden is de manier van handelen zuiver reflexmatig en heeft het niets meer met het maken van een doordachte overweging. Een mens kan je bepaald gedrag dat vooraf ging aan zo'n situatie mogelijk verwijten (en dus als fout of goed bestempelen), maar dat gaat niet op dezelfde manier op voor het handelen dat zuiver reflexmatig gebeurt. Voor zover men in die gevallen van en 'goede' of 'slechte' beslissing kan spreken, is dat een kwestie van een afweging achteraf van het resultaat maar heeft dat niets te maken met een beslissing van de bestuurder.
De keuze die een computer op zo'n moment maakt is echter wel doordacht want bepaald door een doordacht algoritme welke aan het systeem werden toegekend. Waar het menselijk handelen dus reflexmatig is, is het handelen van de zelfsturende wagen gebaseerd op oorspronkelijk door de mens ingegeven keuzes.
Geplaatst door: Renaat | 17 juni 2014 om 16:20
(32)
@ Renaat,
Bedankt voor de verduidelijking.
In elk geval is het ethisch dilemma in zo'n geval niet nieuw, en zeer vergelijkbaar met andere situaties waarbij technologie mogelijkheden verschaft die er zonder die technologie niet zouden zijn: ook daar moeten dan soms keuzes worden gemaakt, en het is in elk geval niets wat kan pleiten voor of tegen zelfrijdend verkeer in het bijzonder.
In elk geval bestaat bij het automatiseren van het verkeer dan de mogelijkheid om een logica te hanteren in deze categorie van keuzes ipv van de (in grote mate arbitraire) 'reflex' van een menselijke bestuurder.
Daarom zou ik toch pleiten om de keuze van algoritme over te laten aan de gebruiker van de wagen. Anders worden we nog verplicht om zo'n zelfrijdend systeem te installeren, dat het kan overnemen op het moment dat onze eigen beoordeling niet snel genoeg meer kan om zinvol te zijn. En welk algoritme gaat ons dan worden opgelegd? Het 'zo weinig mogelijk menselijk leed' of het 'zo weinig mogelijk blikschade' algoritme? Dan kies ik liever zelf, of heb ik liever dat andere weggebruikers zelf mogen kiezen, dat boezemt mij het meest vertrouwen in!
Geplaatst door: Twanty | 18 juni 2014 om 11:56
(33)
@Twanty,
ik kan me eigenlijk weinig (geen) andere situaties voorstellen waar machines in situaties terecht komen met zo'n duidelijke keuze tussen schade aan de ene of de andere persoon of schade aan een toestel of mens.
Kan jij vergelijkbare situaties opnoemen?
Ik ben ook absoluut tegen de keuze van de gebruiker voor een bepaald algoritme en erg voor een verplicht systeem voor zelfrijdende auto's. (Nu geen tijd om er dieper op in te gaan, dat doe ik later wel.)
Het kan in ieder geval op termijn op wereldschaal meer dan 1 miljoen slachtoffers per jaar besparen. Ken jij enige andere maatregel in het verkeer die zo'n impact kan hebben of enig ander gebied waarin men een heel beperkte extra vrijheid (er zijn tenslotte al een pak verkeersregels) meer waard vindt dan 1 miljoen mensenlevens?
Geplaatst door: Renaat | 18 juni 2014 om 14:40
(34)
@ Renaat
Dit wordt een interessante discussie! :-)
Ik kan mij heel veel situaties voorstellen, waarbij een algoritme of beslissingsboom (vooraf) moet worden gekozen/vastgelegd door mensen, en waarbij naargelang de keuze de schade op een verschillende plaats komt te liggen. Waarschijnlijk moet je daarvan geen voorbeelden hebben.
Ook van de situatie waarbij de mens door de technologie in staat is om over meer info te beschikken of sneller te zijn dan zonder die technologie kan ik mij heel veel situaties voorstellen, waarbij het algoritme dat in een machine wordt gestopt bepalend is voor de schade die aan mensen wordt toegebracht. Ik denk bijvoorbeeld aan medische beeldvorming: met een bepaald toestel kan je heel veel mensen oppervlakkig scannen, zodat je alle gemakkelijk vindbare tumoren vaststelt bij een groot aantal personen, maar een aantal kleinere of moeilijk zichtbare tumoren bij een kleine groep zeker zult missen. Je kan echter ook grondiger scannen op een kleinere groep, waardoor je zeker andere gevallen zult missen dan in de andere situatie, en bovendien nieuwe tumoren zult veroorzaken door de intensere behandeling.
Ik deel uw bezorgdheid voor de potentieel te redden 1 miljoen slachtoffers, al neem ik dat cijfer nu zonder kennis van zaken van u over. Begrijp me niet verkeerd, ik wil ook graag dat cijfer drastisch zien zakken. Ik betwijfel dus zeker uw goede intentie niet, ik hoop dat je ook mijn goede intentie niet in twijfel trekt.
Maar stel dat je -zoals ik zou voorstellen- alle mensen zelf laat kiezen welk algoritme ze het geschiktst vinden. Ik ben ervan overtuigd dat een overgrote meerderheid voor een verstandig algoritme zal kiezen, dat zeer sterk zal neigen naar "zoveel mogelijk menselijk leed vermijden, ook al staan daar relatief grote economische kosten tegenover". Over de details zullen mss verschillen bestaan, en die details zullen inderdaad soms de ene, soms de andere persoon schade toebrengen. Een heel klein deel mensen zal mss kiezen voor "zo weinig mogelijk blikschade en zoveel mogelijk doden", maar ik ben er gerust op dat dat slechts een heel klein aandeel zal zijn.
Beeld u echter de andere situatie in -zoals u voorstelt, als ik het goed begrepen heb- dat "iemand" (en dat kan dan een kleine groep, of een commissie van experts of zoiets zijn) beslist welk algoritme wordt aangehouden, dan is het aantal mensen dan moet beïnvloed worden door belanghebbenden veel kleiner, waardoor ik de kans veel groter acht dat voor een 'slecht' of 'onmenselijk' algoritme zal worden gekozen of dat het algoritme in die richting evolueert, en dat het dan bovendien nog eens wordt opgelegd aan de mensen die het er niet mee eens zijn.
Als je argumenten hebt, (en tijd om ze te formuleren ;-)), laat ze gerust horen, ik ben benieuwd!
Geplaatst door: Twanty | 18 juni 2014 om 15:56
(35)
Hoe zit het eigenlijk met misbruik van de algoritmes?
Bij het gebruik van het humane algritme rijdt de auto tegen een paal als je er met meer dan 3 tegelijk opzettelijk voor springt. Of ik kan me voorstellen dat bepaalde mensen gewoon de straat oversteken omdat ze weten de alle auto's hen "moeten" ontwijken bij het economische algoritme...
Geplaatst door: Eddie Glorieux | 29 juni 2014 om 13:49
(36)
Bij deze:
Misschien een computer om op partijen te stemmen, aan de hand van het aantal gevallen kanker in Nederland,op basis van toegestane voedingsmiddelen en het gevolg van marktwerking in de zorg? (preventief onderzoek)
Zijn we eindelijk af van heren met parfum, elektrieke auto's en mooie beloften om hun lobbys er bij de arbeiders van het grote geld door te drukken.
Normen en waarden aan de hand van terugkoppeling van statische gegevens is prima.
Geplaatst door: Jan | 04 augustus 2014 om 07:39
(37)
http://www.verkeersnet.nl/15399/de-zelfsturende-auto-een-halve-eeuw-geleden/
Geplaatst door: Renaat | 18 mei 2015 om 21:14
(38)
www.standaard.be/cnt/dmf20150522_01695405
Geplaatst door: Renaat | 23 mei 2015 om 10:38
(39)
http://www.standaard.be/cnt/dmf20150527_01700356
M.a.w. een auto die wel stopt voor anderen auto's maar niet voor voetgangers als sprekend voorbeeld van wat er mis kan lopen bij de zelfrijdende wagen.
Geplaatst door: Renaat | 27 mei 2015 om 20:55
(40)
http://moralmachine.mit.edu/
Geplaatst door: Bart | 23 december 2016 om 16:27