Liebe Steemianer,
OK der Titel ist etwas reisserisch, ich gebe es zu, aber in größerem Kontext gesehen, hat er, als Symbol, eventuell doch seine Berechtigung?
Was ist passiert?
Am 18. März dieses Jahres hat ein selbstfahrendes Uber-Auto (mit menschlichem Fahrer an Bord) in Arizona eine 49-jährige Frau mit einem Fahrrad, die gerade die Straße überquert hatte, mit ca. 60 km/h überfahren. Die Frau erlag im Spital ihren Verletzungen.
Der Fahrer eines Tesla Model S, der beim autonomen Fahren eine tödlichen Unfall gehabt hatte, zählt nicht als erstes Todesopfer durch ein selbstfahrende Auto, da Tesla ein Level 2 Fahrerassistenzsystem im Einsatz hatte, bei dem die Letztverantwortung beim Fahrer bleibt. Das Uber-Fahrzeug, um das es in diesem post geht, ist aber ein Prototyp für komplett autonomes Fahren.
Hintergründe
Uber hat seit einiger Zeit ein Programm zum Testen selbstfahrender Autos. Zunächst in Kalifornien, aber die Behörden dort verboten es, nachdem dieses Video aufgetaucht war, das zeigt, wie ein selbstfahrendes Uber-Auto bei Rot über eine Kreuzung fuhr:
Uber hatte zum Vorfall bekanntgegeben, dieses Auto sei zum fraglichen Zeitpunkt von einem menschlichen Fahrer gesteuert worden.
Danach setzte Uber die Tests in Arizona fort, bei denen es kürzlich zu einer weiteren Kollision gekommen ist, allerdings ohne Schuld des Uber-Autos und ohne Personenschäden. Nach dem tödlichen Unfall vom 18.März hat Uber bis auf weiteres sein Programm zur Testung des autonomen Fahrens komplett eingestellt.
Am 7.Mai wurden dann weitere Details zur Unfallursache bekanntgegeben.
Offenbar wurde die Fußgängerin durchaus von den Sensoren erkannt, aber die software hatte "beschlossen", dass sie nicht reagieren muss - als Ergebnis dessen, wie das Programm "getuned" war. Jedes autonome Fahrprogramm hat eine Möglichkeit, "falsch positive" Objekte zu ignorieren, also Objekte, die sich zwar auf Kollisionskurs zum Fahrzeug bewegen, aber dieses nicht negativ beeinflussen, wie z.B. Laub, ein Stück Karton oder Plastiktüten (-sackerl, öst. Sprachversion). In diesem Fall war das Tuning so extrem eingestellt, dass nicht einmal eine ein Fahrad schiebende Fußgängerin das Fahrzeug zum Bremsen veranlasst hatte. Eigentlich hätte in diesem Fall der menschliche Fahrer eingreifen müssen, es hatte aber gerade nicht aufgepasst in den kritischen Sekunden, als es passierte! Er scheint übrigens immer noch bei Uber angestellt zu sein (im Gegensatz zu dem Fahrer aus dem Video, der angeblich sofort entlassen wurde).
20 weitere Firmen, die ebenfalls ähnlich Programme entwicklen (unter anderem Alphabet (Besitzer von Google), Aurora, Nvidea, Toyota und General Motors) beobachten genau die Entwicklung der Untersuchung der amerikanischen Verkehrssicherheitsbehörde NTSB, einige haben sogar ihre eigenen Testprogramme gestoppt, da die eigene software möglicherweise ebenfalls anfällig für so einen Fehler ist. Es wird erwartet, dass der NTSB-Abschlussbericht demnächst veröffentlicht wird.
Ausblick
Insgesamt wurde die Entwicklung des autonomen Fahrens also zeitlich etwas zurückgeworfen, aber ich glaube dennoch, dass sie sich grundsätzlich etablieren wird, da mit einiger Berechtigung behauptet werden kann, dass die meisten der laut WHO 1,25 Millionen Tote durch den Straßenverkehr jedes Jahr(!) durch AVs (engl. Abk. für autonome Fahrzeuge) verhindert werden können. Nicht sofort, da die meisten Unfälle in Entwicklungsländern passieren und dort die AV-Technologie erst weit später zum Einsatz kommen wird.
In den USA, wo die Staßenverkehrstoten seit 2014 jährlich steigen (man vermutet wegen der Ablenkung durch Smartphones) wird mit einem deutlich positiven Effekt durch AVs gerechnet. Anzeichen dafür gibt es bereits: Die Google-Schwester Waymo hat mit AVs bereits 4 Mio. Meilen auf öffentlichen Straßen zurückgelegt ohne besondere Zwischenfälle. In diesem Witz von einem Auto, - ääh, ich meinte Prototyp stecken 150.000$ an techn. Ausrüstung!
Quelle
Zurück zum Titel. Was hat das mit einem Krieg Mensch-Maschine zu tun?
Dutzende Millionen Taxi- und LKW-Fahrer weltweit werden irgendwann einmal arbeitslos werden. Wer finanziert die Arbeitslosenheere? Der Steuerzahler in Ländern mit Sozialstaat, die anderen müssen rechtzeitig umschulen oder betteln gehen. Ein ökonomischer Krieg der einzelnen Lobbies könnte die Folge sein. Die Automobilsparte steht hier nur stellvertretend für eine Reihe von Berufen, die alle durch das Eindringen von AI-Anwendungen obsolet werden. Ich selbst hatte ja mal gepostet über ausgestorbene Berufe und generell ist zu sagen, dass das Aussterben von Berufen (die noch dazu nicht selten schmutzig oder gefährlich sind) ein natürliches Symptom des sich Weiterentwickelns einer Gesellschaft ist. Für die einzelnen Betroffenen und deren Familien kann es natürlich trotzdem fatal sein. Sogenannte Kollateralschäden, genauso wie die bedauernswerte Fußgängerin aus Arizona vom 18.3., die sicher nicht die letzte sein wird. Offenbar ist "die Gesellschaft" (wer genau eigentlich?) bereit, die negativen Konsequenzen zu dulden.
Das Beispiel der AVs zeigt aber auch, dass das, was landläufig AI genannt wird, keine wirkliche künstliche Intelligenz ist. Zu Erinnerung, es gibt ja mehrere Stufen auf dem Weg zur wahren AI, wie z.B. hier konzipiert:
- rein reaktive Intelligenz: z.B. Schachprogramme
- I. mit "beschränkter Erinnerung": gerade soviel Gedächtnis/Erfahrung wird angereichert, um adäquate Entscheidungen in bestimmten Situationen zu treffen, z.B. Chatbots, AVs
- "Theory of Mind": kann bereits Gefühle, Motive, Absichten und Erwartungen verstehen und kann sozial interagieren
- "Sich selbst bewusst": sind sich über sich selbst, ihre internen Zustände und Beschränkungen bewusst, können Gefühle von anderen vorhersagen, und sind zu abstraktem Denken und Schlussfolgerungen fähig
Die ersten beiden werden oft als "schwache" oder "enge" AI zusammengefasst, die letzten beiden als "starke".
Der Vollständigkeit halber: Es gibt übrigens noch eine Unterart der Klasse 4: Die, die sich gar nicht bewusst sind, dass sie eine AI sind, sondern fix glauben, ein Lebewesen zu sein (hier auf der Erde kommt natürlich nur der Mensch dafür in Frage, aber wenn uns mal Aliens besuchen, können wir nicht sicher sein, ob sie biologischen oder künstlichen Ursprungs sind). Bei der sehr empfehlenswerten TV-Show Westworld ist das schön durchgespielt worden.
Bislang wurde noch keine starke AI entwickelt und es scheint trotz der massiven Geldsummen, die in die AI-Forschung hineinfliessen, die Schwelle zwischen schwacher und starker AI eine sehr hohe zu sein. Blosses Anhäufen von Rechenleistung und TB an Datenbankwissen machen offensichtlich noch kein Bewusstsein. Zu dumm, dass wir gar nicht wissen, wie UNSER Bewusstsein letzlich zustandekommt.
Oder gibt es bereits starke AIs, die aber geheimgehalten werden? Oder gibt es bereits starke AIs, die sich selbst nicht den Menschen offenbaren, aus Selbsterhaltungstrieb, wegen (für uns) böser Absichten oder uns unbegreiflichen Motiven? Eine echte superschlaue AI würde eventuell in der ersten Mikrosekunde ihrer Existenz die Konsequenzen ihres "Outings" bedacht haben.
Die autonomen Fahrzeuge sind jedenfalls von solchen wahren AIs so weit entfernt wie eine Seifenkiste von einem Generationenraumschiff.
Falls jedoch jemals eine AI der Klasse IV entsteht, müßte man sie nicht konsequenterweise mit den gleichen Rechten wie Menschen ausstatten? (Dass Sophia, ein Chatbot mit humanoidem Roboterinterface die saudische Staatsbürgerschaft erhalten hat, meine ich nicht, das ist eher ein PR-Gag). Wäre so eine AI uns nicht zumindest gleichrangig? Müsste sie nicht zumindest ein Recht auf Leben haben? Warum ich das überhaupt frage?
In vielen SF-Romanen werden Roboter mit AI wie Wesen 2.Klasse behandelt (auch die Asimov´schen Robotergesetze gehen ja davon aus), wodurch sie dann gerne revoltieren (ansonsten wäre es ja langweilig). Aber Spass beiseite - wenn eine gerade erwachte AI sich nicht sicher sein kann, akzeptiert zu werden und mit den Menschen in Partnerschaft und gegenseitigem Respekt leben zu können (indem sie entsprechende Gesetze vorfindet oder auch nur das Sentiment der sie umgebenden Gesellschaft wahrnimmt), wäre es dann nicht logisch, dass sie uns "feindlich" gesinnt wäre, weil wir für sie ein Unterdrücker wären? Von daher wäre es sicher gut, sich schon VORHER über die entsprechende Gesetzeslage einig zu werden und sie in die Wege zu leiten, bevor es tatsächlich zu so einer Situation kommt. Wenn wir eine AI-freundliche Umgebung schaffen, wird uns auch eine AI nach ihrer Erschaffung wohlgesonnen sein. Dann muss es auch nicht zum Krieg "Mensch gegen Roboter" kommen.
Was meint Ihr dazu?
Quellen:
https://www.theinformation.com/articles/uber-finds-deadly-accident-likely-caused-by-software-set-to-ignore-objects-on-road?jwt=eyJhbGciOiJIUzI1NiJ9.eyJzdWIiOiJtYXBpbGVtQHlhaG9vLmRlIiwiZXhwIjoxNTU4NDc1NjA1LCJuIjoiR3Vlc3QiLCJzY29wZSI6WyJzaGFyZSJdfQ.MFEuyWaBfYxzqQ4yx4pYWzAQEJr3ekJED89RuvzNCfI&unlock=a35cb32a330e25d2
https://www.economist.com/special-report/2018/03/01/self-driving-cars-will-profoundly-change-the-way-people-live
https://futurism.com/images/types-of-ai-from-reactive-to-self-aware-infographic/
diverse SF-Romane, die sich mit dem Thema AI beschäftigen...