Selbstlernende Roboter und autonome Fahrzeuge: Die Zukunft ist intelligent


„Intelligente Zukunft“ ist das Reihenthema des Junior Science Cafés im Schuljahr 2019/2020. Was erwartet uns in 10, 30 oder 100 Jahren: Wie realistisch sind zum Beispiel Autos, die uns zur Arbeit fahren, und Roboter, die uns operieren? Und was ist dran an der Gefahr einer Superintelligenz, die der Mensch nicht mehr kontrollieren kann?
 

 
Foto: geralt / pixabay.com

Wir schreiben das Jahr 2035. Spooner ist auf dem Weg nach Hause. Im überfüllten Chicago läuft er an einem Roboter vorbei, der mit Hunden Gassi geht. In einer Nebenstraße laden vier Roboter Mülltonnen in den Wagen. Eine Ecke weiter liefert ein Roboter Pakete ab. Und wenn Spooner später ins Auto steigt, dann braucht er nur sein Ziel zu nennen und die Reifen rollen los, während er seine Arbeitsunterlagen auspackt.

Diese Szene stammt aus dem Science-Fiction-Film „I, Robot“ von 2004. Ja, es ist ein Hollywood-Blockbuster. Und ja, es ist so eine Sache mit Zukunftsszenarien aus Filmen und Büchern. Wir erinnern uns an „Zurück in die Zukunft“ – und warten bis heute noch auf fliegende Autos und Hoverboards. Doch wie steht es um autonome Fahrzeuge und Helfer-Roboter? Welche Technologien könnten in absehbarer Zeit kommen? Und über welche Chancen und Risiken sollten wir uns dringend Gedanken machen? In diesem Blogartikel haben wir versucht, einige Entwicklungen zu skizzieren, die die Welt von morgen prägen könnten.

Künstliche Intelligenz und selbstlernende Systeme: Eine kurze Erklärung

Sprechen wir von der intelligenten Zukunft, dann sollten wir über einen Begriff reden, der derzeit in aller Munde ist: künstliche Intelligenz (KI). Darunter verstehen wir grob Technologien zur Erschaffung von Maschinen, die Probleme bearbeiten, welche zuvor der Mensch mit seiner Intelligenz gelöst hat. Die künstliche Intelligenz ist keine neue Erfindung. Schon im 17. Jahrhundert hatte René Descartes die Vision von selbstständig denkenden Maschinen. Geprägt wurde der Begriff „künstliche Intelligenz“ in den Fünfziger Jahren des vergangenen Jahrhunderts. Nach einer Phase der Euphorie stießen die Fachwelt – und die Kapazität der Computer – jedoch bald an ihre Grenzen. Erst um die Jahrtausendwende erreichten Computer die erforderliche Verarbeitungsgeschwindigkeit und Speicherkapazität, um die KI weiter zu entwickeln. 

Die meisten sogenannten KI-Anwendungen heutzutage basieren auf dem Prinzip des maschinellen Lernens. Das System lernt mithilfe von Beispielen und Feedbacks, seine eigene Lösung zu finden. Stark vereinfacht können wir uns das so vorstellen: Ein Computer erhält zum Beispiel die Aufgabe, Hunde zu erkennen. Dazu zeigt man ihm zuerst tausende Hundebilder. Aus diesen Daten identifiziert er nach und nach Eigenschaften des Hundes wie Fell, vier Beine, Position der Augen usw. und erstellt am Ende ein Modell, anhand dessen er einen Hund erkennen kann. Dieses Modell testet der Computer nun mit Millionen Trainingsdaten – also Fotos von Hunden und anderen Tieren. Je nachdem, ob er richtig oder falsch liegt, wird das Modell korrigiert und fortwährend verbessert.

Inwiefern man diese selbstlernenden Systeme als „intelligent“ bezeichnen kann, ist schwierig zu beantworten. Denn was Intelligenz wirklich bedeutet, darin ist sich die Wissenschaft bis heute nicht einig.

Vom Alltagsassistenten zum autonomen Fahrzeug – Einsatzmöglichkeiten von KI

Bereits heute finden wir künstliche Intelligenz in unserem Alltag, oft sind wir uns dessen nur nicht bewusst. So stecken in Google Translate, im digitalen Schach oder in der Musikempfehlung von Spotify intelligente Systeme. Wir üben mit Amazons Sprachassistentin Alexa Zungenbrecher, lassen sie das Licht dimmen oder eine Netflix-Serie einschalten. In nicht allzu ferner Zukunft werden ähnliche Systeme in der Lage sein, unseren Urlaub zu planen, Waschmittel automatisch nachzubestellen und unsere Steuererklärung auszufüllen. Und wann können wir in einem Auto sitzen, das ganz alleine fährt? 

Die Rede ist vom autonomen Fahrzeug. Von autonomen, vernetzten Fahrzeugen erhoffen Experten sich weniger Unfälle und weniger Stau. Noch ist die Technik aber nicht ausgereift. Ethische und rechtliche Fragen sind noch nicht geklärt: Wie soll das selbstfahrende Auto im Fall eines Unfalls entscheiden? Können wir diese Frage überhaupt beantworten, oder ist sie – da extrem selten zu beantworten – in der Praxis kaum relevant? Und wer haftet bei einem Unfall – der Fahrer, die Programmiererin oder die Hersteller?

Auch in der Medizin setzen viele Hoffnung in maschinelles Lernen. Schon heute werten intelligente Systeme in der Radiologie Bilder aus und suchen nach Anomalien. An der Universität Leipzig entwickeln Wissenschaftler einen Operationssaal der Zukunft: Die KI verfolgt die Operation mit, erkennt automatisch, was die Chirurgin als Nächstes tun wird und kann vor Risiken warnen und Alternativen anzeigen. 

Um diese und andere Technologien weiterzuentwickeln, brauchen selbstlernende Systeme große Datenmengen. Der Zugang zu den Daten ist im Gesundheitsbereich besonders kompliziert, da diese – aus sehr guten Gründen – besonders gut geschützt sind. Daher wirft der Einsatz von KI auch in der Medizin neben technischen auch rechtliche Fragen auf.

Forscherinnen und Forscher sind sich einig: Eingebettet in physische Maschinen wie Autos, Drohnen und Roboter, werden selbstlernende Systeme unsere Zukunft mindestens so sehr prägen, wie einst der elektrische Strom. Im Idealfall sind sie für die Menschen nützliche Werkzeuge und erledigen gefährliche Tätigkeiten oder monotone Arbeiten. „Wir kommen dem Schritt sehr viel näher, die Menschheit von der menschenunwürdigen Arbeit zu befreien“, sagt Robotik-Forscher Sami Haddadin von der Technischen Universität München. Wichtig ist jedoch auch darüber nachzudenken, inwieweit wir intelligente Systeme in kontrovers diskutierten Anwendungsbereichen, etwa bei Militäreinsätzen oder bei der Verbrechensbekämpfung, einsetzen wollen.

Die Arbeitswelt der Zukunft

Selbstlernende Roboter im Katastrophenschutz, Diagnose-Assistenten in der Medizin und autonomes Fahrzeug auf der Straße: Das hört sich gut an. Doch was macht der Busfahrer, wenn der Bus eines Tages autonom fährt? Brauchen wir noch menschliche Anwälte oder Sachbearbeiter, wenn die Technik es besser kann? Die Diskussion über den Einsatz selbstlernender Systeme wird oft emotional, wenn es um die Frage der Arbeitsplätze geht.

Inwiefern Arbeitsplätze durch KI-Anwendungen in der Zukunft wegfallen und was das für die Menschen bedeutet, dazu gibt es unterschiedliche Studien und Meinungen. Die Forscher C.B. Frey und M.A. Osborne von der Oxford University haben 2013 den US-Arbeitsmarkt untersucht und prognostiziert, dass in den nächsten 20 Jahren fast die Hälfte der Arbeitsplätze durch Computerisierung bedroht ist. Die Frage, welche Jobs wir der KI überlassen, muss in der Gesellschaft diskutiert werden. „Selbst, wenn wir Maschinen dazu bekommen könnten, sie (die Arbeit) zu erledigen, selbst wenn sie darin besser wären als Menschen, sollten wir das nicht tun, denn wir würden dadurch etwas Zentrales von unserer Menschlichkeit verlieren“, sagt etwa Toby Walsh, Professor für Künstliche Intelligenz an der New South Wales University. Wichtig ist es daher, jetzt darüber zu diskutieren, wie wir unsere zukünftige Arbeitswelt gestalten wollen, wie wir Arbeit verteilen und inwiefern Konzepte wie etwa das Bedingungslose Grundeinkommen sinnvoll sind.

Der maschinelle Makel, der ein menschlicher ist

Auf welche Art und Weise wir künftig intelligente Systeme auch einsetzen, wir sind gut beraten, ihnen nicht blind zu vertrauen. 

2014 entwickelte Amazon in den USA eine Software, die mit Hilfe eines lernenden Algorithmus die eingegangenen Bewerbungen auswerten sollte. Es stellte sich heraus, dass die Software Bewerbungen von Frauen aussortierte. Dieser Fall ist nur ein Beispiel für Diskriminierung durch KI. Ein Algorithmus, der Richterinnen und Richter bei der Entscheidung unterstützen sollte, welche Häftlinge vorzeitig entlassen werden sollten, brachte Dunkelhäutige mit einer hohen Rückfallwahrscheinlichkeit in Verbindung. Was war passiert?

Ein selbstlernendes System lernt aus Daten, die der Programmierende ihm gibt. Sind diese Trainingsdaten einseitig bzw. enthalten sie diskriminierende Muster, spiegelt das System diese wider. Die Software hatte also unabsichtlich Bewerbungen von Frauen diskriminiert, weil sie zuvor mit erfolgreichen Bewerbungen – hauptsächlich von Männern – gefüttert wurde. Das „erlernte“ Vorurteil ist umso gefährlicher, weil die Systeme diese nicht offenlegen. Die Lernvorgänge bei selbstlernenden Systemen sind oft sehr komplex. Im Forschungsfeld „explainable AI“ (erklärbare KI) versuchen Wissenschaftlerinnen und Wissenschaftler deshalb, Prognose-Systeme so zu gestalten, dass sie ihre Entscheidungen begründen können und uns ermöglichen, in die Blackbox der Maschine reinzuschauen. 

Bleibt zum Schluss die Frage: Wenn Computer immer mehr können, werden sie uns irgendwann überflügeln – oder sogar vernichten?

Kommt die Superintelligenz?

V.I.K.I. ist ein zentraler Computer und kontrolliert die Infrastruktur von Chicago. Er hat die Aufgabe, die Menschheit zu beschützen. Als der Computer sieht, wie Menschen anderen Menschen wehtun, kommt er zu dem Schluss: Er muss die Menschheit vor sich selbst retten – indem er die Kontrolle übernimmt. 

Auch V.I.K.I. stammt aus dem Film „I, Robot“, der bereits am Anfang dieses Beitrags erwähnt wurde. Der Film zeigt das Horrorszenario der Superintelligenz, die sich eines Tages gegen den Menschen wendet. Nick Bostrom, Professor für Philosophie an der Oxford University, warnt vor dieser Zukunft: In seinem Buch „Superintelligenz“ beschreibt er ein Szenario, in dem selbstlernende Systeme bald schlauer werden als die Menschen und ihre Intelligenz exponentiell wächst. Diese und ähnliche Theorien sind in der Fachwelt jedoch umstritten. Mehr als 20 Expertinnen und Experten einer groß angelegten Studie der Stanford University halten sie für die nahe Zukunft für sehr unwahrscheinlich: Es gebe keinerlei Anzeichen dafür, dass KI eine unmittelbare Gefahr für die Menschheit darstelle. Es wurde bisher keine Maschinen entwickelt, die eigene langfristige Ziele und Absichten verfolgen. Auch sei es unwahrscheinlich, dass dies in naher Zukunft passiere, so die Wissenschaftler. Die Fähigkeit zu echten Innovationen gebühre (vorerst) den Menschen. Realistische Risiken sehen Forscherinnen und Forscher woanders – etwa in einer Datenmonopolisierung großer IT- Konzerne, darin, dass Individuen KI-Technologien manipulieren oder Regierungen sie missbrauchen könnten

Die intelligente Zukunft steht vor der Tür. Umso wichtiger, dass Wissenschaft, Politik und Gesellschaft die damit verbundenen Entwicklungen begleiten und Chancen und Risiken diskutieren, so dass die Zukunft nicht nur intelligent, sondern auch human und nachhaltig wird.
 

 


13. September 2019, 12:00      Thuy Anh Nguyen      Reihenthema

Kommentare

Datenschutzhinweise: Wir speichern beim Kommentieren keine IP-Adressen. Weitere Informationen finden Sie in unserer Datenschutzerklärung.