Künstliche Intelligenz Ein Roboter als Versuchskaninchen

Ein Roboter braucht klare Ansagen, sonst funktioniert er nicht. Laut Uni-Experte Daniel Nyga hat künstliche Intelligenz gegenüber einem dreijährigen Kind das Nachsehen – zumindest noch.
20.03.2019, 08:37
Lesedauer: 3 Min
Zur Merkliste
Von Martin Ulrich

Der Olbers-Saal im Haus der ­Wissenschaft war bis auf den letzten Platz gefüllt. Der Vortrag „Roboter und künstliche Intelligenz“ von Daniel Nyga vom Institut für künstliche Intelligenz an der Universität Bremen entpuppt sich als Zuhörermagnet bei „Wissen um 11“. Kein Wunder, die Idee einer Maschine, die einem die Arbeit abnimmt, geistert schon seit der industriellen Revolution durch die kreativen Köpfe der Welt. Der Begriff stammt vom dem tschechischen Wort „Robota“ ab, das so viel wie Zwangsarbeit bedeutet. Moderne Industrieroboter nehmen den Arbeitern die Arbeit allerdings nicht ab, sondern weg. Weshalb manche Menschen diese Maschinen auch als einarmige Banditen bezeichnen. Im allgemeinen Verständnis der Robotertechnik vermischen sich Wahrheit und Science Fiction.

Daniel Nyga nennt die drei Grundgesetze der Robotik, die auf den Science Fiction-Autor Isaac Asimov zurückgehen. Erstens: Ein Roboter darf kein menschliches Wesen wissentlich verletzen oder durch Untätigkeit wissentlich zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. Zweitens, ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. Drittens, ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Die Gesetze sind hierarchisch aufgebaut. Sie bilden den Hintergrund der in „Ich, der Robot“ (1950) gesammelten Science-Fiction-Erzählungen und prägen seither die Auffassung, was und wie ein Roboter sein sollte. Die von Asimov beschriebenen Roboter sind in ihrem Verhalten und ihren Entscheidungen an diese Gesetze gebunden.

Robotik macht beachtliche Fortschritte

Doch so weit, dass Roboter bewusste Entscheidungen treffen können, sind wir noch lange nicht – künstliche Intelligenz hin oder her. Dabei macht die Robotik beachtliche Fortschritte. Menschenähnliche Maschinen können gehen, springen, Dinge aufheben und tragen, und sie stellen sich dabei recht elegant an. Ihr Design ist beeindruckend modern. Sie besitzen glatte Flächen aus strahlendem Kunststoff, verkleidete Gelenke und Laser­-Sensoren, die sie Hindernisse erkennen lassen, denen sie dann ausweichen können.

In der Grundlagenforschung an der Uni­versität Bremen arbeitet man einem Roboter, dem man sagen kann: „Backe mir einen ­Pfannkuchen.“ Der Roboter sucht dann im Internet nach einem Pfannkuchenrezept. Wenn er noch nicht weiß, wie man Pfannkuchen backt, sucht er im Internet nach einem Erklärvideo, wertet es aus und beginnt mit der Arbeit.

Nun gibt es allein bei „Chefkoch.de“ mehr als 100 verschiedene Pfannkuchenrezepte. Welches soll er auswählen? Wie soll er die Rezepte selbst interpretieren und in Handlungsanweisungen umsetzen? Das hat noch nicht viel mit Roboterintelligenz zu tun. Dafür braucht er ein Programm, das ihm klare Handlungsanweisungen gibt. Immer wenn es einen eindeutigen Satz von Regeln gibt, kann eine Maschine auch komplexe Aufgaben so gut oder sogar besser als ein Mensch lösen. Schachprogramme sind ein Beispiel dafür. Auch hier ist keine Maschinenintelligenz am Start, sondern die Intelligenz eines Programmierers. Das gilt auch für selbstfahrende Autos. Auch die folgen einem klaren Satz von Regeln. Allerdings können diese Regeln das System Straßenverkehr nicht vollständig oder korrekt abbilden – sonst würde es nicht zu Unfällen kommen.

Ein pfannkuchenbackender Roboter

So gesehen ist ein pfannkuchenbackender Roboter ein ungefährliches Versuchskaninchen. Das Schlimmste, was ihm passieren kann, ist, dass er ein Ei zerbricht. Das Beeindruckendste an ihm ist, dass er nach menschlichem Vorbild lernt. Wenn er das Kochvideo ansieht, kann er für sich über die Bewegungen des Kochs oder der Köchin die Bewegungen seines Skelettes legen. Die dafür erforderlichen Informationen entnimmt er einer ausgefeilten Wissensbasis, einer Datenbank, die alles Erforderliche enthält. Aus den Bewegungen des Skelettes kann er Handlungsanweisungen für sich ableiten. Ist das schon ein Beispiel für künstliche Intelligenz?

Daniel Nyga hält es für wenig zielführend, philosophische Fragen nach Intelligenz oder Wissen oder Bewusstsein zu stellen. Seine Marschrichtung ist klar, er will Roboter ­weiterentwickeln, sie das Lernen lehren und die künstliche Intelligenz entwickeln. Er sagt auch, dass ein Roboter einem dreijährigen Kind das Wasser nur im wörtlichen Sinne ­reichen kann. Intellektuell ist er dem Kind noch klar unterlegen – aber wie lange noch?

Parallel zur Vortragsreihe „Wissen um 11“ ist im Erdgeschoss des Hauses der Wissenschaft eine Ausstellung über „Robotik und KI (künstliche ­Intelligenz)“ zu sehen. Die Schau ist sorgfältig inszeniert. Lichtstreifen in schwarzen Räumen führen zu Orten des Einblicks, zu kleinen Gucklöchern und Sehschlitzen, durch die man einen Blick auf die Zukunft werfen kann. Nach Voranmeldung können 15 Menschen an einer Führung durch die Ausstellung mit Jens Buttgereit teilnehmen.

Jetzt sichern: Wir schenken Ihnen 1 Monat WK+!
Mehr zum Thema
Lesermeinungen

Das könnte Sie auch interessieren

Das Beste mit WK+