Bremen Stadtteile Osterholz Verden Diepholz Delmenhorst Wesermarsch Oldenburg Rotenburg Cuxhaven Bremerhaven Niedersachsen

Universität Bremen Künstlicher Intelligenz das Denken beibringen

Künstliche Intelligenz, die sich ausschließlich auf Daten stützt, findet Michael Beetz von der Uni Bremen "beschränkt". Wie er und seine Kollegen der KI beibringen wollen, Menschen zu verstehen.
22.07.2023, 05:00 Uhr
Jetzt kommentieren!
Zur Merkliste
Von Björn Lohmann
Inhaltsverzeichnis

Sportmeldungen, Börsennachrichten oder den Wetterbericht? Schreibt längst ein Algorithmus. Seminarkonzepte, einfache Programmierung oder eine Pressemitteilung? Mit der Künstlichen Intelligenz (KI) hinter ChatGPT kein Thema mehr. Selbst Bilder, Videos und Musikstücke erstellen KIs in erstaunlicher Qualität oder suchen eigenständig fürs Auto eine Lücke und parken ein.

„Beschränkt“ und „risikobehaftet“ findet Michael Beetz diese rein datengetriebene Art von KI. Beetz ist KI-Forscher an der Universität Bremen und hat gemeinsam mit Kollegen dort und an den Universitäten Bielefeld und Paderborn das „Joint Research Center on Cooperative and Cognition-enabled AI”, kurz: CoAI JRC, gegründet. Es soll die nächste Generation KIs hervorbringen.

Denn sie wissen nicht, was sie tun

„Technologien wie ChatGPT sind wahnsinnig eindrucksvoll“, findet auch Beetz. ChatGPT lernt aus enorm vielen Daten, einen Text sinnvoll zu vervollständigen. Man müsse sich aber darüber klar sein, dass eine solche KI nicht verstehe, was das für ein Text ist, den sie produziert, und dass sie auch nicht in der Lage sei zu prüfen, ob er richtig ist. „Stochastische Papageien“ sagen viele Fachleute zu solchen KIs. „Das unterscheidet sie davon, wie wir Menschen – insbesondere als Kinder – lernen, wie die Welt funktioniert“, betont der Forscher. Menschen können sich Situationen im Kopf ausmalen, anhand vorhandenen Wissens Vorhersagen treffen und so gänzliche neue Herausforderungen meistern oder aus Fehlern fürs nächste Mal lernen.

Lesen Sie auch

Beetz erläutert diese Art des Lernens am Beispiel eines Vaters, der seinem Kind vorliest: Zunächst klappt der Vater das Buch auf und erklärt, was das Kind dort sieht. Dann liest er die Geschichte vor. Das Kind kommentiert oder stellt Fragen, und der Vater beantwortet und korrigiert. „Ein KI-System, das einem Menschen assistieren soll, muss verstehen, was der Mensch will, erklären, was es nicht verstanden hat, und fragen, was es tun muss, um die Aufgabe richtig zu lösen“, erläutert Beetz. Ko-konstruktiv nennt sich eine solche KI.

KI-Roboter im Haushalt

Bisherige KIs können nur die eine Sache, die sie gelernt haben. AlphaGo, die KI, die besser als jeder Mensch Go spielt, ist nicht einmal in der Lage, jemandem Go beizubringen oder jemanden so gewinnen zu lassen, dass der es nicht merkt. „Wie soll eine solche KI einem Menschen dabei helfen, länger unabhängig zu Hause zu leben, und komplexe Alltagsaufgaben meistern?“, fragt Beetz. Es wäre ja eine tolle Vision, wenn ein bettlägeriger Mensch einem Roboter einfach Aufgaben erteilen könne und nicht warten müsse, bis ein anderer Mensch Zeit fände – dem er vielleicht noch damit auf die Nerven gehe, findet der Forscher. „Wir würden Roboter nutzen wie heute das Auto – einfach als Werkzeug.“

Wie groß die Herausforderung dabei ist, zeigt sich an dem Beispiel, an dem Beetz forscht: einem Roboter, der den Frühstückstisch decken soll. Er muss wissen, wo alles steht, an welche Stelle auf den Tisch Teller, Tasse, Besteck gehören, wo er die Gegenstände anfassen kann und wie fest und vieles mehr. „Uns ist klar, das etwas auf dem Boden landet, wenn wir es loslassen“, sagt Beetz. „Der Roboter weiß nicht, wo die Glaskaraffe dann ist.“ Und auch, aus welcher Höhe und mit welchem Schwung man den Kaffee in die Tasse gießt, macht einen wichtigen Unterschied. Dazu muss der Roboter zunächst Unmengen Allgemeinwissen und Verständnis darüber entwickeln.

Rasantes Lernen dank Roboter-Wikipedia

Ko-konstruktive KIs sollen keine Alternative zu datengetriebenen KIs sein, sondern eine Ergänzung. Auch ko-konstruktive KIs müssen zunächst ganz viel lernen, zum Beispiel aus Internettexten oder aus Videos. So könnte eine KI lernen, wie das Rezept für einen Pfannkuchen lautet. Sie müsste aber fragen, welche Geräte sie benutzt oder wie der Mensch den Pfannkuchen gebraten haben möchte. So, wie Kinder von ihren Eltern das Kochen lernen, muss die KI Fragen stellen können, um zu verstehen, was sie tut; weshalb es beispielsweise falsch ist, dass der Pfannkuchen auf der Unterseite schwarz ist und wie sie das beim nächsten Mal verhindert.

Lesen Sie auch

Eine KI auf diese Weise zu trainieren, klingt unglaublich aufwendig. Der Trick dabei ist, dass KIs ihr erworbenes Wissen und Verständnis teilen können, indem sie eine Art maschineninterpretierbare Wikipedia erzeugen und eine Art Wikihow mit Anleitungen, wie bestimmte Aufgaben am besten zu lösen sind. So baut jede KI auf dem auf, was eine andere schon gelernt hat, anstatt komplett bei null anzufangen. Neue Lernschritte müssen jedoch vom Menschen begleitet werden. „Es soll ja auch so sein, dass der Mensch dem Roboter sagt, was er machen soll, und auch sagen kann: Mach das so und nicht so“, erklärt Beetz.

Ko-konstruktive KI ohne Blackbox

Enthielt das Lernmaterial aus dem Internet Fehler, kann die KI diese schnell ausmerzen: Nur wenn ihre theoretische Simulation der geplanten Handlung plausibel war, wird die KI sie ausprobieren. Dabei überwacht sie sich selbst: Geschieht nicht das Vorhergesehene, stoppt sie und fragt den Menschen nach Hilfe.

Eine solche KI wäre auch keine Blackbox. Denn bisher ist es oft so, dass selbst die Programmierer nicht sagen können, auf welchem Weg eine KI zu ihrer Handlungsentscheidung gelangt ist. Ko-konstruktive KIs hingegen haben einen Plan, den der Programmierer während der Ausführung ansehen und verändern kann. Die KI denkt gewissermaßen darüber nach, was sie tut, und das ist nachvollziehbar. Das ist auch der Grund, weshalb rein datengetriebene KIs für Beetz nicht die Lösung sein können: „Wie kann ich jemandem vertrauen, der gar nicht weiß, was er macht?“

Zur Sache

Was ist CoAI JRC?

Im neuen virtuellen KI-Forschungszentrum bündeln sich drei Kompetenzen: Die Uni Bremen entwickelt Robotersysteme, die verstehen, was sie machen, sich Dinge vorstellen können und sich selbst programmieren. Die Uni Bielefeld arbeitet daran, dass die KI Fragen generieren kann, wenn sie etwas nicht weiß, das sie wissen sollte, und erklären kann, was sie tut. Die Uni Paderborn erforscht, wie diese KIs aus dem Internet die nötige Wissensbasis aufbauen können, und wie verantwortungsvolle KI-Systeme aussehen müssen, die zum Nutzen der Menschen funktionieren. Vom Bremer Forschungslabor soll es zudem einen digitalen Zwilling geben. So können Studenten und andere Forscher in der ganzen Welt mit modernster KI-Robotik arbeiten, die europäischen Werten folgt – offen und transparent.

Zur Startseite
Mehr zum Thema

Das könnte Sie auch interessieren

Rätsel

Jetzt kostenlos spielen!
Lesermeinungen (bitte beachten Sie unsere Community-Regeln)