Interview
ChatGPT vs. kluge Roboter: Ein Bremer Experte erklärt den Unterschied
Der Bremer KI-Forscher Michael Beetz entwickelt Roboter mit Intuition. Was diese besser können als ChatGPT, verrät er an einem eindrücklichen Beispiel.
Künstliche Intelligenzen wie ChatGPT sind derzeit in aller Munde. Gleichzeitig hat die Forschung zu intelligenten Robotern an der Uni Bremen einen herausragenden Ruf. Der Leiter des Instituts für künstliche Intelligenz an der Universität Bremen, Michael Beetz, erklärt, wie er und sein Team KIs wie ChatGPT nutzen, um intuitiv handelnde Roboter zu erschaffen.
Herr Beetz, was unterscheidet ChatGPT von der künstlichen Intelligenz, die Sie für Ihre Roboter entwickeln?
Das kann man vielleicht an einem Beispiel erläutern. Wenn man ChatGPT vor einigen Monaten gefragt hat, wie man einen breiten Tisch durch eine schmale Tür bekommt, hat das System vorgeschlagen, rechts und links neben der Tür Löcher in die Wand zu schneiden, damit der Tisch hindurchpasst. Das liegt daran, dass ChatGPT sich nicht vorstellen kann, welche Konsequenzen eine solche Lösung hätte.
Wie lässt sich denn verhindern, dass Roboter Löcher in Wände hauen?
Im Gegensatz zum gedankenlosen Wiedererkennen geht es uns um das Interpretieren. Wir Menschen sprechen davon, etwas vor dem geistigen Auge zu sehen. Wenn ich als Mensch vor meinem geistigen Auge ein Loch in die Wand haue, um einen Tisch hindurchzubekommen, dann merke ich schnell: Mist, ich würde so ja die Wand kaputt machen. Etwas mental zu simulieren und in der Lage zu sein, daraus Schlussfolgerungen zu ziehen, ist ein mächtiger Apparat, der uns davor schützt, Dummes zu tun. An einem solchen System für Roboter forschen wir.
Und wie machen Sie das?
Wir nutzen zum Beispiel Game Engines, mit denen sonst Computerspiele entwickelt werden. Mit ihnen ist es möglich, virtuelle Welten zu erschaffen, in denen fotorealistisch sehr komplexes Verhalten simuliert werden kann. Wir haben unser Forschungslabor als Game-Engine-Umgebung realisiert – mit einem unserer Roboter als Avatar darin. Mit dem gleichen Programm können wir unsere Roboter in der realen Welt steuern.
In der Industrie würden wir von einem digitalen Zwilling sprechen, der die reale Maschine und ihre Umwelt komplett virtuell darstellt.
Ja, das ist genau die Idee. Wir nennen das aber einen semantischen digitalen Zwilling.
Und was ist der Unterschied?
Sie kennen ja den Siri-Agent auf dem iPhone?
Ja. Also praktisch ein Frage-Antwort-System. Wie nutzen Sie dieses System?
Nun, wir als Menschen kriegen immer sehr vage Aufgaben. So etwas wie: Deck den Tisch. Die Maschine muss jetzt erst einmal wissen, was ein Tisch ist, wie ein gedeckter Tisch aussieht und was in der konkreten Situation zu einem gedeckten Tisch noch fehlt. Er muss auch wissen, wo er diese Dinge finden kann, wie er sie in die Hand nimmt und wo er sie auf den Tisch stellen muss.
In einem semantischen digitalen Assistenten kann der Roboter solche offenen Fragen stellen. Zum Beispiel: Was für ein Objekt fehlt auf dem Tisch? Die Antwort des Systems lautet dann: Die Tasse. Die nächste Frage des Roboters lautet dann zum Beispiel: Wo kann ich eine Tasse finden? Und das System antwortet ihm: Im Schrank. Wie mache ich denn den Schrank auf, würde der Roboter dann vielleicht fragen. Und auch darauf gibt ihm das System eine Antwort.
Wie weit sind Sie mit Ihrem semantischen digitalen Zwilling?
Wir sind auf einem guten Weg. Man muss aber auch sagen, dass zu verstehen, wie das Gehirn in der Lage ist, Bewegungen so zu steuern, dass man Aufgaben erfüllt, wahrscheinlich die größte wissenschaftliche Herausforderung ist, die wir haben. Menschen sind die einzigen, die das können. Und wir brauchen selbst schon sehr lange, dass zu lernen. Das ist ein fantastischer, wahnsinnig ausgefeilter Prozess.
Der Europäische Forschungsrat traut Ihnen diese Herausforderung offenbar zu. Sie wurden jüngst mit dem Forschungspreis "Advanced Grant" ausgezeichnet. Er ist mit Forschungsgeldern in Höhe von 2,5 Millionen Euro verknüpft. Fahren Sie jetzt neuerdings alle mit dem Porsche zur Uni?
Ja, schön wär’s. Wir haben da tatsächlich persönlich gar nichts davon. Das, was wir machen dürfen, ist ein Forschungsprojekt durchzuführen, das als groundbreaking und high risk gilt…
…also grob übersetzt als bahnbrechend und zugleich kaum umsetzbar.
Genau. In unserem Fall geht es darum, dass ein Roboter, wenn er neue Aufgaben bekommt, in die Lage versetzt werden soll, sich diese Aufgaben vorzustellen und eine Intuition zu entwickeln, ob es klappen kann oder nicht. Oder anders formuliert: Ein ChatGPT, das versteht, was es macht. Und die Kommission hat am Ende entschieden, dass sie uns das zutraut.
Ihren Ruf als Forscher haben Sie sich in mittlerweile vier Jahrzehnten erarbeitet. Die Roboter, mit denen Sie arbeiten, tragen Namen wie "Boxy", "Pepper" und "PR 2". Wen von denen mögen Sie am liebsten?
Der "PR 2" ist ein Roboter, der mit 15 Jahren schon sehr alt ist. Er wurde damals für die Forschungsgemeinschaft entwickelt und zwölf Laboren weltweit zur Verfügung gestellt. Sie sollten damit die offene Forschung vorantreiben. Das heißt, die Programme, die man geschrieben hat, wurden mit der Forschungscommunity geteilt. Er ist mein Lieblingsroboter, weil er sehr fähig ist und gleichzeitig für eine bestimmte Art steht, Forschung zu betreiben.
"PR 2" kann ja zum Beispiel Popcorn machen. Was unterschiedet ihn von "Pepper" und "Boxy"?
Pepper ist in der Robotik eigentlich das, was ChatGPT ist. Der macht im Wesentlichen choreografierte Bewegungen, um mit Menschen in Interaktion zu treten. Den Kontext, in dem etwas passiert, erkennt er nicht.
Und Boxy heißt so, weil er wie ein Kasten aussieht. Das ist ein Roboter, der wahnsinnig gute Arme hat, die sehr genau gesteuert werden können. Das ist für uns eine Plattform, mit der man zum Beispiel kleine Mahlzeiten zubereiten kann.
Also der kleine Bruder von "PR 2"?
Eher der große und ungelenke Bruder mit hochgezüchteter Technologie. Der "PR 2" ist dagegen eher der Alltagsroboter.
Könnte der Ur-ur-ur-Enkel von "PR 2" irgendwann die Art von Alltagsroboter sein, die heute schon durch Science-Fiction-Filmen aus Hollywood spaziert?
Es ist an uns, das zu entscheiden. Das ist der Grund, weshalb solche Forschung in Universitäten und öffentlichen Forschungseinrichtungen gemacht wird – und nicht nur in den Hightech-Firmen.
Viele Experten haben im Zuge der Debatte um ChatGPT ein Moratorium für KI-Forschung ins Spiel gebracht. Halten Sie es für sinnvoll, die KI-Forschung zu pausieren?
Wichtig für mich ist, dass Forschung offen geschieht und dass die Öffentlichkeit weiß, woran geforscht wird. Dazu gehört auch, Meinungen von Ethik- und Sozialforschern einzuholen, was Potenziale und was Risiken sind – und wie man damit am besten umgehen sollte. Wir wissen ja, dass praktisch jede Technologie, die Fortschritt bringt, immer auch ein Dual-Use-Risiko hat…
…also zum Beispiel die Kernspaltung, die Energiegewinnung durch Atomkraft und zugleich den Krieg mit Atombomben möglich gemacht hat.
Ja, dem kann man nicht entgehen. Aber es ist unsere Aufgabe, insbesondere, wenn wir an Universitäten sind, Studenten und Nachwuchswissenschaftler so auszubilden, dass sie sehr bewusst mit diesen Risiken umgehen.
Robotik wird schon heute für militärische Anwendungen genutzt. Können Sie verhindern, dass Ihre Forschungsergebnisse in diesem Kontext verwendet werden?
Natürlich machen wir keine Waffenforschung. Aber wir wissen auch, dass wir das nicht verhindern können. Einerseits brauchen wir zum Beispiel Drohnen, um nach Naturkatastrophen Überlebende zu finden und zu retten. Wenn Sie andererseits an so eine Drohne ein Gewehr dranbauen und damit Menschen umbringen wollen, dann ist es die gleiche Technologie. Wir wissen alle, was Drohnen im Ukraine-Krieg anrichten.
Dieses Thema im Programm: buten un binnen, 25. April 2023, 19:30 Uhr