ASARoB: Aufmerksamkeitssensitiver Assistenzroboter

© Fraunhofer IPA
Wenn Assistenzroboter wie der Care-O-bot 4 dem Menschen hilfreich zur Seite stehen sollen, müssen sie grundlegende Fähigkeiten der zwischenmenschlichen Interaktion beherrschen.

In Kürze

Ziel des Forschungsprojekts »Aufmerksamkeitssensitiver Assistenzroboter« (ASARob) ist es, neue Fertigkeiten für interaktive Assistenzroboter zu entwickeln, sodass diese den Aufmerksamkeitszustand ihres Gegenübers erfassen und bei Bedarf durch ihr Verhalten auch beeinflussen und lenken können. Die Umsetzung erfolgt auf dem Assistenzroboter Care-O-bot 4 anhand von zwei praxisnahen Anwendungsszenarien.

 

Im Detail

Wenn Assistenzroboter wie der Care-O-bot 4 dem Menschen im Alltag hilfreich zur Seite stehen sollen, müssen sie grundlegende Fähigkeiten der zwischenmenschlichen Interaktion beherrschen. Um eine angenehme und effektive Unterstützung zu gewährleisten, ist eine fehlerrobuste und erwartungskonforme Interaktion des Roboters mit dem Menschen essentiell. Dafür werden im Projekt »Aufmerksamkeitssensitiver Assistenzroboter« (ASARob) Funktionen entwickelt, die es einem Roboter ermögichen, zu erkennen, worauf sich die Aufmerksamkeit des Nutzers richtet und welche Absicht er verfolgt. Dies bedeutet für den Roboter nicht nur, Personen im Raum erkennen zu können, sondern auch andere visuelle Informationen korrekt auszuwerten, zum Beispiel Blickrichtung, Kopfdrehung oder Körperhaltung einer Person. Hinzu kommen verbale Äußerungen.

Zur Lenkung der Aufmerksamkeit des Nutzers und um den Dialog mit ihm aufrecht zu halten, werden Sprache, Licht und Bewegungen (mobile Plattform, Oberkörper, Arme und Greifer) des Roboters eingesetzt. Am Beispiel des Care-O-bot 4, der speziell für die Interaktion mit und die Unterstützung von Menschen in alltäglichen Situationen entwickelt wurde, werden die Forschungsergebnisse in der Praxis umgesetzt. Dabei werden Szenarien zur Personenführung in Kliniken und weiteren öffentlichen Einrichtungen sowie für die Aktivierung von Bewohnern in der stationären Pflege betrachtet, zum Beispiel indem er den Konsum von Unterhaltungsmedien anspricht und diese bei Bedarf anreicht.

Projektpartner

 

Verbundkoordinator

Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (IOSB), Karlsruhe

 

Partner

  • Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA), Stuttgart
  • Fraunhofer-Zentrum für Internationales Management und Wissensökonomie (IMW), Leipzig
  • Universität Bremen
  • Unity Robotics GmbH, Waldenbuch
  • SemVox GmbH, Saarbrücken

Projektübersicht

 

Projektlaufzeit  11/2017 - 07/2020
Projektvolumen 2,34 Mio. EUR (davon 85% Förderanteil durch BMBF)

 

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: http://www.youtube.com/t/privacy_at_youtube

Das Video zeigt die Ergebnisse des Projekts ASARob. Darin haben Forscher neue Fertigkeiten für interaktive Assistenzroboter entwickelt. Diese können insbesondere den Aufmerksamkeitszustand ihres Gegenübers erfassen und bei Bedarf durch Verhalten und Interaktion beeinflussen. Insbesondere wurden Methoden entwickelt, die es dem Roboter ermöglichen, über unterschiedliche Kommunikationskanäle (textliche, auditive, sprachliche, räumliche und visuelle) die Aktivitäten einer Person zu erkennen und worauf sich deren Aufmerksamkeit aktuell richtet. Außerdem wurden Verfahren entwickelt, mit deren Hilfe der Roboter die Aufmerksamkeit über dieselben Modalitäten lenken kann. Die technologische Umsetzung der Aufmerksamkeitskomponenten erfolgt auf dem Assistenzroboter Care-O-bot 4 (https://www.care-o-bot.de). Als mögliches Einsatzfeld der neu entwickelten Funktionen wurde die Führung von Patienten im Krankenhaus betrachtet.