PROJEKTMANAGEMENT AKTUELL
pm
2941-0878
2941-0886
UVK Verlag Tübingen
10.24053/PM-2022-0050
71
2022
333
GPM Deutsche Gesellschaft für Projektmanagement e. V.Der freundliche Roboter erklärt Emotionen
71
2022
Oliver Steeger
Roboter verrichten seit Jahrzehnten in Fabriken einförmige oder für den Menschen gefährliche Arbeiten. Doch die Entwicklung der Roboter geht weiter. Fast menschlich sehen manche Roboter heute aus; sie können Emotionen beim Menschen erkennen und mit Menschen „sprechen“. Derzeit entwickelt ein interdisziplinäres Team eine Roboterinteraktion für Therapie und Lernen. Die Psychologen, Robotik-Experten, Software-Spezialisten und Ethik-Fachleute konzentrieren sich auf die Förderung von Kindern im Autismus-Spektrum. Wie sie dabei vorgehen – dies erläutern Simone Kirst (Humboldt-Universität zu Berlin), Julian Sessner (Friedrich-Alexander-Universität Erlangen-Nürnberg), Martin Strehler (Innovationsmanufaktur GmbH) und Martina Simon (Fraunhofer IIS), Projektleitung) im Interview. Sie zeigen, wie der Roboter ein Werkzeug für Therapien werden kann – und wo seine Grenzen (noch) liegen.
pm3330011
11 PROJEKTMANAGEMENT AKTUELL · 33. Jahrgang · 03/ 2022 DOI 10.24053/ PM-2022-0050 Interdisziplinäres Projekt: Ein Roboter hilft Kindern in der Autismus-Therapie Der freundliche Roboter erklärt Emotionen Oliver Steeger Roboter verrichten seit Jahrzehnten in Fabriken einförmige oder für den Menschen gefährliche Arbeiten. Doch die Entwicklung der Roboter geht weiter. Fast menschlich sehen manche Roboter heute aus; sie können Emotionen beim Menschen erkennen und mit Menschen „sprechen“. Derzeit entwickelt ein interdisziplinäres Team eine Roboterinteraktion für Therapie und Lernen. Die Psychologen, Robotik-Experten, Software-Spezialisten und Ethik-Fachleute konzentrieren sich auf die Förderung von Kindern im Autismus-Spektrum. Wie sie dabei vorgehen-- dies erläutern Simone Kirst (Humboldt-Universität zu Berlin), Julian Sessner (Friedrich-Alexander-Universität Erlangen-Nürnberg), Martin Strehler (Innovationsmanufaktur GmbH) und Martina Simon (Fraunhofer IIS, Projektleitung) im Interview. Sie zeigen, wie der Roboter ein Werkzeug für Therapien werden kann-- und wo seine Grenzen (noch) liegen. Die Entwicklung der Robotik schreitet schnell voran. Immer häufiger werden Abläufe durch Roboter automatisiert. Was viele nicht wissen: Roboter bieten auch Potenzial bei bestimmten sozialen Aufgaben, etwa bei der Therapie. Im Team arbeiten sie an einem Roboter, der die Förderung von Kindern mit Autismus unterstützt. Wie kommt es, dass ausgerechnet bei der Arbeit mit autistischen Kindern ein Roboter hilfreiche Dienste leisten kann? Simone Kirst: Menschen aus dem Autismus-Spektrum kann es schwerfallen, mit anderen Menschen umzugehen. Beispielsweise können betroffene Kinder Probleme haben, auf andere Kinder angemessen zuzugehen und mit diesen zu interagieren. Für sie kann es schwierig sein, Emotionen bei anderen zu erkennen-… …-was ja normalerweise ein intuitiver, unbewusster Vorgang ist … Simone Kirst: Dies ist bei Menschen mit Autismus oftmals anders. Sie können unter Umständen große Schwierigkeiten damit haben. Für sie sind beispielsweise Gesichtsausdrücke oder andere Signale vielfach ein Buch mit sieben Siegeln? Simone Kirst: Ja, und deshalb kann es sein, dass Kinder im Autismus-Spektrum im Gespräch mit anderen zu intensiv auftreten. Sie halten vielleicht Monologe und nehmen beispielsweise nicht wahr, dass der andere längst nicht mehr am Gespräch interessiert ist. Sie tun sich also schwer, emotionale Botschaften anderer zu verstehen. Hinzu kommt, dass sie oftmals Schwierigkeiten haben, ihre eigenen Emotionen wahrzunehmen, diese zu differenzieren und angemessen mit ihnen umzugehen. Viele können zum Beispiel Gefühle wie Frustration oder Ärger nicht gut regulieren. Dies erschwert eine soziale Situation zusätzlich: Menschen im Autismus- Spektrum stehen unter Druck, weil sie viele nonverbale Botschaften nicht erkennen-- und überdies ihre eigenen Stressgefühle regulieren müssen. Was macht ein Roboter da anders? Ist er „geduldiger“? Simone Kirst: Er ist nicht nur geduldiger. Es geht um noch etwas anderes. Ein Roboter wirkt auf autistische Menschen weniger komplex als ein Mensch und damit weniger stressauslösend. In der Interaktion ist das Verhalten des Roboters für sie von daher vorhersehbarer. Er hat ja ein eingeschränktes Verhaltensrepertoire. Er sendet nicht so viele soziale Sig- Reportage | Der freundliche Roboter erklärt Emotionen 12 PROJEKTMANAGEMENT AKTUELL · 33. Jahrgang · 03/ 2022 DOI 10.24053/ PM-2022-0050 nale auf einmal, etwa bei Mimik und Stimmlage; er hat immer den gleichen Tonfall. Das Programm läuft gleichbleibend ab, immer mit ähnlichen Worten. Verstehe ich dies richtig? Arbeitet ein Kind aus dem Autismus-Spektrum mit einem menschlichen Therapeuten, ist es bereits in einer sozialen Situation. Es steht unter Druck. Es kann die Vielfalt der emotionalen Botschaften nicht bewältigen. Simone Kirst: Ja, in etwa. Mit Hilfe des Roboters können diese Kinder beispielsweise anhand von Bildern oder Videos die Mimik anderer deuten lernen. Oder sie können in Entspannungsübungen die eigenen Gefühle regulieren. Der Roboter führt sie durch das Trainingsprogramm. Er bereitet die Kinder auf die Interaktion mit einem Therapeuten vor; später kann er dessen Arbeit unterstützen. Wir im Team sind sicher, dass ein Roboter hilfreich werden kann in der therapeutischen Arbeit. Weil ein Roboter gewissermaßen Brücken bauen kann? Simone Kirst: Er kann Kinder an echte soziale Situationen heranführen, zum Beispiel indem durch seine reduzierte soziale Komplexität die Arbeit an schwierigeren sozialen oder emotionalen Themen erleichtert wird. Zudem bringen Kinder im Autismus-Spektrum meistens Interesse an technischen Geräten mit-- eben, weil diese vorsehbar arbeiten. Roboter können sie also motivieren, an der Förderung teilzunehmen. Eines dabei ist wichtig: Wir wollen nicht, dass Kinder ausschließlich mit dem Roboter üben. Mal arbeiten sie mit dem Roboter, mal mit dem Therapeuten. Auch dann, wenn der Roboter mit den Kindern „arbeitet“, steht ein Therapeut im Hintergrund. Er beobachtet und steuert den Prozess. Er ist eine Art Supervisor und hat eine professionelle Sicht auf das Ganze. Ihr Roboter ist noch in der Entwicklung. Er wurde bislang in Studien eingesetzt, aber nicht in der Breite. Was kann Ihr Roboter bereits? Simone Kirst: Wir haben in ihn zwei Trainings-Module integriert. Das eine Modul unterstützt Kinder, Emotionen bei anderen zu erkennen. Das andere Modul hilft Kindern, ihre eigenen Emotionen regulieren zu lernen-- etwa mit Atemübungen. Wir haben außerdem ein Interface für den Therapeuten entwickelt. Über dieses Interface- - ein Tablet- - passt der Therapeut den Therapieprozess situativ an. Beispielsweise kann er entscheiden, ob das Kind eine Pause braucht. Oder ob der Roboter mit ihm eine Atemübung machen soll, wenn es sich gestresst fühlt. Diese beiden Module bilden zunächst den Anfang-… Simone Kirst: Richtig! Für die Zukunft planen wir, sie um einige weitere zu ergänzen. Julian Sessner: Wir haben in unserem multidisziplinären Projekt bislang viele Grundlagen geklärt und sind zu weiterführenden Erkenntnissen gekommen. Doch es handelt sich immer noch um ein wissenschaftliches Projekt. Wir haben eine Art Demonstrator, den wir in Studien testen. Der Ansatz ist vielversprechend. Doch es wird noch einige Zeit dauern, bis solche Roboter etwa in Autismuszentren eingesetzt werden können. Der nächste Schritt in unserem Projekt wird sein, dass wir das System alltagsfähiger machen. Ihr Roboter wirkt bereits erstaunlich alltagsfähig. Vor allem wirkt er menschlich. Was macht ihn technisch so menschlich? Julian Sessner: Dafür braucht es nicht viel. Der Roboter hat eine Gesichtserkennung. Wenn seine Kamera beispielsweise Ihr Gesicht erkannt hat, wendet er sich Ihnen zu. Er schaut Sie gewissermaßen aktiv an. In seinen Augen hat er kleine LED-Kreise, da scheint er manchmal etwas zu blinzeln. Und er hat bestimmte Grundbewegungen. Spricht er mit Ihnen, so bewegt er sich von rechts nach links, und er öffnet und schließt seine Finger. Durch solche Details wirkt er lebendig. Doch das Repertoire an komplexen Bewegungen und Gesten ist derzeit noch begrenzt. Wir mussten im Konsortium auch neue Gesten implementieren. Martin Strehler: Wir geben dem Roboter zudem eine Bibliothek mit Gesten mit, die zu bestimmten Emotionen passen. Wenn er das Kind lobt, reißt er seine Arme hoch- - eine Art unterstützende Jubelgeste. Oder: Wenn der Roboter mit dem Kind eine Atemübung durchführt, dann lehnt er sich beim Einatmen etwas nach hinten, so, wie Menschen dies auch tun. Unterstützt wird dies mit einem Atemgeräusch. Und beim Ausatmen bewegt sich der Roboter etwas nach vorne. Dazu muss man eines wissen: Sie haben diesen Roboter nicht selbst gebaut. Man kann heute Standard-Roboter kaufen. Manchmal sieht man solch einen Roboter beispielsweise in Supermärkten oder bei Events. Die Aufgabe in Ihrem Projekt besteht darin, solch einen Standard- Roboter für seine Aufgabe im Therapie-Setting anzupassen. Wie darf ich mir das genau vorstellen? Julian Sessner: Zunächst einmal: Wir wollten uns nicht von einem bestimmten Standard-Roboter abhängig machen- - also nicht von einem bestimmten Hersteller oder Typen. Manche dieser Roboter verschwinden schnell wieder vom Markt. Deshalb gestalten wir unsere Software unabhängig von dem Roboter oder der Plattform. Funktionen wie Emotionserkennung oder die Therapiemodule sollen auf möglichst vielen Plattformen laufen. Emotionserkennnung-- was ist damit gemeint? Julian Sessner: Dieses System registriert die Emotionen des Kindes. Wir wollen, dass der Roboter erkennt, ob ein Kind beispielsweise gestresst ist-- oder, im Gegenteil, motiviert. Dann können wir das Trainingsprogramm darauf abstimmen, wie das Kind sich fühlt. Stellt der Roboter fest, dass das Kind motiviert oder vielleicht gelangweilt ist, kann der Roboter dem Therapeuten dann eine etwas schwierige Übung empfehlen. Vielleicht kann der Roboter eines Tages sogar autonom das Programm steuern und anpassen. Doch bis dahin ist es noch ein weiter Weg, und aktuell ist dies auch nicht gewünscht. Simone Kirst: Autistische Menschen haben oftmals eine recht eingeschränkte Mimik. Sie signalisieren Aufregung und Ärger nicht sehr deutlich- - zumindest nicht für die technische Emotionserkennung. Allein die zuverlässig arbeitende Emotionserkennung bildet für uns eine technische Herausforderung. 2022 pma.at 13. Oktober 2022 Austria Center Vienna #pmafocus22 Projektmanagement für alle! Brigitte Schaden © pma/ Ludwig Schedl Stefan Haider © Jan Frankl Bernhard Paul © Circus-Theater Roncalli Martin Moder © Ingo Pertramer Reportage | Der freundliche Roboter erklärt Emotionen 14 PROJEKTMANAGEMENT AKTUELL · 33. Jahrgang · 03/ 2022 DOI 10.24053/ PM-2022-0050 Wie darf ich mir solch eine Emotionserkennung genau vorstellen? Erkennt der Roboter das Lachen im Gesicht seines menschlichen Gegenübers? Julian Sessner: In etwa. Solch eine rudimentäre Emotionserkennung wird dem Standard-Roboter im Software-Paket mitgegeben. Doch diese integrierte Emotionserkennung ist selbst dann für uns nicht genau genug, wenn jemand Emotionen sehr deutlich zeigt. Wir arbeiten in unserem Team und mit unseren Partnern daran, die Software zu verbessern-- so, dass sie Gesichtsausdrücke und auch die Stimmlage wirklich erkennt und dabei grundlegende Emotionen analysiert. Darüber hinaus können wir auch den Puls des Gegenübers erfassen und daraus Rückschlüsse auf seinen emotionalen Zustand ziehen. Puls erfassen-- wie geht das? Julian Sessner: Wir erfassen den Puls anhand von kleinen Farbveränderungen im Gesicht. Durch den Blutfluss unter der Haut können wir so den Herzschlag erfassen. Dies können wir durch verschiedene Filter erkennen, die wir bei der Kamera anwenden. Auch über die Sprache kann man Emotionen erkennen. Anhand der Stimme kann Software ermitteln, ob das Gegenüber positiv oder negativ gestimmt ist. Das ist heute bereits möglich. Aber? Julian Sessner: Die Daten, mit denen solche Systeme normalerweise trainiert werden, kommen in der Regel von Erwachsenen. Wir mussten also zunächst Trainingsdaten von Kindern generieren. Dafür sind unsere Projektpartner beispielsweise in Kindergärten und Schulen gegangen und haben die Kinder sprechen lassen. Sie haben ihnen Videos gezeigt, auf die sie emotional reagieren sollten, etwa Szenen einer Geburtstagsfeier. Dann sollten sie darüber sprechen, wie sie sich fühlen. Sie sprachen vorhin von dem Interface für den Therapeuten, das Tablet, mit dem er den Prozess steuert-… Julian Sessner: Richtig! Heute werden die Rohdaten etwa zum Puls auf dem Tablet angezeigt. Der Therapeut entscheidet dann darüber, wie im Training weitergemacht wird. Der Monitor des Tablets ist geteilt. Auf der einen Seite zeigt es die Daten der Emotionserkennung. Auf der anderen Seite werden dem Therapeuten verschiedene Optionen angezeigt, wie der Roboter das Programm fortführen kann. Simone Kirst: Dieses Interface hat sich zum einen aus den Anforderungen unserer Stakeholder ergeben. Sie wollten, dass der Therapeut weiterhin aktiv und direkt am Therapieprozess beteiligt ist. Zum anderen resultiert das Interface auch aus den technischen Grenzen, vor denen wir noch stehen. Zu Anfang des Projekts haben wir dieses Interface nicht geplant. Wir wollten, dass der Roboter selbständig agieren kann. Von diesem Ziel sind wir, wie gesagt, noch einiges entfernt. Wir gehen jetzt schrittweise voran. Im nächsten Schritt könnte es sein, dass Interface nicht nur Daten abbildet, sondern das klinische Urteil des Therapeuten weiter unterstützt. Es könnte dann vielleicht sogar Empfehlungen anbieten. Der Einsatz von Robotern in Therapien ist heute noch ungewöhnlich. Europaweit gibt es höchstens eine Handvoll von Projekten, die Roboter für Therapien nutzbar machen wollen. Nicht nur praktische technische Herausforderungen setzen derzeit noch Grenzen, sondern auch der Mangel an gesellschaftlicher Akzeptanz. Simone Kirst: Zur Akzeptanz existieren einige Studien. Demnach ist die generelle gesellschaftliche Akzeptanz von Robotern etwa in pädagogischen Kontext recht gering. Dies gilt häufig aber nur für die Allgemeinbevölkerung. Bei Fachleuten ergibt sich ein anderes Bild. Fachleute im Autismusbereich sehen Roboter positiver. Ähnlich sehen dies auch Eltern von Kindern im Autismus-Spektrum. Erklärt man ihnen das Therapie-Setting, in dem der Roboter eingesetzt wird-- dann sehen viele im Roboter eine kluge und sinnvolle Ergänzung. In Ihrem Projekt haben Sie die ethischen, sozialen und rechtlichen Aspekte eines Therapie-Roboters sorgfältig und aufwändig untersucht. Wie sind Sie dabei vorgegangen? Martina Simon: Wir haben Workshops zu sozialen, rechtlichen und ethischen Risiken und Anforderungen durchgeführt. An diesen Workshops haben unter anderem Therapeuten, Eltern sowie Erwachsene aus dem Autismusspektrum teilgenommen. Wir haben sie nach ihren Bedenken und Einschätzungen gefragt. Wir wollten wissen, welche Anforderungen sie an das Projekt haben. Uns ist klar: Die Akzeptanz des gesamten Systems hängt vielfach davon ab, wie wir auf diese Anforderungen reagieren. Welche Hinweise gab es aus diesen Workshops? Martina Simon: Eine Frage war: Wird sich das Kind an den Roboter binden? Sieht es in ihm einen Freund? Wird es dann noch eingeschränkter im Sozialverhalten-- weil es diesen Roboterfreund hat und eigentlich keine menschlichen Freunde mehr braucht? Manche waren besorgt, dass man den Roboter aus der Therapie nicht mehr ausschleichen kann. Das Kind, so die Befürchtung, will nur noch mit dem Roboter interagieren; er bietet einen hohen Belohnungsfaktor. Andere Teilnehmer hatten die Sorge, dass das Kind den Roboter hinterher imitiert. Also sich bewegt und spricht wie der Roboter. Dann würde es in seinem Umfeld noch mehr auffallen. Sie haben eine große Menge solcher Hinweise in Ihren Workshops gesammelt. Wie sind Sie mit der Fülle der Hinweise umgegangen? Wie haben Sie diese für Ihr Projekt nutzbar gemacht? Martina Simon: In der ersten Stufe ging es um die Ermittlung der Anforderungen überhaupt. Danach hatten wir in der Tat eine große Zahl einzelner Hinweise; viele von ihnen waren auch doppelt genannt. In der zweiten Stufe haben wir diese Einzel-Stichpunkte klassifiziert und sie dann den Teilnehmern nochmals vorgelegt. Um diese Punkte zu ordnen? Martina Simon: Vor allem um sie zu gewichten. Wir haben die Gruppen gebeten, die klassifizierten Punkte zu ranken und zu priorisieren-- und zwar hinsichtlich der Akzeptanz. Ist beispielsweise ein bestimmtes ethisches Kriterium nicht erfüllt-- wie hoch ist dann die Wahrscheinlichkeit, dass die Teilnehmer das System noch akzeptieren? Reportage | Der freundliche Roboter erklärt Emotionen 15 PROJEKTMANAGEMENT AKTUELL · 33. Jahrgang · 03/ 2022 DOI 10.24053/ PM-2022-0050 Zum Beispiel: Wie würde die völlige Autonomie des Roboters die Akzeptanz beeinflussen? Martina Simon: Richtig. Wie hoch wäre dann die Wahrscheinlichkeit, dass das System nicht mehr akzeptiert werden würde? Auf diesem Wege konnten wir quantifizierte Ergebnisse ermitteln. Wir haben Aspekte mit hohem Akzeptanzrisiko identifiziert, Aspekte mit mittlerem Risiko und niedrigem. Das konnten wir für die weitere Entwicklung direkt nutzbar machen. Was beispielsweise haben diese Anforderungen in Ihrem Projekt ausgelöst? Martina Simon: Eine ethische Anforderung aus unseren Workshops war, dass die Grenze zwischen Mensch und Maschine nicht verwischt werden darf. Es darf zu keiner zu starken Vermenschlichung des Technischen kommen. Daraufhin haben wir uns entschlossen, diese klare Linie zwischen Mensch und Roboter sehr deutlich zum Ausdruck zu bringen. Ein Beispiel: Das Kind geht mit einem Menschen-- etwa seinem Therapeuten-- zu dem Roboter hin und schaltet ihn bewusst ein. Hinterher schaltet es ihn wieder aus. Oder: Der Roboter weist darauf hin, dass er in einer Fabrik hergestellt wurde und eine Maschine ist. Er zeigt klar: Er kommt nicht aus einer schönen anderen Welt oder aus der Zukunft. Er ist ein Gerät. Und er kommuniziert auch über seine eigenen Grenzen-- etwa darüber, dass er Fehler hat. Martin Strehler: Anfangs haben wir überlegt, dem Roboter ein T-Shirt anzuziehen oder ihm einen Rucksack zu geben. Solche Pläne- - so sympathisch sie auf den ersten Blick scheinen-- haben wir schnell aufgegeben. Das würde den Roboter zu sehr vermenschlichen. Wir müssen eine zu enge Bindung vermeiden, sodass die Kinder nach der Therapie mit dem Roboter nicht einen wichtigen Bezugspunkt verlieren-- oder sie den Roboter gar als den besseren Interaktionspartner wahrnehmen. Die Frage der Vermenschlichung hat ja weitergehende Konsequenzen. Ein Beispiel: Roboter, die Ihrem Therapie-Roboter ähnlich sind, werden etwa auch in Supermärkten eingesetzt. Wie stellen Sie sicher, dass das Kind nicht mit diesem Roboter im Supermarkt über seine Gefühle reden will? Martina Simon: Wir verwenden in unserem Projekt, wie eben gesagt, einen Standard-Roboter für unsere Zwecke. Dieser Standard-Roboter heißt Pepper und ist unter diesem Namen verbreitet. Es kann natürlich sein, dass ein Kind diesem Pepper auch woanders begegnet. Unser Roboter aber sagt dem Kind deutlich, dass er eben nicht der Pepper etwa aus dem Supermarkt ist. Damit versuchen wir zu erreichen, dass Pepper sich nicht als Gefährte anbietet. Es muss dem Kind klar sein: Letztlich ist es eine Maschine. Und kein Ersatz für einen Freund. Ich möchte mit Ihnen über Ihr Projektmanagement sprechen. Ihr Projekt ist höchst interdisziplinär. Ethik trifft auf Robotik, Psychologie auf Interaktionsmanagement, Software auf Therapiedesign. Dies alles setzt eine große Offenheit und Kompromissbereitschaft der Beteiligten voraus. Beispielsweise haben Sie im Verlauf Ihres Projekts immer wieder Kompromisse machen müssen, nicht nur aus technischen Gründen, sondern auch aus Gründen der Akzeptanz. Wie sind Sie im Team mit diesen Kompromissen umgegangen? War das eine Herausforderung für Sie? Julian Sessner: Die Herausforderung war vielleicht nicht so groß wie es auf den ersten Blick scheint. Eines unserer Hauptziele ist, dass wir dieses System für unsere Nutzer entwickeln. Wir wollen Kindern aus dem Autismus-Spektrum helfen und eine passende Lösung erarbeiten, die ankommt, wirkt und genutzt wird. Diese Leitvision mussten wir im Laufe des Projekts nicht verwässern-- trotz einiger größerer Anpassungen. Ressourcenmanagement Multiprojektcontrolling Projektportfolio Angebote und Rechnungen Scrum, Kanban, PRINCE2 ® , IPMA, BPMN Projektmanagement-Software Projektron BCS im Darkmode PROCESSES Anzeige Reportage | Der freundliche Roboter erklärt Emotionen 16 PROJEKTMANAGEMENT AKTUELL · 33. Jahrgang · 03/ 2022 DOI 10.24053/ PM-2022-0050 Uns war von Anfang an klar, dass man bei solch einem Projekt nicht stur an seinem individuellen Forschungsinteresse festhalten kann. Simone Kirst: Meiner Einschätzung nach kommt es in solch einem Projekt darauf an, dass man genau und aktiv zuhört: Was wünschen sich die Eltern und die Kinder, wenn sie den Roboter ausprobiert haben? Was wünschen sich die Therapeuten und Fachleute? Wir haben beispielsweise sorgfältig beobachtet, was den Kindern Freude gemacht hat beim Interagieren mit dem Roboter. Oder was sie frustriert hat, weil der Roboter nicht so agiert, wie wir dies alle dachten. Dieser Prozess braucht Flexibilität bei allen beteiligten Partnern, auch bei den Stakeholdern. Aus Ihrer Projekterfahrung heraus-- wo liegen die harten ethischen und sozialen Grenzen solcher Robotersysteme? Wo sind Ihrer Einschätzung nach die No-Gos? Martina Simon: Aus sozialer Rolle spielt zum Beispiel die Frage eine Rolle, wer die Systeme später bezahlt und wer sie nutzen darf. Es wurden Befürchtungen laut, dass solch ein System in eine Zwei-Klassen-Gesellschaft bei den Förderungstrainings führt. Was das Ethische betriff: Da liegt eine harte Grenze in der Frage, inwieweit der Roboter den Menschen ersetzen kann und soll. Trifft der Roboter an Stelle des Menschen Entscheidungen? Martin Strehler: Wir hörten immer wieder die Sorge, dass der Roboter autonom etwa dem Kind sagt, ob seine Reaktion angemessen war oder nicht. Bis ein Roboter wirklich autonom handeln kann, wird noch einiges an Zeit vergehen. Im Augenblick kann der Roboter selber weder Annahmen treffen noch aufgrund dieser Annahmen eigenständig handeln. Martin Strehler Martin Strehler hat im Jahr 2000 die Innovationsmanufaktur mitbegründet und leitet dort den Bereich Forschung. Er ist Experte in Sachen Innovationsmethoden und bei der Einbindung von Nutzern in Innovationsprozesse. Er betreut regelmäßig verschiedene Innovations- und Trendforschungsprojekte unter anderem für BMW, Intel, Infineon oder den deutschen Spitzensport. In den letzten zwanzig Jahren hat er unterschiedliche nationale und europäische Forschungsprojekte initiiert und geleitet, zum Beispiel die Verwandlung eines Wohnzimmersessels in eine aktive Gesundheitszentrale oder die Entwicklung eines Hearables als täglicher Assistent für ältere Menschen. Er ist zertifizierter GPM Projektmanagement Fachmann und war u. a. als Gastdozent zu Themen rund um Innovation für die TU München, den Campus M21 (München) und die UDLA (Universidad de las américas; Mexico) tätig. Seit 2016 ist er Reviewer für die Europäische Kommission und hilft bei der Bewertung und Einschätzung europäischer Forschungsanträge. Vor seiner Tätigkeit bei der Innovationsmanufaktur trotze er der Schwerkraft und Alltäglichem u. a. an der Zirkusschule in Paris oder beim Test eines Astronautenanzuges in der Schwerelosigkeit für die European Space Agency (ESA). Foto: Innovationsmanufaktur Eine Abschlussfrage: Wie gelingt es Ihnen im Projektteam selbst, unterschiedliche Perspektiven unter einen Hut zu bringen? Martin Strehler: Wie vorhin gesagt, wir haben die Vision, dass wir Kindern helfen wollen. Diese Vision bildet gewissermaßen die Klammer für unser Projekt. Sie hält das Projekt trotz der verschiedenen Perspektiven zusammen. Doch manchmal treffen diametral gegenläufige Meinungen aufeinander. Wie gehen Sie praktisch damit um? Martin Strehler: Beim Kick-off-Meeting haben wir kleine Eisbrecher-Spiele gemacht. Wir haben uns alle sehr mit Emotionen beschäftigt und kleine Übungen dazu gemacht. Da ging es beispielsweise darum, bei anderen Emotionen zu erkennen. Auf diese Weise baut man zum einen Bindung in der Gruppe auf, und zum anderen kommt man in den Austausch. Im Verlauf des weiteren Projekts haben wir immer wieder versucht, unsere Perspektive zu wechseln. Wir haben zum Beispiel unser Projekt aus Sicht eines Stakeholders präsentiert-… Also ganz bewusst die Brille von anderen aufgesetzt? Martin Strehler: Richtig! Kolleginnen und Kollegen aus nicht-technischen Disziplinen haben zum Beispiel einmal die Interaktionen aus der Roboter Sicht durchgespielt- - um die technischen Anforderungen zu begreifen und ein Gefühl für den Rahmen der technischen Entwicklung bekommen. An- Martina Simon Martina Simon ist seit 2017 wissenschaftliche Mitarbeiterin und Projektleiterin in der Gruppe „Human Centered Innovation“ am Fraunhofer- Institut für Integrierte Schaltungen IIS in Nürnberg. Sie initiiert und verantwortet Forschungs- und Beratungsprojekte im Bereich menschlichen Erlebens, Verhaltens und Entscheidens, speziell mit Hinblick auf digitale Lebenswelten und Transformation. Ihre Schwerpunkte liegen dabei auf der Mensch-Technik-Interaktion und der Technik-/ KI-Akzeptanzforschung, wo sie ein methodisches Rahmenmodell zur sozio-ethischen Bewertung anwendergerechter technischer Lösungen für unterschiedliche Branchen und Nutzergruppen entwickelte. Vor ihrer wissenschaftlichen Laufbahn arbeitete sie nach einem abgeschlossenen Lehramtsstudium 15 Jahre bei der hotel.de AG. Dort leitete sie zunächst den Kundensupport, bevor sie in den Bereich Produkt-, Content & Translation Management wechselte, wo sie den Aufbau und die Steuerung des Übersetzungs- und Lokalisierungsprozesses in 38 Sprachen verantwortete. Parallel begann sie an der FernUniversität in Hagen ein nebenberufliches Studium, das sie 2020 als Master of Science in Psychologie abschloss. Foto: Fraunhofer IIS Reportage | Der freundliche Roboter erklärt Emotionen 17 PROJEKTMANAGEMENT AKTUELL · 33. Jahrgang · 03/ 2022 DOI 10.24053/ PM-2022-0050 dersherum haben Techniker versucht, für verschiedene Settings die Sicht eines Kindes im Autismus Spektrum einzunehmen. Man lernt durch den Perspektivwechsel die Sichtweise anderer kennen-- was nicht zuletzt die Beteiligten motiviert, das Verständnis verbessert und das Team näher zusammenbringt. Mir persönlich macht es auf jeden Fall Spaß, mich auch mit anderen Disziplinen zu befassen. Eingangsabbildung: © iStock.com / EvgeniyShkolenko Das Symbolbild zeigt nicht den eingesetzten Roboter und gibt keine Therapie-Situation wieder. Project Office ist Enterprise-Software für beeindruckende Projekte wie den Gotthard- Basistunnel. Agiles Teamwork und hohe Prozesssicherheit verbinden sich dabei zu konsequent hybridem Projektmanagement. Mit agilen Elementen wie Task Boards, Issues und Activities machen Sie Ihre Teams schneller und produktiver. Bewährte Elemente wie die Planung der Ecktermine liefern zuverlässige Leitplanken. Erfolgreiche Projekte durch verlässliche Prozesse und bessere Teamarbeit Engineering success - the agile way Kundenerfolge mit Project Office Erfahren Sie, wie die Adler Pelzer Group ihr globales Projektmanagement verbessert hat. https: / / bit.ly/ 3Gb69TQ energizing great minds contact-sofware.com Anzeige Simone Kirst Simone Kirst (Humboldt-Universität zu Berlin)- - Simone Kirst ist wissenschaftliche Mitarbeiterin in der Arbeitsgruppe Klinische Psychologie Sozialer Interaktion an der Humboldt-Universität zu Berlin. Während ihrer Promotion in Psychologie entwickelte sie federführend die mobile Applikation „Zirkus Empathico“ zur Förderung sozio-emotionaler Kompetenzen von Kindern im Autismus-Spektrum und leitete die randomisiert-klinische Interventionsstudie in Deutschland und Österreich. Von 2018 bis 2022 forschte sie innerhalb des BMBF-Verbundprojekts „ERIK“ zum Einsatz von Robotersystemen in der Autismustherapie und entwickelt Interaktionsstrategien zur Förderung der Emotionserkennung und Emotionsregulation. Ebenfalls führte sie die begleitenden Usability-, Akzeptanz- und Wirksamkeitsstudien zur Evaluation der Roboterinteraktion federführend durch. Vor ihrer wissenschaftlichen Laufbahn arbeitete sie über sechs Jahre verhaltenstherapeutisch mit Kindern im Autismus-Spektrum und deren Familien. Foto: privat Julian Sessner Julian Sessner ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS) an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Im Rahmen seiner Forschung befasst er sich mit mechatronischen Assistenzsystemen im Kontext der Medizintechnik. So entwickelte er unter anderem ein Assistenzsystem zur Unterstützung sehbehinderter Personen bei der Navigation. Im Rahmen des Forschungsprojektes ERIK wurde am FAPS die Gesamtsystemarchitektur der Roboterplattform entwickelt, um die vielfältigen Komponenten zu integrieren und so die Interaktion zwischen Roboter, Kind und TherapeutInnen zu ermöglichen. Foto: privat
