CITEC-Wissenschaftlerin forscht dazu, wie sich Assistenzsysteme sozial angemessen verhalten Was Menschen im Umgang miteinander als höflich und als angemessen empfinden, hängt von der Situation ab. Assistenzsysteme nehmen eine solche Unterscheidung nicht vor. Damit Menschen sie im Alltag akzeptieren und die Systeme nicht als Störfaktor wirken, hilft es, wenn sie sich sozial angemessen verhalten. Damit befasst sich Dr. Ricarda Wullenkord.
Ganz gleich, ob es sich um einen Putzroboter oder nur um den Kalender auf dem Smartphone handelt, der an einen Termin erinnert: Assistenzsysteme spielen mittlerweile eine große Rolle im Alltag vieler Menschen. Dazu forscht Dr. Ricarda Wullenkord vom Exzellenzcluster CITEC an der Universität Bielefeld. Sie arbeitet in der Forschungsgruppe „Angewandte Sozialpsychologie und Geschlechterforschung“, die zu CITEC und zur Abteilung Psychologie der Universität Bielefeld gehört. Die Gruppe wird von Professorin Dr. Friederike Eyssel geleitet.
Wullenkord ist am Projekt „poliTE“ beteiligt, in dem Forschende des Exzellenzclusters CITEC der Universität Bielefeld und von FokoS (Forschungskolleg „Zukunft menschlich gestalten“ der Universität Siegen) kooperieren. Sie untersuchen, auf welche Weise sich solche Assistenzsysteme sozial angemessen verhalten können – und was das überhaupt bedeutet.
„Die meisten Systeme sind sehr dominant und fordern zunächst einmal in jeder Lebenslage Aufmerksamkeit ein“, sagt Wullenkord. Sie unterscheiden in ihrem Verhalten nicht zwischen unterschiedlichen Situationen. „Ein solches System mischt sich immer ein“, erläutert die Wissenschaftlerin. Das passt aber womöglich nicht immer: Hält man zum Beispiel gerade einen Vortrag oder meistert ein Bewerbungsgespräch, wäre es sinnvoll, wenn das jeweilige Assistenzsystem in diesem Moment eigenständig – und ohne vorherige Intervention des Users – in den Hintergrund tritt und schweigt.
Erforschen, was soziale Angemessenheit bedeutet
„Wir wollen in dem Projekt zunächst herausfinden, was soziale Angemessenheit eigentlich ist und welche Regeln dafür gelten“, sagt die Psychologin. Dafür analysieren die Forschenden zunächst die Fachliteratur, die sich mit sozialer Angemessenheit befasst. „Es geht uns zunächst einmal um Grundlagenforschung“, erläutert Wullenkord. Ein zweiter Schritt könnte im Anschluss an das Projekt darin bestehen, die abgeleiteten Regeln in empirischen Studien auf Assistenzsysteme anzuwenden.
„Die Frage, was soziale Angemessenheit ist, ist oft gar nicht pauschal zu beantworten“, sagt die Wissenschaftlerin. Dabei kann es zum Beispiel schlicht um das Thema Etikette gehen: „Wenn Menschen beim Essen nicht gestört werden wollen, dann sollte auch ein Assistenzsystem dabei nicht unterbrechen“, gibt die Wissenschaftlerin ein Beispiel.
Mehr als 3000 Artikel haben die Forschenden bereits analysiert. Dabei beziehen sie ganz unterschiedliche Fachbereiche mit ein. „Das Thema zieht sich nicht nur durch Philosophie, Soziologie oder Psychologie“, sagt Wullenkord. Die Linguistik befasst sich beispielsweise ebenso mit sozialer Angemessenheit. Das Projekt läuft zunächst bis 2020. „Unser Ziel ist es, bis dahin ein Handbuch verfasst zu haben.“
Dieses Handbuch soll festhalten, welche Aspekte für Assistenzsysteme wichtig sind, damit ihre Nutzer diese in ihrem Verhalten als sozial angemessen empfinden. „Die Assistenzsysteme entwickeln sich immer weiter“, erläutert Wullenkord: Ein Roboter, der die Wohnung putzt und im Haushalt hilft, soll nicht stören.
Angemessenheit zeigt sich bereits in vermeintlich kleinen Aspekten
Auch ein virtueller Fitnesscoach soll angemessen mit den Nutzern umgehen. „Das fängt schon mit Aspekten an, die erst einmal wie eine Kleinigkeit klingen“, sagt Wullenkord. So ist es zum Beispiel wichtig, dass ein virtueller Coach Menschen begrüßt und beispielsweise „hallo“ und „tschüss“ sagt. „Darüber hinaus ist es natürlich wichtig, dass er die Sportler freundlich anspricht und sie motiviert, statt abwertend zu sein.“
Was sozial angemessen ist, sei in der Regel das, was als normal im Umgang empfunden werde, sagt die CITEC-Wissenschaftlerin. „Das zeigt auch das bisherige Ergebnis unserer Literaturrecherche“, sagt Wullenkord: „Common is moral.“ Die Umsetzung der Ergebnisse in konkrete Handlungsanweisungen wird schließlich die Aufgabe von Informatikern werden. „Ein Ziel in der Zukunft wird sein, dass Roboter irgendwann in die Lage versetzt werden, selbstständig zu lernen, was sozial angemessen ist.“ Auf diese Weise bestehe die Chance, dass sie leichter als Begleiter im Alltag akzeptiert würden.
Um weitere Erkenntnisse zu dem Thema zu gewinnen, findet am 28. und 29. November ein Workshop für Expertinnen und Experten am CITEC der Universität Bielefeld statt (https://polite.fokos.de/workshop-2018). Dabei geht es ebenfalls um die Frage, was sozial angemessen ist und wie dies in Kulturtechniken des Verhaltens festgeschrieben ist. Das Thema wird dabei jeweils aus sozialpsychologischer und kulturtheoretischer, aus philosophischer, anthropologischer und aus weiteren Perspektiven beleuchtet.
Kontakt:
Dr. Ricarda Wullenkord, Universität Bielefeld
Exzellenzcluster CITEC / Fakultät für Psychologie und Sportwissenschaft
Telephone: 0521 106-12133
Email: rwullenk@cit-ec.uni-bielefeld.de
Text: Maria Berentzen