Empathisch, diskret und jederzeit verfügbar: Seit Mai 2025 können sich Berufstätige mit psychischen Belastungen am Arbeitsplatz mit dem KI-Avatar «Ella» austauschen. Rachel Affolter, Geschäftsleitungsmitglied des Gesundheitszentrums WorkMed, und Jan Borer, Arbeitspsychologe bei Angestellte Schweiz, geben im Interview Einblick in den Entwicklungsprozess des Chatbots und berichten, wie die digitale Begleiterin bei den Nutzerinnen und Nutzern ankommt.

Seit 2022 bietet die Webplattform «Etwas tun? !» des Verbandes Angestellte Schweiz Berufstätigen Unterstützung bei belastenden Situationen im Arbeitsalltag. Das kostenlose Präventionsangebot ermöglicht es Betroffenen, den Umgang mit psychischen Herausforderungen im Arbeitsalltag zu trainieren. Mit spielerischen Trainings und Übungen können Berufstätige und Unternehmen ihre psychische Fitness am Arbeitsplatz stärken und ihre Bewältigungsstrategien bei Belastungen und negativen Emotionen verbessern.

Die Web-App wurde zusammen mit den (Arbeits-)Psychologinnen und Psychologen der SWICA-Tochter WorkMed entwickelt und stützt sich auf aktuelle wissenschaftliche Erkenntnisse im Bereich der psychischen Gesundheit. Im Mai 2025 wurde die Plattform um den KI-Avatar «Ella» ergänzt.

«Ella» begleitet nun seit einem halben Jahr Menschen mit psychischen Belastungen am Arbeitsplatz. Wie wird das Angebot genutzt, und welche Rückmeldungen habt ihr bisher erhalten?

Jan Borer: Nach einer Einführungsphase tracken wir die Nutzung nun seit rund drei Monaten. Trotz der zu erwartenden Vorbehalte und vereinzelter Skepsis gegenüber KI stösst das Angebot auf grosses Interesse und wird sehr bereitwillig genutzt. Bisher hatten wir pro Monat rund eintausendfünfhundert in sich geschlossene Konversationen zu verschiedenen Themen. Das viele Nutzerinnen und Nutzer oft über einen längeren Zeitraum mit «Ella» interagieren, deutet darauf hin, dass das Angebot ernst genommen wird. Oft geht es um Fragen zum Umgang mit Veränderungsprozessen oder Überlastungen im persönlichen Arbeitsalltag.

Was war ausschlaggebend für die Entwicklung eines KI-basierten Avatars, und wie wird «Ella» eingesetzt?

Rachel Affolter: Innovative Technologien wie KI können eine sinnvolle, jederzeit zugängliche und anonyme Ergänzung zu den klassischen Behandlungsmöglichkeiten sein. Die WebApp «Etwas tun?!» ist mit ihren Übungen, Fallbeispielen und Wissensanteilen eher textlastig. In diesem Kontext ist Angestellte Schweiz mit der Idee auf uns zugekommen, die Webplattform um eine KI-basierte, einfach zugängliche Anwendung zu erweitern.

Menschen in Belastungssituationen können sich zu jedem beliebigen Zeitpunkt unkompliziert mit «Ella» austauschen. Beim Testen von «Ella» habe ich sie als wertvolle Orientierungshilfe erlebt, die einem als Nutzerin oder Nutzer Empathie entgegenbringt, Tipps gibt und konkrete Lösungsansätze und Hilfsmittel vorschlägt. Gerade in belastenden Situationen kann dies sehr wertvoll sein.

Die digitale Begleiterin arbeitet nach dem Prinzip «Hilfe zur Selbsthilfe», versteht Mundart und kommuniziert auf Deutsch, Französisch und Italienisch. Sie ersetzt weder ein persönliches Gespräch noch eine Therapie oder eine Krisenintervention. Sie ist in der Lage zu erkennen, wenn ein Gespräch mit einer Fachperson angezeigt ist. Das haben wir getestet.

Jan Borer von Angestellte Schweiz mit KI-Avatar «Ella»

Das klingt nach einer wichtigen Schutzfunktion. In einem Selbstversuch konfrontierte ich «Ella» mit einem fiktiven Problem und äusserte Verzweiflung – woraufhin sie mir empfahl, professionelle Hilfe zu suchen. Jan Borer, woran erkennt der Chatbot konkret, dass jemand besser fachmännische Unterstützung in Anspruch nehmen sollte?

Borer: Wir haben «Ella» mit einer Grundgesamtheit an Schlüsselwörtern trainiert, die auf gravierende Probleme wie beispielsweise Suizid hindeuten. Ihre Lernbasis ist breit gefasst und wird durch die im Hintergrund laufende Web-App ergänzt, aus der sie zusätzliche Informationen bezieht. Wenn sich eine Prekarisierung der Situation − also eine Verschärfung des Problems abzeichnet – empfiehlt «Ella» weiterführende Unterstützung. Da der Chatbot kontinuierlich dazulernt, kann jedoch keine absolute Genauigkeit garantiert werden. In der Regel funktioniert die Erkennung aber zuverlässig.

Wie muss man sich den Entwicklungsprozess eines KI-Chatbots konkret vorstellen?

Affolter: Die Entwicklung der digitalen Begleiterin hat weniger als ein Jahr gedauert. Das neunköpfige Projektteam bestand aus Expertinnen und Experten von WorkMed, Angestellte Schweiz und dem Software-Entwickler Kuble AG. Seitens WorkMed waren wir vor allem für den Content und dessen korrekte Verwendung durch «Ella» verantwortlich.

In einem ersten Schritt ging es insbesondere darum zu schauen, was «Ella» können soll und was nicht. Es wurde evaluiert, welche Rolle sie einnehmen soll und die Abgrenzung zu Therapeuten und Ärzten sichergestellt.

Borer: Kurz gesagt haben wir als Projektteam auf Grundlage einer tragfähigen Idee aus Psychologie und Technik Schritt für Schritt zusammengearbeitet, bis daraus ein überzeugendes und marktfähiges Konzept für den KI-Chatbot wurde.

Nutzerinnen und Nutzer des KI-Chatbots sollen einem digitalen Wesen, das zwar empathisch und menschlich wirkt, aber dennoch kein echter Mensch ist, ihre ganz persönlichen Ängste und Sorgen anvertrauen. Ist das nicht für viele eine Hemmschwelle?

Affolter: Diese Herausforderung ist uns bewusst. Ähnlich wie manche Menschen Hemmungen haben, sich persönlich mit jemandem zu unterhalten, fällt es anderen schwer, einem Chatbot zu vertrauen. Unser Anspruch war es jedoch nie, «Ella» als vollständigen Ersatz für menschliche Gespräche zu etablieren. Untersuchungen zeigen, dass viele Nutzer besonders gut auf anonyme Webanwendungen reagieren. Für diejenigen, die bereits eine Onlineberatung per Chat nutzen, bietet der KI-Avatar eine niederschwellige Alternative – ebenso für Menschen, die weniger beziehungsorientiert sind oder unsicher, ob ihr Anliegen eine Hilfe rechtfertigt. Natürlich gibt es auch Menschen, die den direkten Kontakt am Telefon oder persönlich bevorzugen.

Vertrauen und Anonymität sind wichtige Faktoren für die Nutzung. Wie sorgt ihr dafür, dass die persönlichen Daten der Anwenderinnen und Anwender tatsächlich geschützt sind?

Affolter: Das Beratungsangebot ist anonym. Wir speichern keine Daten und werten die Informationen bewusst nicht aus. Zudem werden die Nutzerinnen und Nutzer von «Ella» zu Beginn ausdrücklich darauf hingewiesen, keine Namen von Beteiligten oder Unternehmen zu nennen. Unsere Datenschutzrichtlinien sind jederzeit transparent auf der Web-App einsehbar.

Künstliche Intelligenz und die Arbeitswelt entwickeln sich rasant weiter. Wie stellt ihr sicher, dass «Ella» damit Schritt hält?

Affolter: Die KI wird laufend mit neuem Wissen angereichert. Der Content wird jedoch nicht ständig aktualisiert. Wir sind mit den Bereichen «psychisch belastete Arbeitskolleginnen- oder -kollegen», «Reorganisation», «Frustration» und «Konflikt» gestartet. Dann kam die Kategorie «Umgang mit Emotionen» hinzu. Natürlich ist es möglich, dass im Laufe der Zeit weitere Themenbereiche hinzukommen.

Borer: Es gibt mehrere Faktoren, die dazu beitragen: Zum einen führen wir im Rahmen unseres Qualitätsmanagements regelmässig Bestandesaufnahmen durch und analysieren die Daten, die wir fortlaufend tracken. Zum anderen stehen wir in engem Austausch mit WorkMed und den Software-Entwicklern, um technische und inhaltliche Weiterentwicklungen frühzeitig aufzunehmen. Darüber hinaus lasse ich mich von meinen Aussenterminen inspirieren: Wenn ich eine Weiterbildung mache oder selbst Vorträge halte, achte ich darauf, welche Fragen gestellt werden und wo die grössten Herausforderungen bei den Menschen liegen.

Eine weitere wichtige Stossrichtung ist, «Ella» noch niederschwelliger zu gestalten. Das könnte beispielsweise bedeuten, dass sie ihre Nutzerinnen und Nutzer künftig aktiver begleitet − etwa indem sie einmal pro Woche daran erinnert, bestimmte Übungsangebote der WebApp «Etwas tun?!» zu nutzen.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert