zum Hauptinhalt
Mobil im Alter. Mit Hilfe moderner Technik sollen Senioren ihren Körper trainieren und so möglichst lange in ihrer gewohnten Umgebung bleiben – hoffen Ingenieure. In der Praxis stehen Ältere dem „neuen Kram“ oft skeptisch gegenüber.

© Fraunhofer-Institut

Technik: Der elektronische Pfleger

Meistens sind es die jungen Menschen, die von dem technischen Fortschritt profitieren. Es gibt aber auch Technik speziell für Senioren: Ausgeklügelte Überwachungsgeräte im Haushalt sollen das Leben alter Menschen sicherer machen.

Von Anna Sauerbrey

Frau Krenn hat sich an die silbrige Box unter dem Fernseher gewöhnt. Ihre Putzfrau hat sie angewiesen, keinesfalls an den Kasten zu rühren. Denn er verbindet sie mit ihrer Tochter, Brigitte Krenn. In der Wohnung installierte Sensoren messen, ob und wie aktiv ihre Mutter ist und warnen die Tochter bei längerer Ruhe zu ungewöhnlichen Tageszeiten per SMS. Die kann sich dann mit einem schnellen Anruf vergewissern, ob alles in Ordnung ist. Wenn Frau Krenn einmal stürzt und nicht mehr allein aufstehen kann, kann ihre Tochter Hilfe organisieren, obwohl sie nicht im selben Ort wohnt und beruflich viel unterwegs ist.

Brigitte Krenn ist Informatikerin und hat das System für ein österreichisches Unternehmen selbst entwickelt. „Vitasmart“ hat sie dann auch im Haus ihrer Mutter installieren lassen. „Ambient Assisted Living“, kurz AAL, ist der fachliche Überbegriff für solche technischen Systeme. Oft wird das als „intelligente Wohnumgebung“ übersetzt. Die AAL-Technik soll es älteren, behinderten und chronisch kranken Menschen ermöglichen, möglichst lange selbständig zu Hause zu leben.

Seit Jahren wird daran geforscht. Mit Hilfe von AAL sollen die explodierenden Kosten für die Pflege der immer älteren Bevölkerung gesenkt werden. Nun verlassen die ersten Systeme die Labors.

Doch der Weg zu einem lukrativen Massenmarkt ist beschwerlich. Als sich kürzlich Politiker und Wissenschaftler in Berlin zum vierten AAL-Kongress trafen, war man sich einig: Viele Systeme funktionieren zwar theoretisch ganz prima – nur mit den Menschen, die sie nutzen sollen, haben die Ingenieure nicht ausreichend gerechnet.

„Wir haben es mit einer ziemlich technikängstlichen Generation zu tun“, sagt Brigitte Krenn, die am Österreicheischen Forschungsinstitut für Künstliche Intelligenz arbeitet, einem Forschungsverbund von Universitäten und privaten Unternehmen. Daher müsse die Bedienung verbessert werden. Noch wird mit sehr unterschiedlichen Eingabeformen experimentiert.

Eine einfache und intuitive Form ist die Steuerung über Sprache. „Alles in allem funktioniert Spracherkennung heute schon sehr gut“, sagt Siegfried Kunzmann. Der Informatiker war früher bei IBM für die Sprachtechnologieforschung zuständig und leitet heute das European Media Laboratory (EML), ein privates Forschungsinstitut. Die Betonung liegt aber eher auf „alles in allem“. Zwar wird an Spracherkennungssoftware seit 50 Jahren geforscht, gut trainierte Computer schreiben inzwischen nach Diktat mit Fehlerquoten von unter fünf Prozent. Im Alltag hat die Sprachsteuerung allerdings noch Tücken, was auch das EML-Team erlebte, das ein Eingabesystem für zwei intelligente Häuser entwickelt und getestet hat. Über einfache Befehle sollten die Bewohner Heizung, Licht und Rollos steuern können.

Im Grunde kein Problem. „Spracherkennung funktioniert dann gut, wenn es wenige Hintergrundgeräusche gibt, wenn das System auf eine bestimmte Sprechweise trainiert werden kann und wenn die Menge der erwartbaren Wörter und Wortkombinationen in einem guten Verhältnis zur Rechenleistung der Computer steht“, sagt Kunzmann. Im Haus ist all das gegeben. Doch woher weiß der Computer, dass er gerade angesprochen wird – und dass die Worte „Heizung“ und „einschalten“ nicht zufällig im Gespräch fallen? „Dass die Leute ihre Befehle einfach in den Raum sprechen, ist noch Science-Fiction“, gibt Jozef Ivanecky zu, der die Tests des EML geleitet hat.

Die Forscher lösten das Problem, indem sie die Bewohner ihre Befehle in ihre Handys sprechen ließen, statt Raummikrofone zu verwenden. Der offensichtliche Nachteil: Man muss sein Handy immer dabei haben. Immerhin erkannte der Computer aber selbstständig, in welchem Raum sich ein Bewohner gerade befand. Dazu verwendeten Ivanecky und seine Kollegen die unterschiedliche Empfangsstärke des drahtlosen Internets, die die Handys registrierten. So genügte es „Licht aus“ zu sagen, der Computer bezog den Befehl dann automatisch auf den Raum, in dem sich der Sprechende befand. Im ersten Testhaus klappte die Sprachbedienung in 100 Prozent der Fälle, im zweiten allerdings nur in rund 80 Prozent. Für Menschen, die den Lichtschalter nicht mehr allein erreichen können, ist das keine akzeptable Quote.

Das Beispiel zeigt, dass selbst einfache Aufgaben wie das Licht ein- oder auszuschalten, so komplex sind, dass das Erfassen von Sprache nicht ausreicht. „Eine natürliche Interaktionsform wie Sprechen oder Gestik ist in der Regel nicht eindeutig. Deshalb versucht man, verschiedene Interaktionsformen zu kombinieren“, sagt Reiner Wichert, Koordinator des Bereichs AAL der Fraunhofer-Institute. Er schätzt ebenso wie Kunzmann, dass sich zur Steuerung von Assistenzsystemen eine Mischform aus Gestik und Sprache etablieren wird. Das Fraunhofer-Institut für Graphische Datenverarbeitung in Darmstadt nähert sich diesen Mischformen von der gestischen Seite. „Mir scheint es am natürlichsten, einfach auf das Gerät oder den Gegenstand zu zeigen, den ich bedienen möchte“, sagt Wichert.

Erfasst werden können die Gesten zum einen mit Kameras. Der Computer gleicht die Livebilder der Geste mit einem zuvor gespeicherten, dreidimensionalen Modell der Wohnung ab und kann so erkennen, wohin die Geste zielt. Allerdings werden Kameras in der Wohnung von den meisten Menschen abgelehnt – auch, wenn die Bilder gar nicht gespeichert oder gesendet werden. „Die Leute fühlen sich zu Recht ständig beobachtet“, sagt Wichert. Die Fraunhofer-Ingenieure arbeiten nun daran, Gesten mit Sensoren zu erfassen, die mithilfe von schwachen elektrischen Feldern Bewegungen und Positionen von Personen erkennen können. Ein entsprechendes System wurde bereits in dänischen Altenheimen getestet.

Im nächsten Schritt sollen die Ergebnisse aus der Sprach- und Gestensteuerung kombiniert werden. Solange die Systeme noch kleine Macken haben, müssen Wissenschaftler wie die Informatikerin Brigitte Krenn den Nutzern die Technik mit viel Geduld und gutem Zureden schmackhaft machen. Ihre Mutter hatte sie schließlich so weit, dass sie mit etwas telefonischer Hilfe sogar die Anlage neu starten konnte, nachdem das Computersystem abgestürzt war.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false