Das UCUI-Vorhaben zielt auf ein kognitives Bedienmodul, das eine adaptive, selbstlernende Interaktion mit technischen Geräten unterstützt und soll neben der Spracheingabe und -ausgabe, der Ausgabe von akustischen Signaltönen (earcons) und visuellen Symbolen (icons) auch die Erkennung einfacher Gesten ermöglichen. Alle Ein- und Ausgabemodalitäten werden dabei auf einer Semantikebene zusammengeführt, sodass die entsprechenden Informationen integriert verarbeitet werden.
Mehr erfahren
↧