Wenn der Computer auf den Fingerzeig reagiert
Mit immer neuen Technologien und Fortschritten zum Beispiel beim Deep Learning sind Computer zunehmend in der Lage, auch Gesten zu verstehen. Schon bald könnte es reichen, im Auto beim Vorbeifahren auf ein Geschäft zu zeigen und den Sprachassistenten zu fragen, ob dort gerade geöffnet ist. Die Kombination aus Gesten und Sprache nennt sich Multimodalität und wird in der Entwicklung von smarten Assistenten aktuell nicht nur bei autonomen Fahrzeugen zu einem Trendthema.
Menschliches Verhalten als Vorbild
Die Funktionsweise der Assistenten ist dem menschlichen Verhalten nachempfunden. So wird aus dem Fingerzeig oder der Blickrichtung und einer Frage eine Anweisung zusammengesetzt. Nach den Sprachassistenten dürften multimodale Eingaben die nächste Entwicklungsstufe für Eingabemethoden darstellen.
Über die Entwicklung multimodaler Assistenten berichtete unsere Quelle ChannelPartner.
Tagged autonomes Fahren, Zukunft, künstliche Intelligenz, Sprachassistenten, Entwicklung, Deep Learning, Multimodalität