Please activate JavaScript!
Please install Adobe Flash Player, click here for download

Nova Acta Leopoldina Band 110 Nummer 377

mit der Bedienerfreundlichkeit von aufgabenorientierten Sprachdialogsystemen und lehnen daher die umständlichen Auswahlmenüs und unkooperative Dialogführung von Systemen der ersten Generation vermehrt ab. Das Erkennungsvokabular ist in den besten Systemen von we- nigen hundert auf mehrere zehntausend Wörter angewachsen. Die Eingabe mehrerer Zielpa- rameter in einer einzigen Formulierung und die Möglichkeit zum spontanen Wechsel der Dialoginitiative zwischen Nutzer und System werden daher zur Grundvoraussetzung für kom- merziell erfolgreiche Sprachdialogsysteme. Vermehrt wird auch die Datenerfassung vor Ort über Mobilfunk in Sprachdialogen mög- lich. So ermöglicht beispielsweise E.ON seinen Strom- und Gaskunden rund um die Uhr die jährliche Zählerstandserfassung im Selbstservice per Sprachdialogsystem mit der vollständigen Erfassung von Kundennummer, Zählernummer, Ablesedatum und Zählerstand sowie mit einer Plausibilisierung des Zählerstandes durch Datenbankabgleich. Das System versteht auch grup- pierte Ziffern (z. B. „zehn, zwölf“ als Alternative zu „eins, null, eins, zwei“) und kann relative Datumsangaben (z. B. „am Sonntag“) in konkrete Datenbankeinträge umsetzen. Viele nützli- che Serviceangebote werden heute über Sprachdialogsysteme angeboten. So bietet die Bun- desvereinigung der Apotheker eine lokale Suche nach Apotheken mit Notdienst an, die über 15000 deutsche Ortsnamen versteht, und bei IKEA kann man über ein Sprachdialogsystem feststellen, ob ein gewünschtes Produkt in einem bestimmten Einrichtungshaus im Lager vor- handen ist. Durch biometrische Stimmidentifikation können Sprachdialogsysteme auch in si- cherheitskritischen Anwendungen eingesetzt werden, beispielsweise zur automatisierten Rücksetzung eines Zugangspasswortes. Im Fahrzeug können immer mehr sicherheitsunkritische Funktionen über Sprachdialoge gesteuert werden. In einem R-Klasse-Mercedes-Testfahrzeug des Deutschen Forschungszen- trums für Künstliche Intelligenz (DFKI) können alle Komfortfunktionen, die über den soge- nannten CAN-Bus (Controller Area Network) in Realzeit gesteuert werden können, vom Fahrer per Sprache über die Freisprechanlage des Fahrzeuges ausgelöst werden (vgl. Abb. 17). Durch die Verwendung von natürlichsprachlichen Quantoren („öffne alle Fenster“) und sprachlichen Raumreferenzen („die vorderen Fenster“, „das Fenster hinten links“) wird eine Mit den Dingen sprechen: Autos, Roboter und Weinflaschen als Dialogpartner? Nova Acta Leopoldina NF 110, Nr. 377, 119–141 (2011) 137 Abb. 17 Sprachsteuerung von Komfortfunktionen eines Automobils