Mobile

Wie Siri Sie verstehen lernt

"Hey Siri!" - Spracherkennung gehört heute in jedes moderne Smartphone. Früher noch im Gerät funktioniert das heute nur noch online – und das immer besser. Externe Server wandeln die Sprache in digitalen Text.

11.11.2015 Boris Boden
Spracherkennung-01
Während Spracherkennung früher noch „onboard“ erfolgte, werden heute die Daten an große Rechenzentren weitergeleitet.(Foto: venimo / Shutterstock.com)

Siri, Cortana & Co.

Wenn jemand "OK Google" oder "Hey Siri" ruft, meint er meist den Sprachassistenten seines Smartphones, den er durch diese Worte aktiviert. Danach folgt meist eine Frage wie "Brauche ich heute einen Regenschirm?", auf den das Smartphone prompt mit einem Wetterbericht antwortet. Jeder mit einem neuen Smartphone hat das schon einmal getestet. Das ist keine Magie, sondern das Ergebnis von Spracherkennung. Und die hat sich in den vergangenen Jahren erstaunlich gemausert und liefert - je nach Nuschelquote - recht häufig sehr respektable Ergebnisse.

Diese sehr anspruchsvolle Technologie ist an sich nicht neu und nicht auf Mobiltelefone beschränkt, sondern schon seit mehr als 15 Jahren verfügbar. Was damals auf PCs oder mit einfachen Befehlen zur Steuerung des Handys begann, ist heute ein komplexes System, das verschiedene Sprecher und sogar Zusammenhänge verstehen kann.

Bei den ersten Handy-Sprachsteuerungen, wie im Jahr 2000 im Philips Savvy, musste der Anwender noch einige bestimmte Befehle auswendig lernen und darüber hinaus sehr genau aussprechen, damit sie überhaupt verstanden wurden.

Bei manchen Modellen kam noch die Möglichkeit dazu, zum Anrufen einige wenige Namen aus dem internen Telefonbuch "anzulernen", indem diese mehrmals hintereinander aufgesprochen und dann im Gerät gespeichert wurden.

Allerdings erkannte das System dann in der Regel auch nur diesen einen Sprecher, dessen Eingabe vom Chip im Handy intern mit dem gesprochenen Satz ganz genau übereinstimmen musste. All das erfolgte schließlich auf Handys, die wenig Speicher und Rechenkapazität für komplexe Vorgänge hatten.

Siri lebt im Server

Mit der Einführung von Apples Spracherkennung "Siri" im Jahr 2011 änderte sich dann das grundsätzliche Arbeitsprinzip von Spracherkennung, denn das "Speech Interpretation and Recognition Interface" funktionierte serverbasiert, also "offboard" und nicht "onboard".

Das hat den Vorteil, dass ein leistungsfähiges zentrales System die Sprache verarbeiten kann, anstatt die Hardware-Kapazitäten im Gerät des Kunden zu gebrauchen. In der aktuellen Siri-Version für iOS 9 sind dabei sogar kontextabhängige Antworten auf ganze Sätze und Voicemail-Services möglich. Auch für Android und Windows gibt es ähnlich leistungsfähige Offboard-Lösungen, so zum Beispiel die Mobile Cloud des Sprachsoftware-Spezialisten Nuance, die im Monat mehr als 1,2 Milliarden Anfragen verarbeitet.

Spracherkennung-02
Sprachsteuerung im Auto: Ford nutzt die Sprachsteuerung zum Beispiel für die Eingabe von Navi-Zielen. (Foto: Ford)

Technisch muss die Spracherkennung auf zwei Ebenen funktionieren: Einmal müssen die Worte des Anwenders im Gerät überhaupt erfasst werden, im zweiten Schritt erfolgt dann auf dem Server die logische Umsetzung der Daten.

Die Spracherkennung wurde früher zunächst durch einen Tastendruck aktiviert, heute sind viele Smartphones aber auch ständig auf Zuruf aktionsbereit, da ein Co-Prozessor permanent auf solche Signale wartet. Als Erstes erfolgt eine Vorverarbeitung der analogen Sprache in digitale Signale.

Einen erfassten Befehl muss das System dann aber im Zentralrechner im nächsten Schritt auch richtig interpretieren, zum Beispiel wenn es um Wörter geht, die gleich klingen, aber eine unterschiedliche Bedeutung haben: Bei den Wörtern "Meer" oder "mehr" ist das durch die meist im Satz verwendeten Präpositionen noch relativ einfach, doch in einigen Sprachen kann der gleiche Klang zum großen Problem werden.

Hier kommen zum Beispiel Formeln zum Einsatz, die etwa die statistisch größte Wahrscheinlichkeit eines Wortes berücksichtigen. Auch muss das System eventuelle grammatikalische Schwächen oder regionale Dialekte erkennen und tolerieren. Für das gesamte Vokabular entsteht bei den Anbietern so eine Datenbank, die immer weiter wächst und so leistungsfähiger wird.

Neue Geräte hören zu

Dass die Spracherkennung mit ihren Möglichkeiten noch eine große Zukunft hat, ist klar: Mit immer mehr Rechen- und Speicherkapazität wird sie leistungsfähiger. Schließlich werden immer mehr Geräte am besten per Sprache gesteuert. Bei Nuance sorgen vor allem smarte Fernseher und Uhren für eine rasante Zunahme der Anfragen an den Cloud-Server.

Mobile RSS Feed abonnieren