Analyse und Evaluation von Sprachverarbeitungssystemen
Transcription
Analyse und Evaluation von Sprachverarbeitungssystemen
Analyse und Evaluation von Sprachverarbeitungssysteme Studienarbeit Universität Paderborn Fakultät für Elektrotechnik, Informatik und Mathematik Institut für Informatik Vorgelegt von Dounia Mirrouch Gutachter: Prof. Dr. Gerd Szwillus Betreuer: Dr. Brigitte Oesterdiekhoff Abgabedatum: 2. Mai 2006 Inhaltsverzeichnis 1. Einführung........................................................................................................................ 4 1.1. 2. Einführung in die Sprachtechnologie................................................................................. 5 Spracherkennungssysteme .............................................................................................. 7 2.1. 2.1.1. 2.1.2. 2.1.3. 2.1.4. 2.1.5. 2.1.6. Einführung ........................................................................................................................... 7 Linguistische Probleme................................................................................................................. 8 Größe des Wortschatzes ............................................................................................................... 8 Homophone.................................................................................................................................... 8 Groß- und Kleinschreibung.......................................................................................................... 8 Komposita ...................................................................................................................................... 9 Sonderschreibweisen..................................................................................................................... 9 2.2. Spracherkennungs-Engine .................................................................................................. 9 2.3. Klassifikation der Spracherkennungssysteme................................................................. 10 2.3.1. Einführung in Diktiersoftware................................................................................................... 10 2.3.1.1. Unterstützte Anwendungen .............................................................................................. 11 2.3.1.2. Analysefunktion ................................................................................................................. 12 2.3.1.3. Training .............................................................................................................................. 13 2.3.1.4. Headset ............................................................................................................................... 13 2.3.1.5. Fehlerkorrektur und Navigation...................................................................................... 14 2.3.2. Kommandosysteme ..................................................................................................................... 14 2.3.2.1. Sprechererkennung ........................................................................................................... 15 2.4. Software und Geräte mit eingebauter Spracherkennung .............................................. 16 2.4.1. Diktiersoftware............................................................................................................................ 16 2.4.1.1. Beschreibung des Tests der Stiftung Warentest ............................................................... 16 2.4.1.2. Beschreibung des Tests der Zeitschrift com!................................................................... 17 2.4.1.3. Ausführliches Testergebnis der Diktiersoftware ............................................................ 18 2.4.2. Geräte mit Sprachsteuerung ...................................................................................................... 23 2.5. 3. Sprachsynthese ............................................................................................................... 26 3.1. 3.1.1. 3.1.2. 3.1.3. 4. Zusammenfassung.............................................................................................................. 24 Ablauf der Sprachsynthese ............................................................................................... 26 Linguistische Probleme............................................................................................................... 27 Komposita .................................................................................................................................... 27 Sonderschreibweisen................................................................................................................... 27 3.2. Einsatzbereiche von Text to Speech ................................................................................. 27 3.3. Audio-Fileformate für Text to Speech ............................................................................. 28 3.4. Text to Speech-Engines und Reader-Software................................................................ 28 3.5. Zusammenfassung.............................................................................................................. 31 Aufbau und Nutzen der Sprachdialogsysteme ............................................................ 32 4.1. 4.1.1. 4.1.2. 4.2. 4.2.1. 4.2.2. 4.2.3. 4.2.4. 4.2.5. 4.3. 4.3.1. 4.3.2. 4.4. 5. Einsatzbereich von NDS ............................................................................................................. 33 Nachteile und Vorteile von NDS ................................................................................................ 33 Entwicklung von NDS Applikationen mittels VoiceXML.............................................. 34 Design gemischt-initiativer Dialoge .......................................................................................... 34 VoiceXML-Infrastruktur ........................................................................................................... 35 Vorteile von VoiceXML .............................................................................................................. 37 Voice Applikation Plattform und Entwicklungswerkzeuge .................................................... 38 Applikation Service Provider ..................................................................................................... 39 Voice over IP ...................................................................................................................... 39 Grundlagen von VoIP ................................................................................................................. 40 Vorteile und Nachteile von IP-Telefonie ................................................................................... 41 Zusammenfassung.............................................................................................................. 42 Analyse ausgewählter Programme ............................................................................... 43 5.1. 5.1.1. 5.1.2. 5.1.3. 5.2. 5.2.1. 5.2.2. 5.3. 6. Sprachdialogsysteme.......................................................................................................... 32 TTS Engines ....................................................................................................................... 43 Kriterien des Tests ...................................................................................................................... 44 Ausführliches Testergebnis der TTS-Engines .......................................................................... 45 Bewertung der TTS-Engines ...................................................................................................... 50 Dragon NaturallySpeaking Standard 7............................................................................ 50 Kriterien des Tests ...................................................................................................................... 52 Ergebnisse des Tests und Bewertung......................................................................................... 54 Zusammenfassung.............................................................................................................. 56 Zusammenfassung der Arbeit ....................................................................................... 57 1. Einführung Stell dir vor, du kommst nach Hause, und du sagst „Licht an“, „E-Mails vorlesen“ und „Radio anschalten“, und alles geschieht, weil eine Technologie deine Befehle entgegennimmt und ausführt. Diese Technologie ist Teil der sogenannten Sprachtechnologie; unter Sprachtechnologie versteht man die Aufzeichnung, Erkennung und die Ausgabe oder Wiedergabe von Wörtern oder Sätzen. Um diese Sprachtechnologien zu Sprachwissenschaftler und Toningenieure. entwickeln, kooperieren Softwareentwickler, Ein wichtiger Antrieb für die Entwicklung ist die immer weiter fortschreitende Miniaturisierung der Endgeräte. Erstens fehlen diesen portablen Endgeräten ergonomische Eingabegeräte wie eine ausreichend große Tastatur oder eine Maus, und diese möchte man auch nicht gerne zusätzlich mit sich herumschleppen. Zweitens sind die Displays klein, so dass zum Lesen einer Webseite oder einer E-Mail Scrollen von links nach rechts und von oben nach unten nötig ist. Drittens gibt es bestimmte Situationen, in denen man die Hände nicht benutzen kann, um das Gerät zu bedienen, zum Beispiel während des Autofahrens kann man keine Rufnummer wählen. Hier drängt sich die Nutzung der Sprache als Lösung der Probleme auf. Eine weitere Anwendung dieser Technologie sind die natürlichsprachlichen Dialogsysteme. Hierbei führt man in natürlicher Sprache einen Dialog mit einem Computer. Durch den Einsatz dieser Dialogsysteme kann man zum Beispiel in einem angenehmen Gespräch eine Fahrplanauskunft der Deutschen Bahn bekommen, oder nach Geschäftsschluss der Bank noch eine Transaktion durchführen. Die Sprachtechnologie hat ihre Wurzeln schon im 18. Jahrhundert. Die Entwicklung der Spracherkennung startete dann in den 50er Jahren des 20. Jahrhunderts. 1952 wurde zum ersten mal eine sprecheradaptive Erkennung einzelner Ziffern möglich. Das heißt, dieses System wurde von einer Person trainiert, indem sie die Ziffern in ein Mikrofon sprach, diese Sprache aufgenommen, digitalisiert und auf dem Rechner abgespeichert wurde; das System erkennt die von derselben Person gesprochenen Ziffern wieder. 1956 konnten einsilbige Wörter erkannt werden; 1970 waren die Systeme in der Lage, einzelne mehrsilbige Worte zu erkennen, doch sie wurden vom Verbraucher noch nicht angenommen, da sie zu teuer waren und ihr Wortschatz zu klein war. Im Jahre 1984 stellte die Firma IBM ein Sprachsystem vor, das mit Hilfe eines Großrechners ungefähr 5000 englische Einzelworte in mehreren Minuten erkannte. Erst 1986 entwickelte IBM ein in Echtzeit arbeitendes System, das sogar eine Kontextprüfung beinhaltete. Den Durchbruch erzielte IBM im Jahre 1994, indem sie die PC-Lösung „IBM VoiceType“ auf den Markt brachten, die nur zehn Prozent des Preises der Vorgänger kostete; es war aber immer noch nötig in isolierter Sprechweise zu reden. Erst Ende der 90er Jahre wurden Diktiersysteme von den Firmen IBM und Dragon Systems vorgestellt, die die übliche kontinuierliche Sprechweise erkannten. Diese Programme besitzen ein mehrere hunderttausend Wörter großes Wörterbuch und erzielen eine Erkennungsrate von über 90 Prozent.1 1 www.spracherkennung.de 1.1. Einführung in die Sprachtechnologie Wenn wir über Sprachtechnologie reden, dann meinen wir die Spracheingabe, Spracherkennung und Sprachausgabe. Bei der Spracheingabe spricht der Sprecher in ein Mikrofon; das Gesprochene wird digitalisiert, beim PC geschieht dies mittels Soundkarte. Erkennungsalgorithmen bearbeiten diese Eingabe, um sie zu verstehen; diesen Vorgang nennen wir Spracherkennung. Wichtige Teile der Spracherkennung bilden Kommandosysteme, Diktiersysteme und Sprechererkennung. Mit Kommandosystemen kann man zum Beispiel die Bedienoberfläche eines PCs durch die gesprochene Sprache steuern. Mit ihnen kann man sogar eine gespeicherte Rufnummer im Handy per Stimme wählen. Anstatt einen Text mit 2 Fingern in die Textverarbeitung eines PCs zu tippen, kann man diesen Text auch einem Diktiersystem diktieren, und das System sorgt dafür, dass die Sprache erkannt und geschrieben wird. Die Sprechererkennung ist ein biometrisches Verfahren, das die Identität des Sprechers liefert. Wir beschreiben Kommandosysteme, Diktiersysteme und Sprechererkennung näher in Kapitel 2. Manchmal möchte man sich einfach in seinem Schreibtischstuhl zurücklehnen und sich den diktierten Text nochmals vorlesen lassen. Es gibt Programme, die das tun, nämlich die Sprachausgabeprogramme. Das einfachste Verfahren zur Sprachausgabe ist die Wiedergabe von aufgezeichneter natürlicher Sprache. In Kapitel 3 werden wir aber die synthetische Sprachausgabe näher kennenlernen. Dies ist bekannt unter dem Namen Text-To-Speech. Unter diesem Verfahren werden Texte mit synthetisch erzeugter Stimme ausgegeben. TextTo-Speech wird in vielen Unternehmen angewendet, so beispielsweise bei Auskunftssystemen wie für das Wetter oder die Lottozahlen. Wer hat es noch nicht erlebt, bei einem Call Center anzurufen und ständig das Besetztzeichen zu hören, und sich noch nicht die Frage gestellt: Warum gibt es denn kein System, das meinen Anruf wenigstens entgegennimmt und mich dann zu einem geeigneten Gesprächspartner weiterleitet? Oder besser noch: Warum gibt es kein „intelligentes“ System, das meine Anfrage beantwortet? Ein klassisches System, das die Anrufe entgegennimmt und gegebenenfalls weiterleitet, heißt Interactive Voice Response (IVR) System. Die Fähigkeiten der IVR-Systeme wurden in der Zwischenzeit so stark erweitert, dass man auch den Namen in Sprachdialogsystem oder auch Voice Portal änderte. Das erste Voice Portal wurde 1996 von der Firma BellSouth eröffnet und wurde Val genannt.2 Ein Voice Portal oder auch Sprachportal oder Sprachdialogsystem ist ein System, bei dem man mit Computern in normaler Sprache fast wie mit einem Menschen sprechen kann. Der Anrufer stellt eine Verbindung mit einem Sprachportal her, der Voice Browser oder auch VoiceXML Interpreter nimmt die Verbindung an und lässt die Sprache von einer Spracherkennung in Text umwandeln; dieser Text ist die Eingabe für das VoiceXMLProgramm, das der Voice Browser interpretiert. Die Antworten sind in einer Datenbank entweder lokal oder auf einem Server gespeichert. Der Voice Browser gibt dem Text-ToSpeech Programm die Anweisung, die Antworten in Sprache umzuwandeln. Diese Sprache wird dem Anrufer übermittelt. Um ein Sprachdialogsystem zu entwickeln, braucht man also Spracheingabe und Sprachausgabe, genau die Komponenten, die in Kapitel 2 und Kapitel 3 näher behandelt werden. Mehr zu Sprachdialogsystemen und zur Architektur von Voice 2 www.dragon-medical-transcription.com/historyspeechrecognitiontimeline.html Browsern und Voice XML ist in Kapitel 4 zu finden. In dem selben Kapitel behandeln wir noch den wichtigen Punkt der Sprachübertragung mittels Internet Protokoll, das ist das Voice over Internet Protocol (VoIP). In Kapitel 5 wird eine Analyse ausgewählter Programme aus dem Bereich Spracherkennung und Sprachsynthese durchgeführt. 2. Spracherkennungssysteme In diesem Kapitel werden wir zunächst eine Einführung in die Spracherkennungssysteme geben und dabei insbesondere einige der auftauchenden Probleme näher erläutern. Im zweiten Abschnitt stellen wir einige Softwares vor, die für die Umwandlung von Sprache zu Text zuständig sind, die sogenannten Spracherkennungs-Engines. Im dritten Abschnitt führen wir dann eine Klassifikation der Spracherkennungssysteme durch. Dabei unterscheiden wir zwischen Diktiersoftware und Kommandosystemen. In dem vierten Abschnitt behandeln wir auf dem Markt befindliche Software und Endgeräte mit eingebauter Spracherkennung. Als Informationsgrundlage dienten zwei bekannte Zeitschriften, in denen einige Diktierprogramme getestet wurden. Bei diesen Tests wurde beachtet, wie gut die Erkennungsqualität beim Auftreten der Probleme aus dem zweiten Abschnitt ist. Bei den Endgeräten mit eingebauter Spracherkennung haben wir Handys und Geräte aus dem Home-Bereich gefunden. Da wir bei den Endgeräten keine unabhängigen Tests gefunden habe, beschränken wir uns auf die Herstellerinformationen zu diesen Produkten. 2.1. Einführung Die Spracherkennung ist ein Prozess zur Umwandlung der gesprochenen Sprache in geschriebenen Text. Dieser Text wird oft auch String genannt. Der Prozess besteht aus mehreren Stufen; in einer ersten Stufe werden die kleinsten Einheiten der gesprochenen Sprache extrahiert, diese heißen Phoneme oder auch Laute. Phoneme werden zu Wörtern zusammengesetzt, und in einer dritten Stufe werden die Wörter zu Sätzen zusammengefasst. Der Spracherkenner wird deshalb auch Speech-to-Text-Engine oder auch Automatic Speech Recognition (ASR) genannt. ASR ist aber der weitaus geläufigere Begriff. Die Spracherkennung ermöglicht die Eingabe von Daten an eine beliebige Anwendung, dadurch können andere Eingabegeräte wie Tastatur, Maus, Joystick und Zeichentablett durch die natürliche Sprache ersetzt werden. Der Anwender benötigt ein Mikrofon an seinem Computer oder er kann die Applikation per Telefon anrufen. Die erste Möglichkeit ist meistens für den persönlichen Bedarf, die zweite Variante wird oft bei Auskunftssystemen verwendet. Bei der Spracherkennung wird zwischen sprecherabhängiger und sprecherunabhängiger Erkennung unterschieden. Ein sprecherunabhängiges System kann von jeder beliebigen Person ohne Training genutzt werden. Das sprecherabhängige System muss von jedem Sprecher separat trainiert werden. Früher wurde zu diesen Systemen kein sprecherunabhängiger Wortschatz mitgeliefert, so dass der Sprecher mit großem Aufwand einen eigenen Wortschatz erstellen musste, bis die ersten zufriedenstellenden Erkennungsraten erzielt wurden. Heute ist bei den sprecherabhängigen Systemen ein sprecherunabhängiger Wortschatz eingebaut. Jetzt benötigt das System noch einige Minuten Zeit bis es eine Beziehung zwischen seinem Wortschatz und der Sprechweise des Sprechers hergestellt hat. Genau wie der hochdeutsch sprechende Mensch einige Zeit benötigt, bis er sich zum Beispiel an den sächsischen Dialekt gewöhnt hat. Die Qualität der Spracherkennung wird durch die Erkennungsrate gemessen. Dabei bedeutet eine Rate von 90 Prozent, dass jedes 10. Wort falsch erkannt wird, eine Rate von 98 Prozent bedeutet, dass nur noch jedes 50. Wort falsch ist. In der Spracherkennung treten Probleme auf, welche die Erkennung der gesprochenen Worte bzw. Sätze erschweren. In den nächsten Abschnitten, behandeln wir die wichtigsten sechs Probleme.3 2.1.1. Linguistische Probleme Um nicht näher auf die technischen Einzelheiten einzugehen, wollen wir die linguistischen Probleme, die die Erkennung von Worten beeinträchtigen, an Beispielen erläutern. Dadurch dass der Sprecher ein Wort nie exakt gleich aussprechen kann, entstehen die größten Schwierigkeiten bei der Spracherkennung durch den Computer. Außerdem gehören schlechte Mikrofone und Geräusche im Hintergrund zu den linguistischen Problemen. Wenn aber der Sprecher zum Beispiel am Rand einer stark befahrenen Straße zu einem anderen Menschen spricht, kann dieser Mensch trotz dieser Probleme den Sprecher durch dessen Gesten und durch den Kontext verstehen. Dem Computer stehen leider diese Möglichkeiten nicht zur Verfügung. 2.1.2. Größe des Wortschatzes Zu jedem gesprochenen Wort muss das ASR-System den zugehörigen String zuordnen können. Deshalb müssen alle diese Worte einschließlich aller Wortformen in einem Wörterbuch gespeichert sein. Ist ein gesprochenes Wort nicht in dem Wörterbuch vorhanden, dann wird anstelle dieses Wortes ein ähnlich klingendes Wort ausgegeben, wodurch sich die Erkennungsrate verringert. Daher wird zum Beispiel bei Diktiersoftware häufig die Möglichkeit geboten, ein speziell abgestimmtes Wörterbuch zu benutzen, das das Fachvokabular abdeckt wie zum Beispiel für Mediziner oder Juristen. 2.1.3. Homophone Homophone sind gleichklingende Wörter, die unterschiedlich geschrieben werden; das System muss entscheiden, welches der Wörter aus dem Wörterbuch dem gesprochenen Wort zugeordnet werden soll. Beispielsweise klingen die Wörter „mehr“ und „Meer“, „fiel“ und „viel“, „wieder“ und „wider“ vollkommen gleich ausgesprochen. 2.1.4. Groß- und Kleinschreibung Durch unterschiedliche Groß- und Kleinschreibung kann sich der Sinn eines gesprochenen Satzes vollständig ändern. Zum Beispiel hat der Satz „der Gefangene floh“ einen anderen Sinn als „der gefangene Floh“. Bei Diktierprogrammen wird versucht durch eine Kontextprüfung den richtigen Sinn zu ermitteln, um festzustellen, ob ein Wort groß oder klein ausgegeben wird. 3 www.spracherkennung.de/service/sebuch.htm 2.1.5. Komposita Kompositum ist die lateinische Bezeichnung für „zusammengesetztes Wort“, und gerade die deutsche Sprache erlaubt die Bildung zusammengesetzter Worte wie „Steuerlüge“. Obwohl die einzelnen Worte „Steuer“ und „Lüge“ wahrscheinlich in dem Wörterbuch vorhanden sind, wird das zusammengesetzte Wort in den meisten Fällen nicht erkannt. 2.1.6. Sonderschreibweisen Zu einem diktierten Text gehören auch gewisse Sonderschreibweisen wie z. B. Datum, Uhrzeit, Währung, Sonderzeichen, Internet- und E-Mail-Adresse. Eine gute Diktiersoftware soll in der Lage sein, zum Beispiel die Mailadresse „mirrouch at online Punkt de“ als „mirrouch@online.de“ umzusetzen. 2.2. Spracherkennungs-Engine Spracherkennungs-Engines - auf Englisch "automatic speech recognition engines" (ASREngines) - bilden die eigentliche Grundlage einer jeden mit Spracherkennung arbeitenden Software. Mit Hilfe dieser Engines ist eine einfache Integration von Spracherkennung in eine beliebige Anwendung wie zum Beispiel Diktiersoftware oder Voice Portale möglich. Es gibt 4 bekannte Hersteller von Engines, welche mehrere Sprachen, darunter Deutsch und Englisch, unterstützen; sie laufen entweder unter den neueren Windows Varianten oder unter Unix. Wir finden auf dem Markt Engines, die nur Teil einer Anwendung sind, wie die Engine Via Voice von IBM und ASR 1600 oder ASR 3200 von Scansoft als Teil der Diktiersoftware, aber auch vielseitige Engines wie VoCon-3200 von Scansoft, welche sogar in embedded Systemen aus dem Automobilbereich lauffähig ist. Wir haben die Engines von den bekannten Herstellern in der folgenden Tabelle zusammengefasst. Engine 4 UK English, US English, German und andere Philsoft ASR engine 3.25 UK English, US English, German und andere Sakrament ASR engine6 Unabhängig Loquendo ASR 4 5 6 Sprache www.loquendo.com/de/technology/asr.htm www.telisma.com/ASRengine.html www.sakrament-speech.com/products/asr/asr2 Sprecherabhängig/ Sprecherunabhängig -/Ja System Windows NT, 2000, Unix, Linux Red Hat 7.x Windows NT, 2000 Ja/Ja Windows 98, ME, NT, 2000, XP Engine Telisma ASR 3.2 VoCon-3200 engine8 Sprache 7 Sprecherabhängig/ Sprecherunabhängig UK English, US English, German und andere UK English, German und andere System Windows NT, 2000, Linux, Solaris, hp UX -/Ja Windows NT, 2000, XP, CE Tabellarische Übersicht der Engines 2.3. Klassifikation der Spracherkennungssysteme Die Spracherkennungssoftware wird in zwei Kategorien unterteilt, Diktiersoftware und Kommandosysteme. Diktiersoftware wandelt das gesprochene Wort in einen Text um, der Inhalt des Textes hat keinen Einfluss auf das Verhalten des Systems, mehr dazu im ersten Abschnitt. Kommandosysteme jedoch analysieren den Inhalt des Textes und reagieren. Die Reaktion kann in der Ausführung eines Befehls oder in der Ausgabe von Sprache bestehen. In diesem Kapitel werden wir nur Kommandosysteme ohne Sprachausgabe vorstellen. Kommandosysteme mit Sprachausgabe, die als natürlichsprachige Dialogsysteme bekannt sind, lernen wir erst in Kapitel 4 kennen. Den in diesem Kapitel vorgestellten Kommandosystemen begegnet man häufig direkt am eigenen PC oder auch am Handy, mehr dazu im zweiten Abschnitt. Die Sprechererkennung, einen Spezialfall der Kommandosysteme, werden wir ebenfalls kennenlernen. 2.3.1. Einführung in Diktiersoftware Diktiersysteme haben die Aufgabe, einen gesprochenen Text in getippten Text umzusetzen. Das Ergebnis ist dann ein Dokument, das in einem für eine bestimmte Anwendung verständlichen Format vorliegt. Häufig ist diese Anwendung ein Textverarbeitungssystem. Im ersten Abschnitt werden wir auf diese unterstützten Anwendungen genauer eingehen. In jedem Diktiersystem ist heutzutage ein Wörterbuch im Umfang von ca. 1 Million Wortformen integriert. Das Wörterbuch dient dazu, eine Beziehung zwischen dem vom Benutzer gesprochenen Wort und dem am ähnlichsten klingenden Wort in seiner Datenbank herzustellen. Dieses ähnlich klingende Wort wird dann auf dem Bildschirm ausgeschrieben. Das in dem Diktiersystem integrierte Vokabular kann vom Benutzer erweitert werden. Mehr dazu im zweiten Abschnitt. Für einige besondere Berufsgruppen wie zum Beispiel Juristen, Mediziner und IT-Berufe gibt es außerdem Fachvokabular, das in den Gesamtwortschatz mit eingebunden werden kann. 9,10 Heutige Programme können eine Erkennungsrate von 99 Prozent erreichen, allerdings kann diese Rate nur durch Sprecherabhängigkeit erreicht werden. Sprecherabhängige Systeme 7 www.telisma.com/overviewASR.html www.scansoft.com/automotive/vocon3200 9 com! 2004 Heft 5, S. 80 10 Freiheit, Lehner, Matousek: VoiceXML, Berlin und Offenbach 2003, S. 28 8 müssen vor ihrem ersten Einsatz vom jeweiligen Anwender trainiert werden. Genaueres hierzu im dritten Abschnitt. Zum Lieferumfang eines Diktiersystems gehört im allgemeinen auch ein Headset. Wenn der Benutzer einen Text diktieren will, setzt er dieses Headset auf und spricht in das Mikrofon. Im vierten Abschnitt werden wir den Einfluss der Qualität eines Headsets auf die Erkennungsrate näher erläutern. Ist ein Wort vom Diktierprogramm falsch erkannt worden, hat der Anwender die Möglichkeit, das Wort zu korrigieren. Es gibt dazu zwei Möglichkeiten, entweder manuell per Tastatur oder per Sprachbefehl. Genaueres dazu im fünften Abschnitt. 2.3.1.1. Unterstützte Anwendungen Die Spracherkennung ist im Prinzip in der Lage, das Schreiben von Texten und das Navigieren in einem Dokument zu übernehmen. Insbesondere ist dies in Textverarbeitungen, in E-Mail Programmen und in Tabellenkalkulationen willkommen. Bei unseren Recherchen haben wir herausgefunden, dass Anwendungen ohne Spezialfunktionen und die folgenden Programme von Diktiersoftware unterstützt werden: 11,12 Microsoft Word: wird oft auch kurz MS Word oder Word genannt und ist ein Textverarbeitungsprogramm der Firma Microsoft für die Windows-Betriebssysteme und MacOS.13 Wordpad: ist eine einfache Textverarbeitung der Firma Microsoft, die im Betriebssystem Microsoft Windows integriert ist. Dragon Pad: ist eine einfache Textverarbeitung, die mit Diktiersoftware der Hersteller Scansoft mitgeliefert wird. Speak Pad: ist eine einfache Textverarbeitung, die mit Diktiersoftware der Hersteller IBM und Linguatec mitgeliefert wird. Microsoft Outlook: ist ein weit verbreitetes Mail-Programm der Firma Microsoft für die Windows-Betriebssysteme.14 Pegasus Mail: bezeichnet einen E-Mail-Client, welcher von David Harris entwickelt wird. Versionen existieren für Microsoft Windows und MS-DOS. Pegasus Mail ist Freeware seit seiner Einführung im Jahr 1990.15 Microsoft Excel: ist ein Tabellenkalkulationsprogramm. Es ist sowohl für Microsoft Windows als auch für MacOS verfügbar. Die aktuell verfügbare Version ist Microsoft Excel 2004 für Macintosh (seit Juni 2004). Für Windows ist die aktuellste Version das Microsoft Excel 2003 (seit 21.10.2003).16 11 com! 2004 Heft 5, S. 83 Test 2004 Heft 1, S. 38 13 http://de.wikipedia.org/wiki/Microsoft_Word 14 http://de.wikipedia.org/wiki/Microsoft_Outlook 15 http://de.wikipedia.org/wiki/Pegasus_Mail 16 http://de.wikipedia.org/wiki/Excel 12 Internet Explorer: (Abkürzung IE oder MSIE) ist ein Webbrowser von Microsoft für Microsoft Windows und MacOS. Für einige Zeit gab es auch Versionen für Unix-Derivate wie Solaris und AIX. Der Internet Explorer ist mit über 88,9% Marktanteil der meistgenutzte Browser im Internet (Stand: November 2004). Der IE ist Bestandteil des Betriebssystems Microsoft Windows seit Windows 95 SR2.17 Der Desktop: ist das englische Wort für das deutsche Word Schreibtisch. Er ist bei graphischen Benutzeroberflächen die Arbeitsfläche und damit die unterste Fensterebene. Zum Desktop gehören Symbole (Icons), die Programme, Systembestandteile, Dateien und Speichermedien, wie Disketten, Festplatten und CDs, repräsentieren. Dazu gehört auch ein Papierkorb, in den Programme und Dateien gezogen werden können, um sie anschließend durch Entleeren des Papierkorbs zu löschen. Von den mir bekannten Diktierprogrammen wird der Microsoft Windows-Desktop unterstützt.18 AOL: ist ein US-amerikanischer Onlinedienst, der sich 1995 auch in Deutschland niedergelassen hat. AOL setzte für die Einwahl in das Internet jahrelang auf eine proprietäre Software mit eigenständiger Konnektivität, ohne die es nicht möglich war, AOL zu nutzen. Inzwischen kann man AOL auch ohne diese Software nutzen. Jedoch wird die AOL Software weiterhin vermarktet, da sie eine gute Plattform für Internetneulinge darstellt.19 2.3.1.2. Analysefunktion Die Wörterbücher aktueller Diktiersoftware sind selbsterweiternd, das heißt, es gibt eine Analysefunktion, welche aus Dokumenten verschiedener Dateiformate einliest und nach neuen Wortformen durchsucht. Diese werden dann einzeln oder im ganzen dem Wörterbuch hinzugefügt. Es werden ASCII, RTF und HTML Dateien analysiert. Außerdem werden Dokumente analysiert, die mit einem der Textverarbeitungsprogramme Word bzw. Word Perfect oder mit einem der E-Mail Programme Outlook bzw. Lotus Notes erstellt wurden. Wir geben eine kurze Beschreibung der oben aufgeführten und bisher noch nicht beschriebenen Dateiformate bzw. Programme. ASCII: ist ein amerikanischer Standard-Code für den Informationsaustausch; ASCII beschreibt einen Sieben-Bit-Code. Dieser Code verwendet binäre Ganzzahlen, die mit sieben binären Ziffern dargestellt werden (entspricht 0 bis 127), um Zeichen darzustellen.20 RTF: Das Rich Text Format ist ein Dateiformat für Texte, das von Microsoft eingeführt wurde und zum Datenaustausch zwischen Textverarbeitungsprogrammen verschiedener Hersteller dient.21 HTML: Die Hypertext Markup Language ist ein Dokumentenformat zur Auszeichnung von Hypertext im World Wide Web.22 WordPerfect: ist ein Textverarbeitungsprogramm der Firma Corel für die WindowsBetriebssysteme ähnlich zu Microsoft Word.23 17 18 19 20 21 22 http://de.wikipedia.org/wiki/Internet_Explorer http://de.wikipedia.org/wiki/Schreibtisch_%28EDV%29 http://de.wikipedia.org/wiki/AOL http://de.wikipedia.org/wiki/ASCII http://de.wikipedia.org/wiki/Rich_Text_Format http://de.wikipedia.org/wiki/Html Lotus Notes: ist ein Programmpaket der Firma IBM, in dem insbesondere ein E-Mail Programm integriert ist.24 2.3.1.3. Training Jeder Mensch spricht anders; um die Sprechweise des Benutzers zu analysieren und Rückschlüsse auf seine Aussprache zu ziehen, erstellt die Diktiersoftware ein Profil jedes Benutzers. Sie gibt dem Benutzer Trainingstexte vor, die er vom Bildschirm ablesen und ins Mikrofon sprechen muss. Dabei soll der Sprecher klar und deutlich sprechen, das optimale Ergebnis wird erzielt, wenn er sich die Nachrichtensprecher in Radio oder Fernsehen zum Vorbild nimmt. Langsam oder laut zu sprechen verschlechtert das Ergebnis. Die Trainingstexte zu lesen dauert zwischen 15 und 25 Minuten. Nach dieser kurzen Trainingszeit ist das Ergebnis aber noch nicht wirklich praxistauglich. Daher muss das Training noch mit anderen Texten wiederholt werden. Zudem muss das Training erneuert werden, wenn das Headset gewechselt wird. Im folgenden Bild wird gezeigt, wie Dragon NaturallySpeaking trainiert wird: 2.3.1.4. Headset Ein wesentlicher Teil der Genauigkeit der Spracherkennung beruht darauf, dass das Mikrofon sich immer im selben Abstand und an der selben Stelle des Mundwinkels befindet. Ein stabiles Headset mit Störgeräuschfilter verbessert die Erkennungsrate, da die Störgeräusche aus der Umgebung gar nicht mehr von der Spracherkennung verarbeitet werden müssen. Im folgenden Bild wird gezeigt, wie der Benutzerassistent hilft, das Mikrofon korrekt zu positionieren: 23 24 http://www.corel.com http://www-306.ibm.com/software/lotus/ 2.3.1.5. Fehlerkorrektur und Navigation Der wichtigste Punkt bei der kontinuierlichen Verbesserung der Spracherkennung ist, das Programm bei jedem Fehler zu korrigieren. Da man es mit einer Diktiersoftware zu tun hat, möchte man die Fähigkeit der Spracherkennung ausnutzen um Korrekturen durchzuführen. Mit höchstens 2 Befehlen möchte man das falsch erkannte Wort per Sprache ersetzen. Bei der aktuellen Diktiersoftware wird diese Funktion mittlerweile unterstützt, um diese zu aktivieren, braucht man zum Beispiel nur den Befehl „Korrigiere <Wort>“ auszusprechen, und es öffnet sich ein Korrekturfenster. In dem Korrekturfenster werden mehrere Korrekturvarianten angezeigt, per Sprachbefehl, etwa mit „nimm 2“, wird das fehlerhafte Wort durch das ausgewählte Wort ersetzt. Eine andere Funktion bieten die aktuellen Diktierprogramme ebenfalls, nämlich die sprachgesteuerte Navigation. Per Sprache lässt sich die Cursorposition ändern oder eine Menüoption auswählen. 2.3.2. Kommandosysteme In diesem Kapitel lernen wir Kommandosysteme kennen, auch bekannt unter dem englischen Begriff Command-and-Control-Systeme. Sie sind Systeme, die auf Sprachbefehle ohne synthetische Sprachausgabe reagieren. Wir lernen einen Spezialfall der Kommandosysteme kennen, die Sprechererkennung. Hier wird der Befehl nur ausgeführt, wenn der Sprecher vom System erkannt wurde. Kommandosysteme reagieren auf einfache gesprochene Befehle mit bestimmten Aktionen, deshalb verfügen sie nur über einen kleineren Wortschatz. Diese Kommandos können z.B. sein: „Öffne Datei“, „ja“, „nein“, ... . Wenn der Benutzer das Kommando „Exit“ ausspricht, dann verhält sich das System so, als ob man mit der Maus die Option „Exit“ geklickt hätte. Heutzutage finden wir sprachgesteuerte Systeme in der Diktiersoftware, dies haben wir schon unter dem Stichwort Navigation kennengelernt. Außerdem gibt es Kommandosysteme in Autos, Home-Entertainment und in den einzelnen Geräten wie Kaffeemaschine, Klimaanlage, Spielzeug, Telefon, ... . Für Autofahrer stellen Kommandosysteme eine sichere Bedienung dar, so sind sie nicht abgelenkt, wenn sie das Radio, die Klimaanlage, das Telefon oder das Navigationssystem per Sprache bedienen. Zum Home-Entertainment zählen Fernseher, Radiogeräte, Videorecorder, CD-Player, DVD-Player, etc. … . Sie lassen sich gemütlich auf dem Sessel sitzend per Stimme steuern, die Lautstärke lässt sich regeln oder das gewünschte Lied wird abgespielt ohne sich die Mühe zu machen, nach der richtigen Fernbedienung zu suchen. Kaffeemaschine lässt sich ebenso per Sprache steuern, indem sie angeht ohne auf dem Knopf zu drücken, leider muss man das Kaffeepulver selbst in den Filter einfüllen. Wenn das Feature Sprachsteuerung bei Handys vorhanden ist, so lässt sich das Wählen der gespeicherten Rufnummer ebenfalls durch das Aussprechen des jeweiligen Namens ersetzen. 2.3.2.1. Sprechererkennung Sprechererkennung ist der Prozess automatisch auf Basis der individuellen Information, die in der Stimme enthalten ist, zu erkennen, wer gerade spricht. Die Sprechererkennung kann man unterteilen in Sprecheridentifikation und Sprecherverifikation. Die Sprecheridentifikation entscheidet, wer aus einer vorgegebenen Menge von Sprechern gerade spricht, die Sprecherverifikation hingegen stellt fest, ob der Sprecher derjenige ist, der er vorgibt zu sein. Bei der Sprechererkennung werden Sprechproben jedes Benutzers aufgenommen analysiert und abgespeichert. Um einen Sprecher zu identifizieren, spricht er in ein Mikrofon, die Anlage stellt anhand der Stimmenprofile fest, wer gerade spricht falls eine Übereinstimmung vorliegt, andererseits wird er als Unbekannter erkannt. Um einen Sprecher zu verifizieren, spricht er seinen Identifikationscode, zum Beispiel seinen Namen, in ein Mikrofon. Die Anlage stellt fest, ob der Sprecher derjenige ist, der er vorgibt zu sein. Die geeignetsten Anwendungsbereiche für die Sprechererkennung liegen im telefonischen Bereich. Sie kann der Kontrolle der Berechtigung bei finanziellen Transaktionen dienen oder der Authentifikation bei telefonischen Dienstleistungen. Außerhalb des telefonischen Bereichs liegt die wesentliche Anwendung dieser Technologie im Sicherheitsbereich. Bei den Recherchen zu diesem Punkt sind wir gerade auf zwei bekannte Firmen gestoßen, die Sprecherverifikationssoftware herstellen, nämlich Nuance und Scansoft. Es handelt sich um die Programme Nuance Verifier, ScanSoft SpeechWorks und Scansoft SpeechSecure. 2.4. Software und Geräte mit eingebauter Spracherkennung Wir haben bisher die Klassen der Spracherkennungssoftware kennengelernt und die Einsatzmöglichkeiten der Diktiersoftware und der Kommandosysteme beschrieben. Wir werden jetzt konkrete auf dem Markt befindliche Software und Geräte mit eingebauter Spracherkennung vorstellen. Im ersten Abschnitt geben wir die Ergebnisse der Recherchen über Diktiersoftware vor allem für die deutsche Sprache wieder; diese Informationen stammen aus bekannten Zeitschriften. Im zweiten Abschnitt haben wir eine Liste von Handys zusammengestellt, die Sprachsteuerung unterstützen, außerdem stellen wir Beispiele verschiedener Geräte mit eingebautem Command-and-Control-System vor; diese Informationen stammen Zeitschriften und aus dem Internet. 2.4.1. Diktiersoftware In diesem Abschnitt stellen wir 6 Diktierprogramme vor, diese Informationen sind aus den beiden bekannten Zeitschriften „test“ herausgebracht von der Stiftung Warentest und „com!“ entnommen. Stiftung Warentest testete in [test, 1/2004, S. 38] alle diese Diktierprogramme, während in der Zeitschrift [com!, 5/2004, S. 80] nur drei davon getestet wurden. Die Hersteller dieser Software sind „Scansoft“, „Linguatec“ und „IBM“ die beiden letzten benutzen die gleichen Spracherkennungs-/Sprachausgabe-Engines, während „Scansoft“ selbst entwickelte Engines benutzt. Sie sind die einzigen auf dem Markt, die sich mit Diktiersoftware beschäftigen; alle übrigen haben sich inzwischen zurückgezogen. Wir werden eine Beschreibung des Tests von beiden Zeitschriften geben. Da aber die Testergebnisse von „test“ relativ dürftig sind, werden nur die Ergebnisse der drei in beiden Zeitschriften getesteten Produkte ausführlich kommentiert; dabei stammen einige Fakten über die Diktierprogramme von den Internetseiten der entsprechenden Hersteller. Die Ergebnisse aller Produkte werden abschließend in einer Tabelle am Ende dieses Abschnitts zusammengefasst. 2.4.1.1. Beschreibung des Tests der Stiftung Warentest Es wurden die folgenden sechs Diktierprogramme auf insgesamt 4 verschiedenen PCs mit jeweils 256 MB RAM unter dem Betriebssystem Microsoft Windows XP Home getestet. „Linguatec Voice Pro 10 USB-Edition“ „Dragon NaturallySpeaking Version 7 Preferred“ „IBM ViaVoice R10 Pro Edition“ „IBM ViaVoice Standard Edition Release 8.02“ „Dragon NaturallySpeaking Version 7 Standard“ „Voice Office Premium 10“ Bewertet wurden Spracherkennung und Handhabung; was wir darunter verstehen wollen, ist in den folgenden zwei Punkten genauer beschrieben: (1) Spracherkennung: Um diese zu bewerten, wurden gezielt fünf Punkte herangezogen, nämlich die Art des diktierten Textes, der Einfluss von Hintergrundgeräuschen, die Lernfähigkeit, die Navigation und technische Prüfungen. Zum Testen der diktierten zehn Personen, darunter zwei mit Dialekt, eine mit Akzent und ein Kind jeweils 3 Aufsatztexte, einen Geschäftsbrief und ein Gedicht. Außerdem wurden mit vier Testpersonen weitere Tests zum Einfluss von Hintergrundgeräuschen durchgeführt. Die Lernfähigkeit der Software wurde von vier Testpersonen durch Korrigieren der aufgetretenen Fehler und wiederholtes Diktieren ermittelt. Die Navigation per Spracheingabe testen drei Prüfpersonen in drei Programmen: der Textverarbeitung Microsoft Word 2000, dem Browser Microsoft Internet-Explorer 6 und dem E-Mail Programm Pegasus Mail 4. Bei den technischen Prüfungen untersucht die Stiftung Warentest die Start- und Beendungsdauer sowie den Ressourcenbedarf auf der Festplatte und im Hauptspeicher. Ferner beurteilen sie die Bearbeitungszeit, den Speicherbedarf und die CPU-Zeit für eine vorgegebene Aufgabenstellung. (2) Handhabung: Unter diesem Stichwort werden drei Punkte geprüft und bewertet, nämlich die Benutzerführung, Handbücher- und Hilfefunktionen, sowie Installation und Deinstallation. Zur Beurteilung der Benutzerführung urteilten ein Fachmann und zwei interessierte Laien über die Handhabbarkeit der Software, die Einheitlichkeit der Begriffe und des Layouts, die Verständlichkeit von Fehlermeldungen, und die Übersichtlichkeit der Bedienoberfläche. Ein Fachmann und ein interessierter Laie beurteilten die Handbücher und die Hilfefunktion der Software. Installation und Deinstallation wurden ebenfalls untersucht. Die Bewertungen der obigen Punkte wurden in Form von Schulnoten vorgenommen und in einer Tabelle zusammengefasst, aber nicht näher begründet. Die Tabelle befindet sich am Ende des Abschnitts „Diktiersoftware“. Leider bleiben die diktierten Texte und die genaue Art der Fehler unbekannt. 2.4.1.2. Beschreibung des Tests der Zeitschrift com! Die ersten drei der sechs von der Stiftung Warentest getesteten Diktierprogramme wurden auch von der Zeitschrift „com!“ getestet, jeweils eines von den drei Herstellern von Diktiersoftware. Es wurden zwei Testdurchläufe mit dem gleichen diktierten Text durchgeführt. Der erste Testdurchlauf wurde mit dem mitgelieferten Headset durchgeführt, beim zweiten Test wurden optimale Testbedingungen dadurch geschaffen, dass das spezielle Spracherkennungs-Headset „DSP-100“ der Firma „Plantronics“ benutzt wurde und der diktierte Text zuvor der Analysefunktion unterzogen wurde. Es wurden sieben Kriterien untersucht, und ein Text so zusammengestellt, dass zu jedem mehrere Beispiele vorkommen. Es sind: 1. Groß-/Kleinschreibung bei persönlicher Anrede 2. phonetisch ähnliche aber semantisch unterschiedliche Wörter 3. Komposita (zusammengesetzte Wörter) 4. Besonders ausgefallene Deklination (Genitiv, ...) 5. Datum, Uhrzeit, Währung, Sonderzeichen, Internet- und E-Mail-Adresse 6. Manuell auf der Tastatur ausgeführte oder gesprochene Befehle 7. Fachvokabular (hier: juristische Terminologie) Dabei wurde folgender Text vorgelesen; die Farbmarkierungen in diesem Text entsprechen den obigen Kriterien: Sehr geehrter Herr Müller, <manuelle (händische) Zeilenschaltung > wie Ihnen sicher bekannt ist, müssen Sie das Umtauschrecht auf jeden Fall in Anspruch nehmen, indem Sie das Rücksendungspaket, in dem die Ware gut verpackt ist, spätestens nach 14 Tagen zur Post bringen und bei der Postschalterfiliale aufgeben. In Ihrem Falle wäre dies der 25. März 2004. Achten Sie bitte bei der Rücksendung darauf, dass Sie sie mit 4,20 € ausreichend frankieren. <manuelle (händische) Zeilenschaltung > Wir erhalten jeden Tag viele Räder zurückgeschickt. Ich kann Ihnen nur den Rat geben, dass Sie das Rad gut verpacken, wobei die Verpackung des Fahrrads von Ihnen übernommen werden muß! <Zeilenschaltung gesprochen> Wir erwarten dann Ihre Sendung spätestens am 1. April 2004 bis 16:00 Uhr. Weitere Informationen bezüglich des Versandes erhalten Sie im Internet unter www.Informationen.de oder über eine Email an Frage@Informationen.de. <Absatzschaltung gesprochen> Sämtliche juristischen Fragen sind in unseren AGBs beschrieben. Beachten Sie bitte insbesondere §8 Abs. 7 zum Thema Schickschuld (siehe auch BGB §269) sowie die Anmerkungen zum „Gewährleistungsrecht“ und der „Gefahrtragung beim Versand von Artikeln“. Es grüßt aus Münchens kaltem Norden Tinte & Klecks GmbH 2.4.1.3. Ausführliches Testergebnis der Diktiersoftware Im diesem Abschnitt werde ich eine Zusammenfassung aller Ergebnisse der Tests der Diktierprogramme von der Zeitschrift „com!“ geben. Die am Ende eingefügte Tabelle stammt aus der Zeitschrift „test“. 1. Linguatec Voice Pro 10 USB-Edition: Dieses Programm arbeitet mit der IBM Via Voice Spracherkennungs-Engine und benutzt als SprachausgabeEngine Via Voice Text-To-Speech. Es verfügt über ca. 1 Million Wortformen, und kann durch Wörterbücher aus den Bereichen Geschäftskorrespondenz, Computer, IT und Recht um 100.000 Einträge erweitert werden. Außerdem kann es durch die Analyse von Word-, Rich Text (RTF)-, Ascii- und HTMLDokumenten erweitert werden. Die Software ist nur für die deutsche Sprache erhältlich. Es werden mehrere Anwendungen unterstützt, unter anderem Excel, Outlook, Word, Desktop, AOL, Internet-Explorer und Speak Pad, sowie weitere Anwendungen ohne Spezialfunktionen. In dem com!-Test wurden alle Formen der Groß- und Kleinschreibung bei persönlicher Anrede korrekt umgesetzt. Auch alle phonetisch ähnlich klingenden aber semantisch unterschiedlichen Wörter sowie zusammengesetzte Wörter und ausgefallene Deklinationen wurden richtig geschrieben. Schwierigkeiten hatte das Programm bei E-Mail- und Internetadressen. Bei manuell auf der Tastatur ausgeführten oder gesprochenen Befehlen wird bei Absätzen immer groß, und bei neuen Zeilen immer klein weitergeschrieben. Bei dem Diktieren des Wortes „Gewährleistungsrecht“ als juristisches Fachwort wurde statt dessen „Gewährleistungsfristen“ geschrieben. Durch Schaffung der „optimalen Bedingungen“ wurde die Anzahl der Fehler von 9 auf 6 reduziert. Die sprachgesteuerte Navigation im Dokument geschieht mit Hilfe ziemlich langer Befehle und diese werden häufig nicht als Navigationsbefehle erkannt sondern ausgeschrieben. Die Software bietet gute, aber etwas umständliche Korrekturfunktionen. Ein qualitativ gutes Headset mit USB-Anschluß wird mitgeliefert. Es ist sehr solide verarbeitet, drückt nicht beim Aufsetzen und hält den Abstand des Mikrofons. 2. Dragon NaturallySpeaking Version 7 Preferred: Dieses Produkt ist mit der hauseigenen Dragon-Spracherkennungs-Engine und mit der Scansoft Real Speak V2 Sprachausgabe-Engine ausgestattet. Es verfügt über 1 Million Wortformen bei einem Grundwortschatz von 250.000. Der Wortschatz kann durch die Analyse von Dokumenten verschiedenster Formate erweitert werden, nämlich durch Word-, Word Perfect-, Rich Text (RTF)-, Ascii- und HTML-Dateien sowie durch Dateien der beiden E-Mail-Programme Notes und Outlook. Die Software ist für die Sprachen Deutsch und Englisch erhältlich. Es werden mehrere Anwendungen unterstützt, unter anderem Excel, Outlook, Word, Desktop, AOL, Internet-Explorer und Dragon Pad, sowie weitere Anwendungen ohne Spezialfunktionen. In dem com!-Test wurde deutlich, dass das Programm Schwierigkeiten bei der Groß- und Kleinschreibung bei persönlicher Anrede hat; es schrieb „sie“ anstelle von „Sie“; dieses Problem lässt sich leider nicht durch Training beheben, sondern nur dadurch, dass man z. B. explizit „Groß Sie“ diktiert, damit „Sie“ statt „sie“ geschrieben wird. Bei den phonetisch ähnlich klingenden aber semantisch unterschiedlichen Wörtern wurden die Unterscheidungen nicht immer korrekt umgesetzt, wie bei „in dem“ und „indem“. Beide im Text vorkommenden Komposita wurden richtig zusammengesetzt. Bei den ausgefallenen Deklinationen wurde anstelle von „kaltem“ „kalten“ erkannt. Alle Sonderschreibweisen wie Datum, Uhrzeit, Währung, Internetadresse und E-Mail-Adresse wurden korrekt umgesetzt. Bei manuell auf der Tastatur ausgeführten oder gesprochenen Befehlen wird die Groß- und Kleinschreibung anhand des vorangehenden Satzzeichens festgestellt. Bei dem juristischen Fachvokabular wurde statt „BGB“ „DGB“ erkannt. Durch Schaffung der „optimalen Bedingungen“ wurde die Anzahl der Fehler von 11 auf 5 reduziert. Die Navigation innerhalb des Dokumentes kann an Hand von Zeichen, Wörtern, Zeilen und Absätzen sehr exakt durchgeführt werden. Ein analoges Headset von hohem Tragekomfort wird mitgeliefert, aber das Mikrofon ist wackelig, und die Erkennungsrate hängt sehr stark von der Mikrofonposition ab. 3. IBM ViaVoice R10 Pro Edition: Dieses Programm arbeitet wie „Linguatec Voice Pro 10“ mit der IBM Via Voice Spracherkennungs-Engine und der Via Voice Sprachausgabe-Engine. Es besitzt die gleichen Fähigkeiten wie „Linguatec Voice Pro 10“, nur auf zusätzliche Wörterbücher muss man verzichten. Trotz der Ähnlichkeit in den technischen Details war die Erkennung nicht von der gleichen Qualität wie bei „Linguatec Voice Pro 10“. In dem com!-Test hatte das Programm Probleme bei der Groß- und Kleinschreibung bei persönlicher Anrede, es konnte „Sie“ und „sie“ nicht unterscheiden. Alle phonetisch ähnlich klingenden aber semantisch unterschiedlichen Wörter wurden erkannt, aber die zusammengesetzten Wörter wurden nicht zusammengezogen. Bei den ausgefallenen Deklinationen wurde „kalten“ statt „kaltem“ erkannt. E-Mail- und Internetadressen wurden falsch geschrieben. Bei manuell auf der Tastatur ausgeführten oder gesprochenen Befehlen wird bei Absätzen immer groß, und bei neuen Zeilen immer klein weitergeschrieben. Die juristische Fachterminologie wurde nicht erkannt, sogar das Wort „Paragraf“ wurde ausgeschrieben und Absatz wurde nicht abgekürzt. Durch Schaffung der „optimalen Bedingungen“ wurde aber die Anzahl der Fehler drastisch von 15 auf 6 reduziert. Die sprachgesteuerte Navigation im Dokument geschieht mit Hilfe ziemlich langer Befehle und diese werden häufig nicht als Navigationsbefehle erkannt sondern ausgeschrieben. Die Software bietet gute, aber etwas umständliche Korrekturfunktionen. Ein Headset mit soliden Bügeln wird mitgeliefert. Es hat einen festen Sitz ohne zu drücken. Leider ändert sich der Abstand des Mikrofons zu leicht. In der folgenden Tabelle die Diktierprogramme von „Warentest“: Zusammenfassung der Ergebnisse aller sechs Linguatec Voice Pro 10 USB-Edition IBM ViaVoice R10 Pro Edition Dragon NaturallySpeaking Version 7 Standard Webadresse www.linguatec.de www.scansoft.de www.scansoft.de Aufsatz und Geschäftsbrief Gut Gut Befriedigend Gedicht Befriedigend Befriedigend Gut Einfluss von Hintergrundgeräuschen Sehr gut Sehr gut Gut Lernfähigkeit Sehr gut Gut Gut Navigation Befriedigend Befriedigend Benutzerführung Gut Gut Gut Audiodatenimport Ja Ja Nein Ja Ja Nein Ja Ja Nein Recht, Wirtschaft, Computer, IT Recht, Wirtschaft, Computer, IT, Medizin Nein Ja Ja Ja Ja Ja Ja Ja Ja Nein Windows 98 SE, 2000 (SP2), NT 4.0 (SP6), Me, XP Home oder XP Professional Windows 95/98/NT/XP Home Windows 98 SE, 2000, NT 4.0 (SP6), Me, XP Home oder XP Professional Nachträgliches Abhören des Diktats Speichern des Diktats als Audiodatei Fachvokabular mitgeliefert Sprachgesteuerte Mausbedienung Sprachgesteuerte Tastaturbedienung Vorlesen mit synthetischer Stimme Systemvoraussetzungen Testergebnisse der Stiftung Warentest Gut Dragon NaturallySpeaking Version 7 Preferred IBM ViaVoice Standard Edition Release 8.02 Voice Office Premium 10 Webadresse www.scansoft.de www.scansoft.de www.interlinx.de/ vo10xp.html Aufsatz und Geschäftsbrief Befriedigend Gut Befriedigend Gedicht Befriedigend Befriedigend Befriedigend Einfluss von HintergrundGeräuschen Gut Sehr gut Befriedigend Lernfähigkeit Ausreichend Befriedigend Sehr gut Navigation Gut Ausreichend Mangelhaft Benutzerführung Gut Gut Ausreichend Ja Nein Ja Ja Ja Ja Nein Ja Ja Nein Nein Wirtschaft Ja Nein Nein Ja Nein Ja Ja Ja Ja Windows 98, Me, 2000, XP Windows 98 SE, NT 4.0 (Service Pack 6), Windows 2000 (Service Pack 2), XP Home/Pro Audiodatenimport Nachträgliches Abhören des Diktats Speichern des Diktats als Audiodatei Fachvokabular mitgeliefert Sprachgesteuerte Mausbedienung Sprachgesteuerte Tastaturbedienung Vorlesen mit synthetischer Stimme Systemvoraussetzungen Windows 98 SE, 2000, NT 4.0 (SP6), Me, XP Home oder XP Professional Testergebnisse der Stiftung Warentest 2.4.2. Geräte mit Sprachsteuerung Wir haben im ersten Abschnitt Kommandosysteme kennengelernt, die in der Diktiersoftware integriert sind. Jetzt wollen wir andere Kommandosysteme vorstellen, die nicht auf einem Computer laufen; diese Informationen über die aufgeführten Geräte stammen von dem Link www.dynamic-living.com. • Voice Dialer ist ein Gerät, das an jedes Telefon angeschlossen werden kann. Er speichert bis zu 50 Namen und man muss nur den Hörer abnehmen und den gewünschten Namen aussprechen, der Voice Dialer wählt dann die entsprechende Rufnummer, eine solche Funktion gibt es bei Handys und wird Sprachwahl genannt. • Der stimmen-aktivierbare Dimmerschalter (Voice Activated Dimmer Switch) lässt sich per Sprache steuern, um die Elektrizität für die Lampe zu regulieren. • Die stimmen-aktivierbare Home-Entertainment Fernbedienung Accenda, mit dieser Fernbedienung kann man den Fernseher und die Hifi-Anlage per Stimme ein/ausschalten, Programme wechseln und die Lautstärke ändern. Eine große Auswahl an Geräten mit Sprachsteuerung gibt es in dem Bereich der Handys. Bei den Handys unterscheidet man zwischen den beiden Funktionen Sprachwahl und Sprachsteuerung. Das Feature Sprachwahl dient ausschließlich dazu, gespeicherte Rufnummern per Sprache zu wählen. Bei der Sprachsteuerung hingegen gibt es mehr Funktionen zur Auswahl, die man per Sprache ausführen lassen kann. Die in der Tabelle aufgezählten Handys besitzen alle eine Sprachwahl, nur einige davon besitzen auch eine Sprachsteuerung. Handy Sprachsteuerung Alcatel One Touch LG-G5400 LG-G7050 Motorola C450 Motorola E365 Motorola MPx200 Motorola V150 Motorola V600 Nokia 3660 Nokia 6220 Nokia 6600 Nokia 6820 Nokia 7600 Nokia N-Gage Panasonic G51M Panasonic X70 Philips 350 Philips 530 Ja Nein Nein Nein Nein Ja Nein Nein Nein Ja Ja Ja Ja Nein Ja Nein Ja Ja Handy Sprachsteuerung SendoX Siemens MC60 Siemens SL55 Siemens ST60 Siemens SX1 Siemens U15 Sonyericsson T610 Sonyericsson T630 Sonyericsson Z600 Sonyericsson K700I Motorola E 398 Ja Ja Ja Ja Ja Nein Ja Ja Ja Nein Ja Handy mit Sprachwahl 2.5. Zusammenfassung In diesem Kapitel haben wir eine Einführung in die Spracherkennung (ASR) gegeben, dabei unterscheidet man zwischen sprecherunabhängiger und sprecherabhängiger Erkennung. Außerdem haben wir die Probleme näher kennengelernt, die bei der Spracherkennung auftreten und deren Einfluss auf die Erkennungsqualität. Dann haben wir einige marktführende Spracherkennungs-Engines vorgestellt. Die Spracherkennungssoftware wird in zwei Kategorien unterteilt, Diktiersoftware und Kommandosysteme. Bei den Recherchen über Diktiersoftware haben wir festgestellt, dass es sowohl online als auch in den Fachzeitschriften immer um die selben drei Hersteller geht. Zu jedem aktuellen Diktierprogramm wird ein Headset mitgeliefert, dessen Qualität einen großen Einfluss auf die Erkennungsrate hat. Bei einem Wechsel des Headsets muss das Programm von neuem trainiert werden, um ein Profil des Sprechers anzulegen. Von großer Bedeutung für die Erkennung ist die Größe des Wörterbuchs, daher wurde eine Analysefunktion integriert, die das Wörterbuch um neue Wörter ergänzt. Um die Erkennungsrate weiter zu steigern, wird eine Korrekturfunktion angeboten, die bei fehlerhaft erkanntem Wort aufgerufen werden soll, um das falsche Wort entweder per Sprachbefehl oder manuell zu ersetzen. Außerdem haben wir die von der Diktiersoftware unterstützten Programme vorgestellt. Des weiteren haben wir zwei Testberichte über auf dem Markt befindliche Diktiersoftware zusammengefasst. Es sind die einzigen ausführlichen Tests, die wir gefunden haben. Die Beschreibung des Tests und der Ergebnisse in „com!“ ist präzise; der Leser wird auf alle Punkte, die die Erkennungsrate verbessern, aufmerksam gemacht. Der Diktiertext und die aufgetauchten Fehler wurden veröffentlicht, so dass man sich selbst ein Bild über die Brauchbarkeit der Software machen kann, allerdings ist uns nicht klar, ob nur eine oder mehrere Personen den Test durchgeführt hatten. In „test“ wurden die Testbedingungen für die einzelnen Bewertungskriterien wie z.B. Lernfähigkeit, Einfluss von Hintergrundgeräuschen und Navigation genau erklärt und die Ergebnisse in einer Tabelle kurz zusammengefasst, jedoch erhält man keinen Einblick darüber, wie die Endbewertung entstand. Außerdem fehlen viele Detailinformationen über die Bedienung der Software, so dass man sich keine Vorstellung machen kann, wie zum Beispiel die Korrekturfunktion bedient werden kann. Anhand des „com!“ Tests könnte man die Leistungsfähigkeiten der Programme beurteilen, wenn man wie der/die Tester sprechen würde, man kann nämlich nicht herausfinden, ob eines der sechs Programme geeignet ist, wenn man mit Akzent oder undeutlich spricht, obwohl dieser Aspekt bei „test“ berücksichtigt wurde. Wir widmeten in diesem Kapitel einen Abschnitt den Kommandosystemen, dort haben wir ein paar Geräte aus dem Bereich Home-Entertainment, Telefonie und Haushalt vorgestellt, die per Stimme gesteuert werden können. Wir sind in unserem Recherchen auf keinen öffentlichen Test oder auf unabhängige Meinungen gestoßen außer an Werbung der Vertreiber der Geräte. Uns wunderte bei der Recherchen, dass dem Feature Sprachsteuerung bei Handys nicht mehr Aufmerksamkeit gewidmet wird, sondern eher integrierten Mp3-Playern, Kameras, der Anzahl der Farben auf dem Display und Spielen …. Es liegt daran, dass die Kunden diese Features verlockender finden als die Sprachsteuerung. 3. Sprachsynthese In diesem Kapitel wollen wir auf die Sprachsynthese, die man von der Wiedergabe aufgezeichneter natürlicher Sprache unterscheiden muss, näher eingehen. Die synthetische Sprachausgabe wird oft auch Text-To-Speech genannt. Die eigentliche Synthetisierung der Strings wird von der Text-To-Speech-Engine (kurz TTS-Engine) durchgeführt. Im ersten Abschnitt werden wir den Ablauf der Sprachsynthese erläutern und dabei einige Probleme kennenlernen, die bei der Umwandlung von Text zur Sprache auftauchen. Im zweiten Abschnitt stellen wir einige Einsatzmöglichkeiten von TTS vor. Im dritten Abschnitt stellen wir alle populären Dateiformate vor, die von TTS-Engines erzeugt werden, und im vierten Abschnitt haben wir Tabellen erstellt, welche die TTS-Engines für PCs und Endgeräte sowie TTS-Software umfasst, die sich auf dem Markt befinden. 3.1. Ablauf der Sprachsynthese Prinzipiell gibt es zwei Möglichkeiten, Sprache auf einem Gerät auszugeben. Erstens durch Abspielen aufgenommener Audio-Dateien und zweitens durch Umwandlung von Texten, auch Strings genannt, in gesprochene Sprache. Das Erzeugen von gesprochener Sprache aus Strings nennt man auch Sprachsynthese, und die zugehörige Software wird auch Text to Speech-Engine (TTS-Engine) genannt. Man kennt drei wesentliche Methoden zur Sprachsynthese: Die artikulatorische Synthese, die Formantsynthese und die konkatenative Synthese. Die artikulatorische Synthese basiert auf der Idee, die biologischen Teile der zum Sprechen benutzten Organe nachzubilden. Das Verhalten von Stimmbändern, Gaumen, Zunge, Zähnen, Lippen etc. wird in einer Datenbank abgespeichert, und bei der Sprachsynthese wird die Stellung der beteiligten Muskeln berechnet und der daraus resultierende Effekt der lauterzeugenden Komponenten simuliert. Die artikulatorische Synthese steckt noch in den Anfängen und sie benötigt noch einen hohen Rechenaufwand. Die meisten TTS-Systeme arbeiten mit der Formantsynthese. Diese benötigt nur einen geringen Rechenaufwand, und führt zu klar verständlichen Ausgaben, die aber leicht als Computerstimmen erkennbar sind. Jedes Phonem (Laut) hat eine charakteristische Anhäufung von Frequenzen und deren Energie in bestimmten Bereichen; diese Charakteristika heißen Formante. Mit Hilfe einer kleinen Datenbasis werden die bekannten Formante ausgesucht und in den entsprechenden synthetischen Laut umgewandelt. Die konkatenative Synthese umgeht das Problem der Formantsynthese dadurch, dass sie die Bausteine für die Synthese von einem Menschen sprechen lässt und diese Bausteine in einer Datenbank ablegt und beim Vorlesen wieder passend zusammengesetzt. Bei diesen Bausteinen handelt es sich um Phoneme, Silben, Phonemübergänge, Silbenübergänge und Halbsilben. Je genauer und umfangreicher dieser sogenannte Sprachkorpus ist, desto natürlicher klingt die Stimme. Durch die Verwendung der natürlichen Bausteine ist die konkatenative Synthese den beiden anderen Verfahren überlegen. Bevor aber ein Text von einer TTS-Engine vorgelesen werden kann, muss der Text zunächst vorbearbeitet werden. Dieser Schritt heißt auch Präprozessing. Dabei werden Zahlen, Sonderzeichen, etc. in Text konvertiert. Nur wenn dieses Präprozessing erfolgreich durchgeführt wird, kann die TTS-Engine gute Resultate liefern. Es zeigt sich, dass teilweise die gleichen Probleme auftauchen wie bei der Spracherkennung. Beim Testen der TTS- Engines in Kapitel 5 haben wir gezielt Beispiele ausgesucht, um die Qualität der Engines in dieser Richtung hin zu untersuchen. 3.1.1. Linguistische Probleme Das System muss linguistische Kenntnisse besitzen, da es entscheiden muss, ob der „3.4.“ in dem vorzulesenden Text als „dritter April“ oder als „Absatz 3, Punkt 4“ zu verstehen ist. 3.1.2. Komposita Insbesondere in der deutschen Sprache gibt es viele zusammengesetzte Wörter. Daher muss die Engine in der Lage sein diese Worte richtig auszusprechen, obwohl sie oft nicht in ihrem Wörterbuch vorhanden sein werden. So soll es keinem Anwender zugemutet werden, beim Hören des Wortes “Blumen-to-pferde” oder des Wortes “Blu-men-to-pferde” herauszufinden, dass das eigentlich geschriebene Wort “Blumen-topf-erde” ist. 3.1.3. Sonderschreibweisen Gerade beim Vorlesen von E-Mails tauchen viele Sonderzeichen wie www Links oder EMail Adressen auf. Da erwartet man, dass „@“ bzw. „.“ in der E-Mail Adresse als „at“ bzw. “Punkt“ vorgelesen und nicht einfach ignoriert wird. 3.2. Einsatzbereiche von Text to Speech TTS kann in verschiedenen Anwendungen auf dem Computer eingesetzt werden, wie zum Beispiel Reader, Diktiersysteme, Spiele und Lernprogramme, und Intelligente Agenten. Aber auch außerhalb des Computerbereichs, zum Beispiel im Automobilbereich, oder bei telefonischen Auskunftssystemen und Informationskioske ist TTS im Einsatz. • TTS kann benutzt werden, um Reader Software herzustellen, die Texte, E-Mails, Webseiten, News Artikel und jede andere Art von Text vorliest. • TTS wird auch in Diktiersystemen eingebaut; hier kann es als Korrekturhilfe dienen, indem die eingegebenen Texte wieder vorgelesen werden. • Spiele und Lernprogramme werden durch die multimediale Aufbereitung mit TTS interessanter, da die Aussprache exakt auf den Charakter und die augenblickliche Situation der Stimmen zugeschnitten werden kann. • Wenn der Anwender sich auf seinem Computer einloggt, wird er von einem Intelligenten Agenten begrüßt. Der Agent betreut auf Wunsch den Anwender den ganzen Tag, er kann an wichtige Termine per Sprache erinnern, oder auf die Ankunft neuer Nachrichten hinweisen. TTS kann dabei nicht nur die Stimme des Agenten zur Verfügung stellen, sondern auch die notwendigen Daten, damit das Gesicht des Agenten realistisch aussieht, wenn er spricht. • Im Automobilbereich wird TTS ebenfalls benutzt, um dem Fahrer Informationen zu übermitteln, so dass dieser die Straße immer im Auge behalten kann. Dies ist insbesondere bei Navigationssystemen sehr sinnvoll. • Da auf Flughäfen oft eine Auskunft in der Muttersprache des Passagiers wünschenswert ist, wird in dieser Situation TTS als Informationskiosk sinnvoll eingesetzt. • TTS ist in Auskunftssystemen eingebaut, wie zum Beispiel Fernsprechauskunft oder Fahrplanauskunft. So kann sich der Kunde telefonisch informieren, diese Informationen werden aus einer Datenbank geholt und anschließend per TTS vorgelesen. Genaueres zu diesem Punkt im nächsten Kapitel. 3.3. Audio-Fileformate für Text to Speech Text to Speech wandelt Geschriebenes in ein Audiofile um, manche Engines können verschiedene Audioformate ausgeben, die bekanntesten sind: • WAV Das WAV-Format (eigentlich RIFF WAVE) kann man als die unkomprimierte Aufzeichnung von Sound Files betrachten und ist das wohl wichtigste der unkomprimierten der Audio-Formate, insbesondere in der Windows-Welt. 25 • AIFF Das AIFF-Format (Audio Interchange File Format) ist ein von Apple und SGI für den Sound-Manager der Macintosh-Rechner entwickeltes Format.26 • AU Das AU-Format wurde von NeXT und Sun entwickelt; in diesem Format kann man die Audiodaten sowohl komprimiert als auch unkomprimiert abspeichern; dieses Format ist in der Unix-Welt verbreitet.27 • MP3 MPEG-1 Audio Layer 3, bekannt unter dem Namen MP3 ist ein populäres verlustbehaftetes komprimiertes Audioformat, das im Jahr 1991 von einem Team des Frauenhofer Instituts entwickelt wurde28. 3.4. Text to Speech-Engines und Reader-Software In der folgende Tabelle haben wir einige TTS-Engines aufgeführt; alle diese Informationen stammen von den Webseiten der entsprechenden Hersteller. Die Firma Mindmaker stellt nur ein Abspieldemo in englisch und ungarisch zur Verfügung. Alle übrigen Hersteller hingegen stellen ein Web-Interface zur Verfügung, in dem man die Sprache und einige andere Optionen wie zum Beispiel die Stimme oder die Tonhöhe auswählen kann. Anschließend kann man einen deutschen oder englischen Text in ein Formular eingeben, und dieser Text wird entweder vorgelesen oder es wird ein WAV-File produziert und zurückgeschickt. In einigen Fällen sind auch andere Sprachen möglich. Eine genauere Analyse dieser TTS-Engines haben wir in Kapitel 5 durchgeführt. Hersteller Engine Output Format AT&T AT&T Natural Voices29 WAV, Au, Aiff, Basic Elan Speech Sayso30 WAV, DirectX (SAPI4), MCI, Memory buffer, MP3 Fonix DECtalk 5.0 WAV 25 http://de.wikipedia.org/wiki/WAV_(Format) http://de.wikipedia.org/wiki/Audio_Interchange_File_Format 27 http://en.wikipedia.org/wiki/Au_file_format 28 http://en.wikipedia.org/wiki/MP3 29 http://www.naturalvoices.att.com/demos/ 30 http://sayso.elan.fr/interactive_va.asp 26 System Windows NT, 2000, XP; Linux 6.1, 6.2, 7.2 Windows 95, 98, NT4, 2000, ME, XP; Mac OS X Windows, Linux, Solaris Hersteller Engine Output Format System Loquendo Loquendo31 WAV Mindmaker FlexVoice 332 WAV Nuance Realspeak Solo 4.0 WAV Nuance rVoice WAV Nuance Speechify WAV Nuance Vocalizer 4.0 WAV Babel Technologies Babel Technologies Infovox Bright Speech 1.2 33 WAV, SUN, PCM, a-law, µ-law, ADPCM Windows 2000, Linux, Sun Solaris Windows 98 SE, NT, 2000, XP Babil 4.134 WAV, SUN, PCM, a-law, µ-law, ADPCM Windows 98 SE, NT, 2000, XP; Linux Cepstral Cepstral Voices35 WAV Acapela group Acapela multimedia36 WAV, PCM Neo Speech Voice Text37 WAV, PCM, ADPCM, 8bit a-law/µ-law Svox Svox WAV Logox Logox 4 WAV Windows NT, 2000, XP, 98, ME; Linux; Sun Solaris Windows (Microsoft SAPI 4.0/5.0, proprietary interfaces), Linux Windows 98, NT4, 2000, ME, XP Windows NT, 2000, 2003, XP; Linux; Sun Solaris Windows, Linux, Mac OS X, Sparc Solaris Windows 98SE, NT4SP6, 2000SP3, Me, XP, Mac OSX.2 und höher Windows 98, NT 4.0, 2000, XP Windows, Linux, Solaris, Macintosh Windows 95, 98, ME, NT, 2000, XP Liste der TTS-Engines für PC Vier der obigen TTS-Engine Hersteller stellen auch TTS-Engines für Endgeräte zur Verfügung. Auch diese Engines sind für die deutsche, englische und weitere Sprachen erhältlich. Sie werden zusammen mit den Systemvoraussetzungen in der nächsten Tabelle aufgelistet. 31 http://www.loquendo.com/de/demos/demo_tts.htm http://www.flexvoice.com 33 http://www.babeltech.com 34 http://www.babeltech.com 35 http://www.infovox.se 36 http://www.acapela-group.com/products/products.asp 37 http://www.neospeech.com/demo/demo_text.php 32 Hersteller Engine System Babel Technologies Infovox PocketBabil 3.5 Acapela group Acapela Mobility Cepstral Cepstral Voices Windows CE Neo Speech Voice Text Windows CE 2.0 und 3.0, Pocket PC 2002 Nuance Realspeak Solo 4.0 Pocket PC 2003, Windows CE 3.0 Svox Svox Windows CE Logox Logox 4 Windows CE Windows CE: Pocket PC, HPC, Auto PC; Linux Pocket PC 2002, Windows Mobile 2003, Symbian, Palm OS Liste der TTS-Engines für Endgeräte Wir haben exemplarisch 4 Vorleseprogramme aus dem Web ausgewählt, die sich aber in der Funktion unterscheiden: Digit 1.0 ist ein sogenannter Clipboard Reader, das heißt, er liest den Inhalt des Puffers vor. Hingegen liest Lesefix 5.12 insbesondere pdf, doc, html und eml-Dateien vor; die emlDateien sind Dateien, die von dem E-Mail Programm Outlook Express angelegt werden. Logox 4 Professional ist eine Sammlung von Plugins für Outlook, Word, Excel und den Internet Explorer. Während die vorherige Software in der Windows Welt beheimatet ist, wurde Speechissimo 1.1 speziell für MacOS entwickelt, und liest alle Arten von Texten vor. Da in Vorleseprogramme kaum sinnvolle Features eingebaut sind, wird die Qualität eines Programms von der eingebauten Engine bestimmt. Außerdem wurden keine Tests in den Zeitschriften und im Internet veröffentlicht, daher gehen wir nicht näher auf die Vorlesesoftware ein. Produkt Hersteller System Digit 1.038 LesefixPro 5.1239 Elan Speech, KinderleichtsoftDigalo ware Windows 95 bis Windows NT, XP 2000, XP Speechissimo 1.140 Elan Speech, Digalo Logox 4 Professional41 Gdata Mac OS X 10.2 Windows 95 bis XP Benutzerführung English Deutsch English Deutsch Mitgelieferte Stimmen Männlich/weiblich 1/1 1/1 -/1 3/7 Engine SaySo TTS3000 SaySo Microsegment -synthesis Vorleseprogramme 3.5. Zusammenfassung In diesem Kapitel haben wir drei Methoden zur Sprachsynthese beschrieben, die artikulatorische Synthese, die konkatenative Synthese und die Formantsynthese. Dabei ist die letztere Methode diejenige, die aktuell Verwendung findet. Ferner haben wir die Probleme geschildert, die bei der Umwandlung von Text in Sprache auftauchen. Die Sprache wird in speziellen Dateiformaten angelegt, die wir im dritten Abschnitt beschrieben haben. Ebenfalls haben wir Einsatzmöglichkeiten des TTS-Konzepts beschrieben; es ist typischerweise in eine andere komplexere Anwendung integriert, wie zum Beispiel in einen Informationskiosk oder ein Auskunftssystem oder auch eine Anwendung aus dem Automobilbereich. Bei diesen komplizierteren Anwendungen haben wir leider keinen „Zugriff“ auf den TTS-Teil des Systems. Die am einfachsten zu handhabende Anwendung von TTS ist der Reader. Hier braucht der Anwender nur einen „Play-Knopf“ zu klicken, und das Programm liest das Dokument oder den markierten Teil vor. Einige ausgewählte Reader und TTS-Engines haben wir in verschiedenen Tabellen im vierten Abschnitt zusammengefasst. Dank der Hersteller der meisten TTS-Engines konnten wir durch Demos auf ihren Webseiten einen Eindruck von der Qualität der Engines gewinnen. Eine ausführliche Analyse befindet sich in Kapitel 5. 38 http://www.lencom.com/desc/indexN2615.html http://www.kinderleichtsoftware.de/lesefixpro.htm 40 http://www.speechissimo.com/ 41 http://www.gdata.de/trade/productview/123/5/ 39 4. Aufbau und Nutzen der Sprachdialogsysteme Wer hat es noch nicht erlebt, bei einem Call Center anzurufen und ständig das Besetztzeichen zu hören, und sich noch nicht die Frage gestellt: Warum gibt es denn kein System, das meinen Anruf wenigstens entgegennimmt und mich dann zu einem geeigneten Gesprächspartner weiterleitet? Oder besser noch: Warum gibt es kein „intelligentes“ System, das meine Anfrage beantwortet? Ein klassisches System, das die Anrufe entgegennimmt und gegebenenfalls weiterleitet, heißt Interactive Voice Response (IVR) System. Die Fähigkeiten der IVR-Systeme wurden in der Zwischenzeit so stark erweitert, dass man auch den Namen in Sprachdialogsystem oder auch Voice Portal änderte. Das erste Voice Portal wurde 1996 von der Firma BellSouth eröffnet und wurde Val genannt.42 Ein Voice Portal oder auch Sprachportal oder Sprachdialogsystem ist ein System, bei dem man mit Computern in normaler Sprache fast wie mit einem Menschen sprechen kann. Im ersten kennenlernen. Abschnitt werden wir Sprachdialogsysteme und deren Vorgänger Im zweiten Abschnitt beschreiben wir den inneren Aufbau eines Sprachdialogsystems und den Zusammenhang mit der Entwicklungssprache VoiceXML, und wir stellen Unternehmen und deren Produkte vor. Im dritten Abschnitt behandeln wir noch einen wichtigen Punkt der Sprachübertragung mittels Internet Protokoll, das ist Voice over Internet Protocol (VoIP). 4.1. Sprachdialogsysteme Wenn man zum Beispiel bei einer Bank eine telefonische Transaktion durchführen möchte, ruft man die Bank an, und wird mit einem speziellen Computer verbunden; dieser Computer präsentiert dem Anrufer per Ansage verschiedene Optionen, und jeder Option wird eine Telefontaste zugeordnet. Der Anrufer wählt die gewünschte Option, indem er die entsprechende Taste auf seinem Telefon betätigt. Für jede Taste wird ein bestimmter Ton an den Computer gesendet. Dieses Verfahren heißt Dual Tone Multifrequency (DTMF) oder informell Touch Tone. Dieses Verfahren wird bei Banken, Call Centern oder TED-Diensten eingesetzt. Eine fortgeschrittenere Technologie als DTMF ist das Interactive Voice Response System (IVR). Dieses System reagiert auch auf einzelne gesprochene Worte wie „Ja“ und „Nein“, …. IVRs werden oft in Call Centern eingesetzt, nehmen Anrufe entgegen und leiten sie an den richtigen Berater weiter. IVR-Systeme haben Vor- und Nachteile; sie sind kostengünstiger als der Einsatz menschlicher Telefonisten, und Leistungsspitzen, wie sie beispielsweise nach Werbespots auftreten, können effizient bearbeitet werden. Die Nachteile hingegen sind die geringe Benutzerakzeptanz und die hohen Entwicklungskosten für diese Systeme. Erweiterte IVR-Systeme, die mehr Funktionalitäten anbieten, nämlich Spracherkennung und Text-To-Speech, können in einen natürlichsprachlichen Dialog mit dem Anrufer treten. Dieses intelligente IVR-System heißt natürlichsprachliches Dialogsystem (NDS). Geläufig sind auch die Namen Voice Portal, Sprachportal und Sprachdialogsystem. 42 www.dragon-medical-transcription.com/historyspeechrecognitiontimeline.html Ein natürlichsprachlicher Dialog mit einer Bank zum Zwecke des Aktienkaufs könnte zum Beispiel folgendermaßen aussehen:43 NDS: Herzlich willkommen bei der Rendite-Bank. Was kann ich für Sie tun? Anrufer: Ich möchte gerne 100 Aktien von DaimlerChrysler kaufen. NDS: Um Aktien von DaimlerChrysler zu kaufen, sagen Sie mir bitte Ihre Kundennummer oder geben Sie diese auf Ihrer Tastatur ein. Anrufer: Zwanzig, neunzehn, vier, drei, acht. NDS: Nun benötige ich bitte noch Ihre Geheimzahl. Wenn Ihnen jemand zuhören kann, benutzen Sie besser die Tastatur. Anrufer: [Gibt die Ziffernfolge der Geheimzahl auf der Telefontastatur ein.] NDS: Herr Meyer, ist es richtig, dass sie jetzt 100 Aktien von DaimlerChrysler kaufen möchten? Anrufer: Ja, bitte. NDS: Dann benötige ich noch eine gültige TAN von Ihnen. Anrufer: [Gibt eine TAN auf der Telefontastatur ein.] NDS: Vielen Dank. Ihr Auftrag wurde entgegengenommen und wird schnellstmöglich an der Börse ausgeführt. Was kann ich noch für Sie tun? Anrufer: Vielen Dank, das war’s erst mal. Auf Wiederhören. NDS: Auf Wiederhören, Herr Meyer. Bei dem Entwurf und der Entwicklung eines NDS muss viel Wert auf das Dialogdesign gelegt werden. Ein wesentlicher Punkt ist: Die Dialoge sollen kurz und einfach sein, damit sich der Anrufer die Menüpunkte merken kann. Außerdem muss sich das NDS dem Erfahrungsgrad des Anrufers anpassen können. Genaueres zum Dialogdesign findet man in Abschnitt zwei. 4.1.1. Einsatzbereich von NDS NDS werden hauptsächlich in Bereichen eingesetzt wie Auskunfts-, Reservierungs- und Buchungssystemen bei Börsen, Versandhandel, Banken, Hotels, Versicherungen etc. Außerdem finden wir NDS in FAQ-Systemen und bei der Weitervermittlung von Anrufern in Telefonzentralen. Man wird auch mit einem NDS verbunden, um die Zugangskontrolle zu persönlichen Daten zu gewährleisten, wie bei E-Mail-Anfragen, oder auch Konto- und Depotinformationen. 4.1.2. Nachteile und Vorteile von NDS Der einzige Nachteil von NDS ist der hohe Aufwand, der bei der Entwicklung eines neuen Designs und einer neuen Programmierung des Dialogs getrieben werden muss. Im Vergleich dazu haben sie mehrere Vorteile44 43 44 VoiceXML 2.0, S. 43 VoiceXML 2.0 • • • • • • NDS sparen im Vergleich zu Call Centern 90 % der Kosten. Leistungsspitzen zum Beispiel nach Werbespots können kostengünstig bearbeitet werden. Bis zu 70 % der Anrufe in Call Centern können ohne zusätzliches Personal abgearbeitet werden. 24 Stunden Service kann ohne zusätzliche Kosten und ohne behördliche Genehmigung angeboten werden. NDS sind immer freundlich. Die Servicequalität ändert sich nicht und muss somit nicht kontrolliert werden. 4.2. Entwicklung von NDS Applikationen mittels VoiceXML Der hohe Entwicklungsaufwand bei der Erstellung einer NDS Applikation kann durch den Einsatz einer geeigneten Programmierumgebung erträglich werden. Eine geeignete Programmiersprache dafür ist Voice XML. VoiceXML bedeutet ausgeschrieben Voice Extensible Markup Language (VXML), sie ist eine spezialisierte Auszeichnungssprache, die von der Sprache XML abgeleitet wird. Die Metasprache VXML dient der Erstellung von Dokumenten, auf die man über Internet Browser zugreifen kann. Die Gründungsmitglieder des VXML Forums sind die bekannten Firmen AT&T, IBM, Lucent Technologies und Motorola. Sie haben im Jahr 2000 die Version 1.0 von VXML verabschiedet. Die Weiterentwicklung von VXML wurde im Jahre 2000 an das W3C übergeben und im Jahre 2003 wurde eine Empfehlung für die Version 2.0 von VXML abgegeben. 45 In dieser Empfehlung lautet der erste Absatz etwa: VXML wurde entwickelt für die Erstellung von Audio Dialogen unter Verwendung von synthetisierter Sprache, AudioDateien, Erkennung von Sprache und DTMF-Eingaben, Aufnahmen gesprochener Sprache, Telefonie-Steuerung und gemischt-initiativen Dialogen. Das wichtigste Ziel ist es, die Vorteile webbasierter Entwicklung und Content-Lieferung für interaktive Sprachapplikationen verfügbar zu machen. Im Bereich der Telefonie-Steuerung bietet VXML nur zwei Möglichkeiten: das Beenden und das Weiterleiten eines Telefonats. Unter gemischt-initiativen Dialogen versteht man Dialoge, die nicht streng nach den Vorgaben des Computers verlaufen; auch der Anrufer kann die Initiative übernehmen und etwas äußern und das natürlichsprachliche Dialogsystem NDS richtet sich danach. Auf das Design gemischt-initiativer Dialoge werden wir in 4.2.1 näher eingehen. Damit unterstützt VXML die wesentlichen Funktionalitäten, die für eine moderne NDSApplikation notwendig sind. 4.2.1. Design gemischt-initiativer Dialoge Die Programmierer bemühen sich bei der Entwicklung eines gemischt-initiativen Dialogs auf die Wünsche der Anrufer bzw. Kunden einzugehen, um sie so weit wie möglich zufriedenzustellen. Daher versuchen sie die Dialoge zu optimieren, indem sie die folgenden Punkte beachten: 45 www.voicexml.org Kürzere Ansagen mit viel Interaktion in den Dialog einbinden, damit der Anrufer nicht ermüdet wird. Wenige Optionen zur Verfügung stellen, da sich der Anrufer mehr als fünf Optionen nicht mehr merken kann. Dem Anrufer die Freiheit geben, sein Anliegen in ganzen Sätzen vorzutragen, als ob er mit einem Menschen telefoniert. Dem Anrufer konkrete Hilfestellungen bieten oder als letzte Alternative mit einem persönlichen Betreuer zu verbinden. Bei der Entwicklung eines NDS wird außerdem beachtet, dass der Anrufer an möglichst vielen Stellen den vorgesehenen Ablauf unterbrechen kann, diese Möglichkeit wird in der Fachsprache Bark in genannt. Da sich Sprachdialogsysteme immer mehr zum Standard entwickeln, gibt es inzwischen sogar internationale Richtlinien zur Dialoggestaltung nach DIN ISO 924146: • • • • • • • Aufgabenangemessenheit Selbstbeschreibungsfähigkeit Steuerbarkeit Erwartungskonformität Fehlertoleranz Individualisierbarkeit Lernförderlichkeit alle diese Punkte müssen bei der Gestaltung des Dialogs eingehalten werden. 4.2.2. VoiceXML-Infrastruktur In VoiceXML findet ein Client/Server Konzept Anwendung. Auf der Client-Seite kommt ein spezieller Voice-Browser zum Einsatz; er ist der Kern der VoiceXML-Infrastruktur und dabei insbesondere zuständig für das Parsen und die Abarbeitung von VoiceXMLDokumenten. Daher wird er auch manchmal VoiceXML-Interpreter genannt. Auf der Server-Seite gibt es HTTP-Server, Applikations-Server und Datenbank-Server. Der Client kommuniziert mit dem HTTP-Server und dem Applikations-Server, und zwar mittels HTTPProtokoll. Die Server stellen die VXML-Dokumente bereit, die der Voice-Browser abarbeitet. Eine schematische Darstellung des Sachverhalts ist in der folgenden Abbildung 1 zu sehen: 46 funkschau 7/04 Web Content Provider VoiceXML TTS Engine Info Broker Telephony Interface Voice Browser XML-Interpreter HTTP Dialog Interpreter Web Shop Direct Bank ASR Engine Web Auction VoiceXML Abbildung 1 Wir beschreiben den Ablauf eines Anrufs bei einem VoiceXML basierten Telephoniedienst, um das Zusammenwirken von den VoiceXML-Komponeten näher zu erläutern: 1.Ein Anrufer wählt die Telefonnummer eines VoiceXML-Dienstes. 2.Das Telefonie-Gateway teilt dem Voice Browser mit, dass ein Anruf anliegt, der Browser lädt ein initiales VoiceXML-Dokument und weist die TTS-Engine an, den Anrufer zu begrüßen. Außerdem aktiviert der Browser eine Grammatik für die Spracherkennungs-Engine. 3.Der Anrufer stellt mittels Sprache seine Anfrage oder erteilt seine Anweisung. Alternativ besteht auch die Möglichkeit DTMF zu benutzen. 4.Der Voice-Browser leitet die eingehenden Audio-Signale an die ASR-Engine weiter und erhält von ihr ein Ergebnis, das vom Browser gemäß den kodierten Anweisungen in dem VXML-Dokument weiterverarbeitet wird. Die Verarbeitung kann entweder in dem geladenen Dokument fortgesetzt werden oder es wird ein HTTP-Request an des Backend-System geschickt und eine neue VXML-Seite geladen. Der Voice-Browser schickt seine Antworten als Audio-Dateien an das Telefonie-Gateway; diese AudioDateien entstehen entweder durch TTS als synthetisierte Texte oder wurden zu einem früheren Zeitpunkt aufgenommen. Eine VoiceXML Umgebung hat folgende wichtige Bestandteile (siehe Abbildung 1): • Telefonie-Gateway Das Telefonie-Gateway dient zum Empfang eines Telefonats und leitet dieses Telefonat an den Voice-Browser weiter. Außerdem spielt es die Audio-Dateien ab, die es vom Voice-Browser zurückerhält. • Spracherkennungs-Engine (ASR) und Sprachsynthese-Engine (TTS) • Voice-Browser Der Voice Browser enthält einen Interpreter für VXML-Dokumente. Dieser verarbeitet die Dokumente und kommuniziert mit den Servern mittels HTTP-Protokoll, und er steuert die sprecherunabhängige ASR-Engine und die TTS-Engine. Er unterstützt Caching, damit die geladenen Seiten für längere Zeit schneller abrufbar sind, und er bietet Scripting. In die VXML-Dokumente kann ECMAScript-Code integriert werden, damit die Seiteninhalte auf der Client-Seite dynamisch berechnet werden können. Zusätzlich enthält der Voice Browser eine Audio-Schnittstelle für die Ein- und Ausgabe der Sprachsignale bereit. Im folgenden Bild sehen wir die Architektur eines VoiceBrowsers. Voice-Browser Audio-Schnittstelle Audio Audio IN/OUT z.B.Soundkarte Audio TelefonieSchnittstelle Voice-over-IPSchnittstelle VoiceXML Interpreter Zuständig für: •Verarbeitung der VoiceXMLDokumente •HTTP-Kommunikation •Cache Verwaltung •ECMAScript-Engine •Steuerung der ASR- und TTSEngine Steuerdaten Audio TTSEngine Audio& Steuerdaten HTTP Erkennungsergebnis ASREngine • Backend-Infrastruktur Um VoiceXML-Dokumente Server-seitig dynamisch zu generieren wird auf eine Backend-Struktur zurückgegriffen. Die Daten stehen auf dem Backend im XML-Format, über einen Transformer werden diese Daten in ein VXML-Dokument transformiert und über einen HTTP-Server an den Voice-Browser weitergeleitet. 4.2.3. Vorteile von VoiceXML VoiceXML bietet für die Sprachapplikationen viele Vorteile: • VoiceXML ist sowohl für einfache als auch für komplizierte Dialoge gut geeignet. • Die Programmierung in VXML ist plattformunabhängig. • Die Entwickler sind von der „Low-Level“-Programmierung befreit. • Der Benutzer-Interaktionscode in VXML wird von dem Code für die Service-Logik (CGI-Script) getrennt. 4.2.4. Voice Applikation Plattform und Entwicklungswerkzeuge Um Sprachportale effizient zu entwickeln braucht man zumindest grafische Editoren und eine möglichst intuitiv bedienbare Entwicklungsumgebung mit diversen Debug-Werkzeugen, die VXML Programme unterstützen. Wenn man aber ein vollständiges VoiceXML Projekt erstellen möchte, empfehlen sich Plattformen, diese heißen Voice Applikationen Plattform (VAP). Viele der VAPs laufen unter der Windows, aber einige unterstützen auch diverse UnixBetriebssysteme. Sie sollten die direkte Integration verschiedener TTS- und ASR-Engines ebenso wie die direkte Anbindung verschiedener Datenbanken ermöglichen. Die VAPs sollten unterschiedlichen Telefonieprotokolle unterstützen. Externe Anwendungen sollen abrufbar sein und andererseits soll das VoiceXML Projekt auch in andere Anwendungen integriert werden können. Die Plattform soll erweiterbar sein und über eine Vielzahl an Schnittstellen verfügen. Die produzierten Anwendungen sollten auf allen Applikationsserver lauffähig sein. In der Tabelle stellen wir eine Anzahl von bekannten Unternehmen und deren entsprechenden Produkte vor. Die meisten davon sind vollständige Plattformen. Unternehmen Produktname Webseite Ascent AscenTel www.ascentinc.com/html/services/avp/index.htm Audium Audium Studio 5 http://audiumcorp.com/index.php?option =com_content&task=view&id=40&Itemi d=57 BeVocal BeVocal Café www.bevocal.com Envox Envox 6 Studio www.ascom.de www.envox.com/software/envox-6.asp IBM wwwWebSphere Voice Server V. 306.ibm.com/software/pervasive/voice_se 5.1.3 rver Nortel Networks Speech Server http://products.nortel.com/go/product_co ntent.jsp?parId=0&segId=0&catId=S&pr od_id=9140&locale=en-US Nuance SpeechPAK Application Kits www.nuance.com/spee www.envox.com/software/envox-6.asp VoiceGenie NeXusPoint 6.4 www.voicegenie.com/NeXusPoint_Open _Framework.htm?1.5.0.0 Unternehmen Produktname Webseite Voxeo Voxeo Evolution Community www.voxeo.com/developers Voxpilot voxBuilder www.voxpilot.com Entwicklungswerkzeuge 4.2.5. Applikation Service Provider Eine Voice Applikation Plattform (VAP) enthält viele Komponenten. Um diese zu entwickeln, zu installieren und in Betrieb zu halten, werden qualifizierte Fachleute benötigt. Daher wurden sogenannte Applikation Service Provider (ASP) gegründet. Die Unternehmen betreiben alle erforderlichen Komponenten und lassen darauf die VoiceXML Applikationen laufen. Leider befinden sich die meisten Anbieter in der USA. In dieser Tabelle sind die wichtigsten Anbieter von ASP47 Unternehmen Land Webseite BeVocal USA www.bevocal.com INA Germany AG Deutschland www.ina-germany.de NetByTel USA www.netbytel.com Telenet Deutschland www.telenet.de Telera USA www.telera.com VoiceGenie USA www.voicegenie.com Voxeo USA www.voxeo.com Voxpilot Irland www.voxpilot.com ASP-Anbieter 4.3. Voice over IP Bei der Kommunikation mit einem NDS wird die Stimme des Anrufers digitalisiert, in Pakete zerlegt und über eine Datenleitung mittels IP-Protokoll zu einem Computer geschickt; diesen Vorgang nennt man Voice over IP (VoIP). Es entstand die Idee, dass man auf teure Telefonate verzichten kann und statt dessen die Gespräche über IP von Computer zu Computer führen kann. 47 www.speech-user-interface.de Bevor wir im nächsten Abschnitt in die Grundlagen von VoIP einsteigen, erläutern wir fünf wichtige Begriffe aus diesem Umfeld, um das Verständnis zu erleichtern. • SIP Das Session Initiation Protocol (SIP) ist ein Netzwerkprotokoll zum Aufbau einer Kommunikationssitzung zwischen zwei und mehr Teilnehmern. In der IP-Telefonie ist das SIP ein häufig angewandtes Protokoll.48 • IP-Telefon IP-Telefon ist ein neuer Typ von Telefon, der auf Voice over IP-Basis funktioniert. Wenn dieses sogenannte Telefon das Session Initiation Protocol (SIP) nutzt, dann sprechen wir von einem SIP-Telefon. Es lässt sich wie ein gewöhnliches Telefon bedienen und sieht auch so aus. Das IP-Telefon muss für ein Telefonat eine Verbindung zum Internet haben und das Gespräch wird dabei in einzelnen Datenpaketen über das Internet versendet.49 • Gateway Gateways erlauben es Netzwerken, die auf völlig unterschiedlichen Protokollen basieren, miteinander zu kommunizieren. Dem Gateway ist dabei alles erlaubt, was zur Konvertierung der Daten notwendig ist, auch das Weglassen von Informationen, wenn diese im Zielnetz nicht transportiert werden können.50 • Router Ein Router ist ein Vermittlungsrechner, der in einem Netzwerk dafür sorgt, dass verschickte Daten, die zu diesem Zweck in einzelne Datenpakete zerlegt wurden, zum vorgesehenen Zielrechner weitergeleitet werden. Neben den großen Routern, die die Internetbackbones miteinander verbinden, gibt es auch technisch einfachere kleine Router für den Heim- oder Bürobereich, die über eine Telefonleitung an den Einwahlknoten des Internetdienstanbieters und rückseitig über ein Ethernet-Kabel an das lokale Netzwerk angeschlossen sind, und die den eigenen Internetdienstanbieter anrufen, wenn man selbst Daten verschicken oder empfangen will. Diese Geräte sind technisch eigentlich Gateways, im Sprachgebrauch hat sich aber die Verwendung des Wortes Router durchgesetzt.51 • DSL-Modem Das DSL-Modem dient der Übertragung von Daten über eine DSL-Leitung. Das Modem wird entweder direkt an einen PC angeschlossen oder an ein Netzwerk/Router.52 4.3.1. Grundlagen von VoIP Voice over IP ist die Übertragung der Gespräche zwischen zwei Partnern über das Protokoll IP. VoIP gibt es in verschiedenen Varianten. Die bekannteste besteht darin, dass beide Gesprächspartner an Computern sitzen, die mit dem Internet verbunden sind. Diese Computer sind mit Mikrofon und Soundkarte ausgerüstet. In den nächsten Paragrafen erläutern wir noch drei weitere wichtige Varianten. Der Nachteil dieser ursprünglichen Form von VoIP besteht darin, dass die beiden Personen, die miteinander kommunizieren wollen, an Computern sitzen, die online sein müssen. Seit kurzem ist es jedoch möglich, dass die Gesprächspartner beide Telefone 48 49 http://www.computerbase.de/lexikon/SIP http://de.wikipedia.org/wiki/SIP-Telefon http://de.wikipedia.org/wiki/Gateway 51 http://de.wikipedia.org/wiki/Router 52 http://de.wikipedia.org/wiki/DSL-Modem 50 benutzen, und die Stimmen trotzdem in Form von Datenpaketen über das Internet wandern, obwohl die Rechner ausgeschaltet sind. Um Telefonate mittels VoIP zu führen braucht man entweder ein IP-Telefon oder ein normales Festnetztelefon, das VoIP-fähig gemacht wurde. Es gibt dazu kleine Boxen, welche die analogen Signale in IP-Pakete umwandeln. Diese Boxen werden einfach mit dem Telefon verbunden. Mit diesen IP-Telefonen (bzw. VoIP-fähigen analogen Telefonen) kann man nur noch IP-Gespräche und keine altmodischen Telefonate mehr führen. Will man aber die Wahl zwischen IP-Gesprächen und altmodischen Telefonaten haben, dann benötigt man einen speziellen Router. Dieser Router verbindet analoge Telefone wahlweise über das Internet oder das Telefonnetz mit dem Gesprächspartner. Bisher haben wir nur den Fall betrachtet, dass beide Gesprächspartner ein IP-Telefon oder ein VoIP-fähiges analoges Telefon haben. Aber wir wollen natürlich auch unsere Oma, die ein altmodisches Telefon besitzt, von unserem IP-Telefon aus anrufen. Ruft man vom einem Computer mit Internetanschluss einen normalen Telefonanschluß an, dann wird dazu ein Gateway benötigt, das die Gespräche aus dem Internet an einen normalen Telefonanschluß weiterleitet; ruft man von einem normalen Telefonanschluß den Computer mit Internetanschluss an, dann benötigt der Computer eine Telefonnummer. Sowohl das Gateway als auch die Telefonnummer werden vom Internetprovider, der VoIP anbietet, zur Verfügung gestellt. Diese Technologie gewinnt immer mehr Bedeutung, so hat sich zum Beispiel die Anzahl der Voice over IP Anbieter im letzten Jahr 10 auf 40 erhöht. Eine Liste der aktuellen Anbieter findet man in www.onlinekosten.de/voip/anbieter53. Dabei setzen alle Anbieter auf das VoIPProtokoll SIP. Die Sprachqualität ist durchgängig gut. Bei optimaler Qualität fließen in jeder Richtung 80Kbit/sek. über die Leitung, pro Gesprächsminute fallen also 1,2 MByte an so dass ein DSL Anschluss zum Erreichen dieser Qualität benötigt wird.54,55,56 4.3.2. Vorteile und Nachteile von IP-Telefonie Ob sich die Tarife der VoIP-Provider als ein Vor- oder ein Nachteil für die Nutzer von IPTelefonie gegenüber dem altmodischen Telefonbenutzer herausstellen, hängt stark vom persönlichen Telefonverhalten ab. Es ist ein Vorteil, wenn jemand öfters ins Internet geht und im wesentlichen Gespräche ins deutsche Festnetz führt, aber ein Nachteil, für jemanden, der gerade online geht um seine E-Mails zu lesen und mehrere Gespräche ins Ausland führt, da er die günstigen Call-by-Call Tarife nicht benutzen kann. Die ersten beiden Punkte beschreiben die Vorteile der IP-Telefonie, die übrigen die Nachteile: Komfortfunktionen: Bei vielen Anbietern kann man Komfortfunktionen nutzen, die denen bei ISDN-Benutzung entsprechen. Dazu gehören Anklopfen (Anzeichen, dass während eines Gesprächs ein weiterer Anruf ankommt), Makeln (Hin- und Her- Springen zwischen zwei Gesprächen), Konferenz etc. 53 www.onlinekosten.de/voip/anbieter Connect 2004, Heft 6, S.60 55 c't 2004 Heft 9, S. 88 56 com! 2004 Heft 6, S. 30 54 Mobilität: Das VoIP-Konto kann weltweit an jedem Internetzugang genutzt werden ohne zusätzliche Kosten; wenn man zum Beispiel eine VoIP-Flatrate benutzt, kann man auch aus dem Ausland nach Deutschland kostenlos telefonieren. Breitbandzugang und Flatrate erforderlich: Auf Grund der Datenmenge und der Tatsache, dass man immer online sein muss, um ankommende Anrufe zu erhalten, empfiehlt sich ein Breitbandzugang mit Flatrate. Diese verursachen zusätzliche Kosten für Leute, die den online Zugang nicht oft nutzen. Nicht Abhörsicher: Telefonate, die über VoIP geführt werden, sind nicht abhörsicher. Nicht alle Nummern erreichbar: Einige VoIP-Anbieter können noch nicht zu allen Nummern Verbindungen schalten; davon sind 0137er, 0180er und 0900er betroffen. 4.4. Zusammenfassung In diesem Kapitel haben wir Voice Portale kennengelernt, die sich von dem einfachen System DTMF zu einem intelligenten natürlichsprachlichen Dialogsystem entwickelt haben. Ein NDS kann dank einem gut designten und getunten Dialogs eine Erkennungsrate von mehr als 95 Prozent erreichen.57 Dabei kann man natürlich nicht auf eine gute ASR-Engine verzichten. Wir treffen heutzutage Voice Portale in allen Bereichen der Dienstleistung an, zum Beispiel in Call Centern oder Banken wie die Deutsche Bank. Man erzielt dadurch viele Vorteile wie zum Beispiel 24 Stunden Service ohne großen Personalbedarf. Der einzige Nachteil ist die Höhe der Entwicklungskosten eines Sprachportals. Die Linderung dieses Problems besteht in der Nutzung der standardisierten Metasprache VXML. Auf die VXML-Infrastruktur sind wir im zweiten Abschnitt eingegangen. Die zentrale Komponente, die mit den Kunden in Kontakt tritt, ist der Voice Browser, der auch VXMLInterpreter genannt wird. Er steuert den kompletten Ablauf des Dialogs mit dem Kunden. Er verfügt über Schnittstellen zur Kommunikation mit der ASR- und der TTS-Engine, und zum Austausch von Daten mit dem Backend-Server mittels HTTP-Protokoll. Zur Erstellung einer Voice-Applikation in VXML sind professionelle Werkzeuge in Form von grafischen Editoren und Debuggern sehr wichtig; um diese Anwendung laufen zu lassen, benötigt man eine adäquate Umgebung, die sogenannte Voice Applikation Plattform. Wenn man den Aufwand für die Erstellung und Betreibung einer Voice Applikation scheut, kann man stattdessen diesen Service bei Application Service Providern mieten. Im dritten Abschnitt haben wir wichtige Varianten der Benutzung von VoIP vorgestellt, von denen eine darin besteht, dass der Anrufer mit einem NDS in Kontakt tritt. Diese Technologie gewinnt mehr und mehr an Bedeutung; sowohl die Anzahl der Nutzer im Privatbereich als auch bei den Firmen wächst ständig. 57 Funkschau 2004 Heft 7, S. 12 5. Analyse ausgewählter Programme Die zwei wesentlichen Teile der Sprachtechnologie sind Spracherkennung und Sprachsynthese. Da die Qualität bei Sprachausgabeprogrammen nur von der TTS-Engine abhängt, haben wir uns auf den Test dieser Engines beschränkt, den wir im ersten Abschnitt durchführen. Im zweiten Abschnitt werden wir die Diktiersoftware einem Test unterziehen; da stand uns Dragon NaturallySpeaking Standard 7 zur Verfügung. 5.1. TTS Engines Die meisten Anbieter von TTS-Engines stellen in ihren Web-Auftritten Demonstrationsprogramme zum Testen ihrer Engines zur Verfügung. Es wird ein Formular angeboten, in das man den Text eintippt, der synthetisiert werden soll. Als Ausgabe wird entweder ein WAV-File zurückgeschickt, den man abspeichern kann, oder die Ausgabe geschieht in dem Browser als Sprache ohne eine direkte Möglichkeit zur Abspeicherung; in diesem Fall haben wir den Soundrecorder Silent-Bob58 benutzt, der den Output der Soundkarte als WAV-File auf die Festplatte schreiben kann. Es wurden zehn TTS-Engines von verschiedenen Firmen getestet. Diese sind Babil59, Bright Speech60, Cepstral Voices61, Logox62, Loquendo63, Natural Voices64, Proser65, RealSpeak Solo66, Sayso67 und ViaVoice68. Bei einigen Anbietern gab es mehrere Optionen zur Auswahl, man konnte zwischen verschiedenen Sprachen und Stimmen wählen oder auch zum Beispiel die Tonhöhe und die Geschwindigkeit variieren. Als Beispiel sehen Sie den Screenshot der Firma Logox69. 58 www.silent-bob.de www.babeltech.com 60 www.babeltech.com 61 http://www.cepstral.com/demos/ 62 http://www.logox.de/cgi-bin/speechform.cgi 63 http://actor.loquendo.com/actordemo/default.asp?language=de 64 http://www.naturalvoices.att.com/demos/ 65 http://www.atip.de/german/technologie/tts/proseronline.htm 66 http://www.nuance.com/realspeak/demo/default.asp 67 http://sayso.elan.fr/interactive_va.asp 68 http://www-306.ibm.com/software/pervasive/tech/demos/tts.shtml 69 http://www.logox.de/cgi-bin/speechform.cgi 59 Speech Demo Logox 5.1.1. Kriterien des Tests Wir beurteilen die Qualität einer TTS-Engine einerseits durch die Menschlichkeit des Klangs der Stimme und andererseits durch die korrekte Aussprache des eingetippten Textes. Objektiv meßbare Kriterien sind die Aussprache komplexerer Worte, die aus Komposita, Sonderzeichen, Abkürzungen und Zahlen in unterschiedlichen Zusammenhängen bestehen. In dem Text werden die komplexeren Worte in den Farben hervorgehoben, die den Kriterien entsprechen. An Hand dieser Kriterien haben wir folgenden Text zusammengestellt, der von allen TTS-Engines gelesen wurde: Hallo! Ich bin Dounia und wurde am 3.4.1973 geboren. Ich habe einen Neffen, der am 2.10.2001 geboren wurde. Der Transporter, den ich für meinen Umzug geliehen habe, hatte eine Länge von 5,2 m, eine Ladefläche von 2,5 m² und einen Hubraum von 1798 cm³. 5,5 kg Blumentopferde kosten in den USA z. B. nur $ 2,2, in den EG-Ländern hingegen € 3,5. In § 2.2.1. werden Kommandosysteme behandelt, in 2.2.2. die Sprechererkennung. 5.1.2. Ausführliches Testergebnis der TTS-Engines Wir stellen nun den Aufbau der Webseiten und die Ergebnisse unseres Tests dar. Am Ende fassen wir die Ergebnisse nochmals in einer Tabelle zusammen. Dabei haben wir die Symbole „++“, „+“, „±“, „-“ und „--“ benutzt. Dabei bedeutet „++“ „sehr gut“, „+“ „gut“, „±“ „ausreichend“, „-“ „mangelhaft“ und „--“ „ungenügend“. • Bright Speech und Babil: Die Belgisch-Schwedische Firma Babel Technologies Infovox vertreibt zwei TTS-Engines für PCs, nämlich Bright Speech 1.2 und Babil 4.1. Bright Speech stellt 7 Sprachen zur Verfügung, Babil sogar 18. Beide Engines stellen die Möglichkeit zur Verfügung, mit einem Benutzerwörterbuch zu arbeiten. Man kann in diesem Wörterbuch die Aussprache ungewöhnlich klingender Wörter abspeichern, zum Beispiel wird in dem Wörterbuch abgespeichert, dass „Dounia“ wie „Dunja“ ausgesprochen wird. Auf den Webseiten der Firma gab es sogar ein Lautsprechersymbol, und wenn man es aktivierte, dann wurde der Inhalt der Webseite vorgelesen. Für beide Programme gibt es Demo-Versionen auf ihrer Webseite. Man schreibt einen Text in ein Formular, wählt dazu die zugehörige Sprache und eventuell sogar die Stimme eines männlichen oder weiblichen Sprechers. In Deutsch sind 6 verschiedene Stimmen zur Auswahl. Dann wird automatisch der Windows Media Player geöffnet, in dem die ausgegebene WAV-Datei abgespielt wird. Es war verständlich, aber man konnte den Unterschied zur menschlichen Stimme deutlich erkennen, Babil schnitt im Test in Bezug auf den Klang der Stimme am schlechtesten ab. Beide Engines haben im ersten Satz „zweiter Oktober zweitausendundein“ statt „zweiter Oktober zweitausendundeins“ vorgelesen. Babil hat im zweiten Satz „m²“ als „m hoch zwei“ bzw. „cm³“ als „Zentimeter hoch drei“ gesprochen. Bright Speech hingegen hat das „m“ als Meter erkannt, aber das „cm³“ als „cm hoch drei“ gesprochen. Im dritten Satz hat Babil einen schweren Fehler begangen, weil sie „zwei Dollar zwei“ gesagt hat, aber darunter würde man ja „zwei Dollar und zwei Cent“ verstehen und nicht „zwei Dollar und zwanzig Cent“. Im letzten Satz haben beide Engines das Paragrafzeichen nicht erkannt und somit auch die Paragrafnummer nicht korrekt gesprochen. • Cepstral Voices: Auf der Webseite von Cepstral kann man sich eine Online-Demo der Engine Cepstral Voices anhören. Neben der Texteingabe kann man verschiedene Einstellungen vornehmen wie Tonhöhe, Geschwindigkeit und Effekte; unter Effekte sind 6 Optionen zu aktivieren „Dizzy Droid“, „Liquid Love“, „Old Robot“, „PVC Pipe“, „Space Time Echo“ und „Split Personality“. Als Ausgabe wurde eine WAV-Datei erstellt, die man auch herunterladen kann. Die Stimmen Katrin und Matthias waren in der default Einstellung zufriedenstellend, Änderungen verschlechterten allerdings die Verständlichkeit. Im ersten Satz wurde die Deklination nicht beachtet und „am dritte April“ statt „am dritten April“ vorgelesen. Im zweiten Satz wurden die Exponenten gar nicht erkannt und die Abkürzungen wurden nur buchstabenweise gelesen. Im dritten Satz wurde zwar das Dollarzeichen erkannt, das Eurozeichen hingegen nicht. Im letzen Satz wurde das Paragrafzeichen auch nicht erkannt, was zur Folge hatte, dass die Paragrafnummer „In zweite zweite erste“ gesprochen wurde. • Logox: Die Deutsche Firma „G DATA“ stellt die Engine Logox 4 her. Die Demo-Webseite ist im Bild oben zu sehen, dort gibt es mehrere Optionen zum Auswählen, wie Dialekt, Effekt, Format und Sprecher; außerdem man kann das Tempo, Tonhöhe, Stimmumfang und Rauheit variieren. Es sind 10 Stimmen zur Auswahl, von Kinderstimme bis zu Sexystimme. Trotzdem ähneln alle Stimmen einer Roboterstimme. Die Engine hat als einziger im Test das Datum falsch wiedergegeben, es würde nämlich „3.4.1973“ als „drei vier eintausandneunhundertdreiundsiebzig“ gesprochen. • Loquendo: Die Firma Loquendo stammt aus Italien, und mit Ihrem einfachen Demo-Auftritt kann man die Engine testen. Der Klang der Stimme ist sehr angenehm, und von den zusammengesetzten Worten wurde nur die „Blumentopferde“ falsch ausgesprochen. Die Exponenten im zweiten Satz wurden ignoriert, und nur die Zentimeter wurden korrekt ausgesprochen. Die Dollar und Euro Zeichen wurden erkannt, aber anstelle der deutschen Sprechweise mit Komma wurde die englische „Zwei Punkt zwei Dollar“ gelesen. Im vierten Satz wurde die Paragrafennummer als Datum geparsed, und somit wurde „Im Paragraf zweiter Februar zweitausendeins“ vorgelesen. • Natural Voices: Die Firma AT&T stellt die Engine AT&T Natural Voices her. Auf ihrer Webseite70 kann zwischen fünf verschiedenen Sprachen wählen. Bei der deutschen Sprache stehen zwei Stimmen, Klara und Reiner, zur Verfügung. Man kann zwischen vier verschiedenen AudioFormaten und vier verschiedenen Frequenzen auswählen. Die beiden Stimmen sind sehr angenehm anzuhören und kaum von einer menschlichen Stimme zu unterscheiden. Die einzige echte Schwäche leistete sich diese Engine im zweiten Satz, in dem die Potenzen zwar erkannt wurden, aber die Längenangaben nicht. So wurde „m²“ als „m hochgestellte zwei“ bzw. „cm³“ als „cm hochgestellte drei“ gesprochen. Bei den Währungsangaben wurden der Dollar und der Euro erkannt und wörtlich vorgelesen, aber nicht interpretiert. • Proser: Die deutsche Firma Atip, die von zwei Physikern und einem Phonetiker der J. W. Goethe Universität in Frankfurt gegründet wurde, stellt eine Online-Demo zur Verfügung, bei der drei deutsche Stimmen zur Auswahl stehen und bei der man Tonhöhe und Geschwindigkeit variieren kann. Der Klang der Stimme ist angenehm zu hören. Im zweiten Satz ist „m“ nicht als „Meter“ gesprochen und die Exponenten wurden ignoriert, ansonsten wurden alle anderen Worte korrekt interpretiert. 70 http://www.naturalvoices.att.com/demos • RealSpeak Solo: Der bekannteste US-amerikanische Hersteller von Sprachverarbeitungssystemen Nuance, früher bekannt unter dem Namen Scansoft, brachte die Engine RealSpeak Solo heraus, die man in 22 verschiedenen Sprachen in ihrem Demo-Auftritt ausprobieren kann. Außer der Sprache kann man keine weiteren Optionen auswählen. Die einzige deutsche Stimme Steffi klingt sehr angenehm, sie ist die natürlichste aller von uns getesteten Stimmen. Im letzten Satz wurde „§ 2.2.1“ als „Zwei Punkt Zwei Eins“ gesprochen, es wurde zwar das Paragrafzeichen nicht gesprochen, aber meiner Meinung nach als Nummerierung richtig interpretiert. • Sayso: Die von der französischen Firma Elan Speech hergestellte Engine Sayso schnitt in dem Test ebenfalls sehr gut ab. Bei der Eingabe des Textes in das Demo-Formular konnte man die Geschwindigkeit und die Tonhöhe einstellen. Die Stimme von Lea klang angenehm und war sehr gut verständlich. Der zweite Satz wurde vorbildlich ausgesprochen, und nur im dritten Satz zeigte sie Schwächen bei der Aussprache von „USA“, „z.B.“ und „EG“. Ansonsten leistete sie bei fast allen schwierigen Problemen eine gute Arbeit. • Via Voice: Die von IBM entwickelte TTS-Engine begnügt sich mit einem einfachen Demo-Auftritt, in dem nur die Sprache und die Lautstärke veränderbar ist. Die deutsche männliche Stimme war sehr gut verständlich, aber hörte sich ein wenig synthetisch an. Via Voice meisterte die Schwierigkeiten fast tadellos, nur das „m“ wurde nicht als „Meter“ erkannt. Engine Babil Bright Speech Cepstral Voices Logox Loquendo Klang der Stimmen - ± + + ++ Transporter + + + + + Ladefläche + + + + + Blumentopferde - - - + - Kommandosysteme - - + + + Sprechererkennung - - - + + ! - - - - - $ + + + + + € + + - + + § - - - + + m - ++ - + - m² ± ++ - ´+ - cm³ + ± - - ± Kg - - - + + USA + - + + + z. B. - - - - - EG + - - + + 3.4.1973 ++ ++ ± - ++ 2.10.2001 ± ± + - ++ $ 2,2 - ++ + + - € 3,5 - ++ - ++ - § 2.2.1. - - - ´+ -- 2.2.2. - - - ´+ -- Kriterien Tabellarische Zusammenfassung der Ergebnisse der TTS-Engines Engine Natural Voices Proser RealSpeak Solo Sayso Via Voice Klang der Stimmen ++ + ++ ++ + Transporter + + + + + Ladefläche + + + + + Blumentopferde + + + + + Kommandosysteme + + + + + Sprechererkennung + + + - + ! - - - - - $ + + + + + € + ´+ + + + § + + - + + m - - + ++ - m² ± - + ++ ++ cm³ ± - + ++ ++ Kg + + + + + USA + + + - + z. B. + + - - + EG + + + - + 3.4.1973 ++ ´+ ++ + ++ 2.10.2001 ++ ´+ ++ + ++ $ 2,2 + + ++ ++ + € 3,5 + + ++ ++ + § 2.2.1. ++ + ++ + ++ 2.2.2. ++ + ++ + ++ Kriterien Tabellarische Zusammenfassung der Ergebnisse der TTS-Engines 5.1.3. Bewertung der TTS-Engines Obwohl die beiden Engines „Babil“ und „Bright Speech“ von derselben Firma produziert wurden, hört man deutliche Unterschiede; der Klang der „Bright Speech“-Stimme ist der bessere. Außerdem hat „Bright Speech“ die Probleme bei den Währungen vorbildlich gemeistert. Die Engine Cepstral Voices stellt bei ihrer online Demo viele Optionen zur Verfügung, aber die Resultate bleiben schwach. Die Loquendo Engine mit ihrer angenehmen Stimme und ihrer durchschnittlichen Fehlerrate hatte im Test ein schwerwiegendes linguistisches Problem; die Paragrafnummer wurde als Datum geparsed, obwohl das Paragrafzeichen richtig interpretiert wurde. Die beiden von deutschen Firmen hergestellten Engines „Logox 4“ und „Proser“ sind im internationalen Vergleich konkurrenzfähig, ich bin aber von dem fatalen Fehler von „Logox 4“ bei der Wiedergabe des Datums sehr enttäuscht. Die vier besten Engines sind „Natural Voices“, „RealSpeak Solo“, „Sayso“ und „Via Voice“, wobei die letztere zwar die Schwierigkeiten am besten gemeistert hat, aber der Klang der Stimme ist nur zufriedenstellend. Von den vier Engines ist „RealSpeak Solo“ mein persönlicher Favorit, weil sie die natürlichste Stimme hat und auch kaum Schwächen bei den Kriterien zeigte. 5.2. Dragon NaturallySpeaking Standard 7 In diesem Abschnitt werden wir einen Test von Dragon NaturallySpeaking Standard 7 durchführen. Zum Lieferumfang dieser Software gehören eine Installations-CD, ein Headset, ein 186-seitiges Handbuch und einer Kurzreferenz. Die Installation verläuft reibungslos und erfordert ca. 300 MB Speicherplatz. Am Ende der Installation wird der Benutzerassistent gestartet, der in fünf Schritten ein Profil des Benutzers anlegt. Im ersten Schritt wird der Benutzer aufgefordert, das Mikrofon richtig zu positionieren. Im zweiten Schritt wird die Lautstärke des Mikrofoneingangs angepaßt, und im dritten Schritt wird die Tonqualität überprüft. Der vierte Schritt ist der wichtigste, in ihm lernt die Software die Sprechweise des Sprechers kennen, das Training wird gestartet, indem der Benutzer vorgeschriebene Texte vorliest. Diese Texte werden markiert, wenn sie erkannt worden sind. Andernfalls muss der Benutzer sie wiederholen. Der letzte Schritt, die sogenannte Analysefunktion, besteht aus einer Anpassung von Dragon an den Schreibstil des Benutzers, indem Microsoft Word, Corel WordPerfect, Text- und Rich-Text-Dateien gelesen werden; dieser Vorgang benötigt bis zu 30 Minuten Zeit und kann übersprungen werden; dies ist aber nicht empfehlenswert. Nachdem das Profil des Benutzers angelegt wurde, wird das Programm gestartet, und es erscheint am oberen Bildschirmrand die folgende Leiste: Es stehen die folgenden Untermenüs zur Verfügung: Im Menü Naturally Speaking werden die unterschiedlichen Benutzerprofile verwaltet. Im Menü Extras kann man das Befehlscenter, in dem kontextabhängig alle möglichen Befehle aufgelistet werden, und den eigenen einfachen Texteditor DragonPad aufrufen. . Im Menü Wörter kann insbesondere zwischen den fünf Modus gewechselt werden; zwischen diesen Modus kann man auch durch Spracheingabe wechseln. Wenn man diktieren möchte benutzt man am einfachsten den Diktiermodus, wenn man aber Befehle aussprechen will, muss man den Befehlsmodus aktivieren. Der Standardmodus ist ein Diktiermodus, in dem Befehle ebenfalls verstanden werden, allerdings, falls ein Befehl falsch erkannt wird, dann wird er nicht ausgeführt sondern geschrieben. 5.2.1. Kriterien des Tests Beim Test von Dragon wurde ein Text jeweils von zwei verschieden Testpersonen vorgelesen. Dabei wurden die Personen gezielt ausgesucht, so dass wir die folgenden zwei Kriterien untersuchen konnten: • • Bedienbarkeit des Programms für Computerlaien Fehlerhafte Aussprache des Benutzers. Die erste Testperson ist ein Computerexperte und hat einen leichtem Sprachfehler, sie lispelt. Die zweite Testperson ist ein Laie auf dem Gebiet des PCs ohne Sprachfehler. Es wird also beobachtet, ob der Sprachfehler einen negativen Einfluß auf die Erkennungsrate hat und ob der zweite Tester das Programm problemlos bedienen kann. Jeder Tester testet Dragon zwei mal: Das erste mal sofort nach der Trainingsphase, das zweite mal, nachdem die Analysefunktion des Programms ausgeführt wurde. Dieser Schritt dient der Verbesserung der Voraussetzungen für Dragon. Um Zufälligkeiten bei der Art und Weise des Diktierens weitgehend auszuschließen, wurde jeder Test drei mal durchgeführt. Der in DragonPad diktierte Text ist mit vielen Stolpersteinen bezüglich der folgenden sieben Kriterien gespickt: 1. Groß-/Kleinschreibung bei persönlicher Anrede 2. phonetisch ähnliche aber semantisch unterschiedliche Wörter 3. Komposita (zusammengesetzte Wörter) 4. Besonders ausgefallene Deklination (Genitiv, ...) 5. Datum, Uhrzeit, Währung, Sonderzeichen, Internet- und E-Mail-Adresse 6. Manuell auf der Tastatur ausgeführte oder gesprochene Befehle 7. In die deutsche Sprache integrierte ausländische Wörter Es folgt der diktierte Text, in dem entsprechen: die Farbmarkierungen den obigen Kriterien Hallo Freunde! <manuelle (händische) Zeilenschaltung > Es ist tatsächlich wahr geworden und ich habe meine Bachelorarbeit am 1. Februar 2006 angemeldet, abgeben muss ich also am 2. Mai 2006. Meine Arbeit hat den Titel „Analyse und Evaluation von Sprachverarbeitungssystemen“. <Zeilenschaltung gesprochen> Die Arbeit könnt Ihr Euch von dem Link http://wwwcs.unipaderborn.de/cs/Studenten/mirrouch dann auch downloaden. Am 13. Mai lade ich Euch dann zur Party im Keller ein. Wir essen um 20 Uhr marokkanische Spezialitäten. Gegen Mitternacht gibt es dann noch ein kaltes Essen für die Nachtschwärmer unter uns. Ich erwarte Euch ab 18 Uhr 30. Ach ja, jeder soll sich mit 2 Euro 50 für alkoholische Getränke beteiligen. Ach, übrigens, als ich gestern unterwegs war, bin ich in die Stadt gefahren statt wie üblich samstags zu meiner Familie. <Absatzschaltung gesprochen> Für die, die noch nie bei mir zu Hause waren, ist hier meine Adresse: Frankfurter Straße 63 in 45276 Essen. Und ich gebe Euch noch einen Rat: Kommt mit dem Rad und nicht mit dem Auto, denn die Straße ist längerfristig wegen Bauarbeiten gesperrt. <Zeilenschaltung gesprochen> Bitte mailt mir Eure mirrouch@online.de. Bestätigung an meine neue E-Mail Adresse dounia- Und Melanie, könntest Du bitte das rote Kleid mitbringen, das Du aus dem Katalog bestellt hast, so dass ich es sehen kann, bevor ich es eventuell auch bestelle. <Absatzschaltung gesprochen> Grüße Euch, Dounia. 5.2.2. Ergebnisse des Tests und Bewertung Beim Test stellte sich heraus, dass das Lispeln des zweiten Testers keinen Einfluß auf die Erkennungsrate hat; auch Worte die ein oder mehrere „s“ enthalten werden im allgemeinen erkannt. Der Computerlaie konnte das Programm problemlos bedienen. Auch für den Computerexperten empfiehlt es sich, sich an Hand des Handbuchs vorher zu informieren, da jeder lernen sollte, welche Befehle man aussprechen muss, wenn gewisse Aktionen durchgeführt werden sollen. Bei beiden Testern funktioniert Command und Control ganz gut, manchmal wurde ein Befehl zwar nicht erkannt, dann mußte man ihn wiederholen, aber Fehler wurden nicht gemacht. Auch der für die Korrektur wichtige Befehl „Korrigiere“ wurde immer verstanden und ausgeführt. In dem Test tauchen viele Fehler auf, die nicht von den Stolpersteinen herrühren, sondern von der integrierten ASR-Engine. Die Software ist jedoch lernfähig, die vom Benutzer korrigierten Worte werden manchmal beim nächsten Gebrauch richtig geschrieben. Dragon erfordert eine hohe Konzentration beim Diktieren, somit empfiehlt es sich, den Text vorher zu schreiben und dann erst vorzulesen. Daher reduziert sich die Anzahl der Benutzer, die Dragon effektiv einsetzen können, auf geduldige Leute, die langsam tippen. Außerdem empfiehlt sich für User, die Dragon häufig benutzen, tief in die Tasche zu greifen, um ein stabiles, leicht zu positionierendes Headset zu kaufen, denn in unserem Test hat sich gezeigt, dass bei beiden Testpersonen die Anzahl der Fehler beim zweiten Versuch mit Analyse trotz besserer Voraussetzungen größer ist als beim ersten Versuch. Dies liegt an dem schlechten mitgelieferten Headset, bei dem man nicht in der Lage ist, es nach dem Absetzen später wieder auf die exakt gleiche Weise aufzusetzen. Testender Computerlaie ohne Sprachfehler 1. Versuch 2. Versuch ohne Analyse mit Analyse Groß/Kleinschreibung bei persönlicher Anrede Fehler bei „Euch“ und „Du“ Testender Computerexperte mit Sprachfehler 1. Versuch 2. Versuch ohne Analyse mit Analyse Fehler bei „Euch“ und „Du“ Fehler bei „Euch“ und „Du“ Fehler bei „Euch“ und „Du“ Keine Probleme Probleme mit der Großschreibung von „Essen“ in der Adresse Keine Probleme Probleme bei „Sprachverarbeitungssystemen“ phonetisch ähnliche aber semantisch unterschiedliche Wörter Keine Probleme Komposita (zusammengesetzte Wörter) Probleme bei „Sprachverarbeitungssystemen“ Keine Probleme Probleme bei „Sprachverarbeitungssystemen“ Besonders ausgefallene Deklination (Genitiv, ...) Keine Probleme Keine Probleme Keine Probleme Keine Probleme Datum, Uhrzeit, Währung, Sonderzeichen, Internet- und EMail-Adresse Große Probleme Große Probleme bei der bei der Internetadresse Internetadresse, und der E-mail- kleine bei der EAdresse mail-Adresse Große Probleme bei der Internetadresse und der E-mailAdresse Große Probleme bei der Internetadresse und der E-mailAdresse Manuell auf der Tastatur ausgeführte oder gesprochene Befehle Keine Probleme Keine Probleme Keine Probleme Keine Probleme Probleme bei „downloaden“ Probleme bei „downloaden“ Probleme bei „downloaden“ Probleme bei „downloaden“ 16 19 14 15 In die deutsche Sprache integrierte ausländische Wörter Anzahl der Fehler Tabellarische Zusammenfassung der Ergebnisse von Dragon 5.3. Zusammenfassung In diesem Kapitel haben wir zehn TTS-Engines und die Diktiersoftware Dragon NaturallySpeaking getestet. Dank der Internetauftritte der Anbieter von TTS-Engines kann jeder die Qualität beurteilen und somit wird ihm die Entscheidung vor Kauf eine Software mit integriertem TTS erleichtert, besonders bei der riesigen Auswahl an Lernprogrammen. Von den zehn getesteten Engines sind „Natural Voices“, „Via Voice“, „Sayso“ und „RealSpeak Solo“ die, die am besten abgeschnitten haben, wobei die letztere mein persönlicher Favorit ist, weil sie die natürlichste Stimme hat und auch kaum Schwächen zeigte. Beim Testen von Diktiersoftware stand uns „Dragon NaturallySpeaking 7“ zur Verfügung. Um gute Ergebnisse mit diesem Programm zu erzielen braucht man Ausdauer und viel Geduld. Die Handhabung verschlechtert sich bei der Benutzung des beiliegenden Headsets, daher empfiehlt sich der Kauf eines stabileren. Um mehr Benutzer zu gewinnen und zufrieden zu stellen, müssen die Entwickler von Dragon über einen längeren Zeitraum daran arbeiten, die Schwächen der Spracherkennungsengine zu beheben. 6. Zusammenfassung der Arbeit In dieser Arbeit haben wir uns mit Sprachverarbeitungssystemen und deren Analyse und Evaluation beschäftigt. Unter Sprachverarbeitungssystemen verstehen wir Systeme zur Spracheingabe, Spracherkennung und Sprachausgabe. Die Spracheingabe geschieht meistens durch Sprechen in ein Mikrofon, das an einem mit einer Soundkarte ausgerüsteten PC angeschlossen ist. Eine andere Möglichkeit besteht durch Sprechen in ein Telefon; der Sprecher ist dann typischerweise mit einem natürlichsprachlichen Dialogsystem verbunden. Die Spracheingabe wird anschließend durch einen automatischen Spracherkennungsprozess, dem sogenannten ASR, in einen Text umgewandelt. Dieser Text wird entweder einfach auf dem Bildschirm ausgegeben oder er wird als Befehl ausgeführt. Im ersten Fall spricht man von Diktiersoftware, im zweiten von Kommandosystemen. Ein Spezialfall der Kommandosysteme ist die Sprechererkennung. Somit unterteilt sich die Spracherkennung in drei verschiedene Bereiche: Diktiersoftware, Kommandosysteme und Sprechererkennung. Bei der Spracherkennung treten eine Reihe von Problemen auf, die die korrekte Erkennung erschweren. Diese sind Linguistische Probleme, die Größe des Wortschatzes, Homophone, Groß- und Kleinschreibung, Komposita und Sonderschreibweisen. Eine Möglichkeit, diese Probleme bei Diktiersoftware einigermaßen in den Griff zu bekommen, ist ein großer eingebauter sprecherunabhängiger Wortschatz; durch das Training des Sprechers lernt die Diktiersoftware, wie der Sprecher die einzelnen Worte ausspricht. Zusätzlich verbessert sich die Erkennungsrate kontinuierlich, da das Programm in der Lage ist, aus korrigierten Fehlern zu lernen. In der letzten Zeit haben sich viele Firmen aus dem Geschäft mit Diktiersoftware zurückgezogen Es sind mittlerweile zwei Firmen, Nuance und IBM, die den Markt beherrschen. Unser Test der Software „Dragon NaturallySpeaking 7“ offenbarte allerdings einige Schwächen der Nuance-eigenen ASR-Engine. Es wird sicher noch einen längeren Zeitraum in Anspruch nehmen diese Probleme zu beheben. Der Konkurrent IBM schnitt in dem Test der Zeitschriften allerdings auch nicht besser ab. In einem anderen Bereich finden wir ebenfalls Spracherkennung, und zwar im Bereich der Kommandosysteme. Mit Ihrer Hilfe lassen sich viele PC-Programme durch Sprache steuern. Dieses Feature funktionierte in unserer getesteten Diktiersoftware reibungslos, da zu diesem Zweck nur einzelne Worte aus einem kleinen Wortschatz verstanden werden müssen. Neben der Steuerung des PCs dienen Kommandosysteme auch der Steuerung anderer Geräte wie zum Beispiel Handys, HiFi-Anlagen, .... Der dritte Bereich der Sprachtechnologie ist die Sprachausgabe. Im dritten Kapitel haben wir uns dann mit der synthetischen Sprachausgabe beschäftigt, die oft auch TTS genannt wird. Diese Technologie findet man in einfachen Readern, aber auch in Diktiersoftware als Korrekturhilfe und in Lernprogrammen für Kinder oder zum Erlernen einer Fremdsprache. Man findet sie ebenso bei mobilen Geräten wie in Navigationssystemen. Außerdem ist TTS neben ASR ein wichtiger Bestandteil eines IVR-Systems bzw. eines NDS. Insbesondere profitieren stark sehbehinderte Menschen von dieser Technologie. So können sie sich z. B. per Plugin mit eingebauter TTS-Engine ihre E-Mails vorlesen lassen. Die Liste der in der TTS-Technologie aktiven Firmen unterliegt eine schnellen Veränderung; Firmen ändern ihre Namen, fusionieren miteinander oder werden aufgekauft. Lernout & Hauspie war früher eine der aktivsten Firmen in der Sprachverarbeitung, wurde aber von Scansoft aufgekauft und Scansoft anschließend in Nuance umbenannt. Eine größere Fusion der drei bekannten Firmen mit einer langen Erfahrung in der Entwicklung von TTSEngines, und zwar Babil, Elan Speech und Infovox, führte zur Acapela Group. AT & T und Loquendo hingegen bleiben als Pioniere in der Entwicklung der Sprachtechnologie eigenständig. Bei der Entwicklung jeder neuen Technologie tauchen natürlich auch Schwierigkeiten auf. Bei der Sprachsynthese finden wir drei wesentliche Probleme: Linguistische Probleme, Komposita und Sonderschreibweisen, also eine Teilmenge der Probleme, die bei ASR zu finden waren. Diese drei Punkte bildeten auch die Kriterien für unseren Test der TTSEngines. Die Leistung der TTS-Engines hinsichtlich dieser Kriterien waren höchst unterschiedlich. Die TTS-Engine Cepstral Voices versagte bei den meisten der von uns gestellten Probleme, auch die beiden Engines Babil, Bright Speech und Loquendo liefern nur eine mäßige Leistung. Alle übrigen Engines erbrachten eine recht gute Leistung. Die Spitzenplätze gehörigen den Engines der drei US-amerikanischen Hersteller Nuance, AT & T und IBM. Ich persönlich bevorzuge die Engine Realsoft Solo von Nuance mit ihrem angenehm natürlichen Klang ihrer Stimme. Nuance ist auch der Herausgeber der Diktiersoftware Dragon Naturally Speaking, und ist somit der führende Hersteller von Sprachpaketen für den privaten PC. Die Gründung der Acapela Group sollte als Fusion mehrerer europäischer Firmen mit langen Erfahrungen in der Sprachsynthese dazu führen, dass in Europa eine Engine so weit verbessert wird, dass sie gegen die amerikanischen Engines bestehen kann. Die zwei getesteten deutschen Engines Logox und Proser sollten sich in der Hauptsache bemühen, an der Stimme zu arbeiten, damit sie natürlicher klingt. Wenn man die drei Bereiche der Sprachtechnologie, nämlich die Spracheingabe, Spracherkennung und Sprachausgabe auf geeignete Weise miteinander kombiniert, entsteht ein natürlichsprachliches Dialogsystem. Das System kann mehrere Aufgaben erledigen wie z. B. Auskünfte erteilen, Bankgeschäfte tätigen und Reservierungen vornehmen. Diese natürlichsprachlichen Dialogsysteme, mit denen man sich fast wie mit einem Menschen unterhalten kann, haben wir in Kapitel vier behandelt. Sprachdialogsysteme haben den Vorteil, rund um die Uhr erreichbar zu sein, ohne dass zusätzliche Personalkosten für diesen Service entstehen; NDS sind immer freundlich und von gleichbleibender Qualität, ohne dass diese kontrolliert werden muss. Der einzige Nachteil ist der hohe Entwicklungsaufwand, der bei der Programmierung eines neuen Dialogs anfällt. Dieser Entwicklungsaufwand wird durch die Wahl von VXML als Programmiersprache und eine gute Entwicklungsumgebung erträglich. Einerseits gibt es Firmen, die auf die Entwicklung eines NDS spezialisiert sind, andererseits gibt es welche, die sogar eine Voice Applikation Plattform betreiben, die sogenannten Applikation Service Provider. Die meisten dieser Provider befinden sich in den USA, mittlerweile gibt es auch deutsche Firmen, die diesen Service bieten. Durch die NDS-Technologie, die gezeigt hat, dass man über Datenleitungen telefonieren kann, wurde ein Trend eingeleitet, den man Voice over IP nennt. Dabei können Menschen üb er Datenleitungen miteinander telefonieren. Vor ein paar Monaten hätten wir in Elektrokaufhäusern keine IP-Telefone gefunden; heute kann man sich sogar aus vielen Modellen eins aussuchen. VoIP boomt, die Anzahl der Anbieter hat sich in ein paar Monaten vervielfacht. Besonders Firmen mit mehreren Standorten profitieren durch geringere Telefonkosten von dieser Technologie. Für Privatleute, die bereits einen DSL-Anschluss mit Flatrate-Tarif besitzen, ist VoIP oft preislich gesehen von Vorteil. Allerdings wird die Sprachqualität manchmal immer noch durch Nebengeräusche beeinträchtigt. Außerdem entstehen für die Firmen nicht unbeträchtliche Kosten bei der Migration nach VoIP, die man nicht unbedingt innerhalb eines Geschäftsjahres aufbringen will; eine Koexistenz von analogen Telefonen und VoIP-Telefonen sowie eine sanfte Migration muß möglich sein. Geheime Gespräche sollten auf die altmodische Art geführt werden, da VoIP-Telefonate nicht abhörsicher sind, solange sie nicht verschlüsselt werden. Ich denke, dass die Sprachtechnologie am heimischen PC jetzt und auch in der Zukunft nur einen geringen Nutzen bzw. einen kleinen Nutzerkreis, wie zum Beispiel sehbehinderte Personen, haben wird. Andererseits bin ich überzeugt, dass NDS eine große Akzeptanz finden wird, wenn die Sprachtechnologie effektiv umgesetzt wird. In diesem Bereich wird die Sprachtechnologie wirtschaftlichen Nutzen bringen, nicht nur der Industrie durch die Reduzierung ihrer finanziellen Kosten, sondern auch dem Verbraucher durch die Erhöhung seiner Bequemlichkeit und die Verbesserung der Erreichbarkeit. Literaturverzeichnis com! 2004, Heft 5 com! 2004, Heft 6 Connect 2004, Heft 6 c't 2004, Heft 9 Ernst Maracke: VoiceXML 2.0, Bonn 2003 Freiheit, Lehner, Matousek: VoiceXML, Berlin und Offenbach 2003 Funkschau 2004, Heft 7 http://de.wikipedia.org/wiki/AOL http://de.wikipedia.org/wiki/ASCII http://de.wikipedia.org/wiki/Audio_Interchange_File_Format http://de.wikipedia.org/wiki/DSL-Modem http://de.wikipedia.org/wiki/Excel http://de.wikipedia.org/wiki/Gateway http://de.wikipedia.org/wiki/Html http://de.wikipedia.org/wiki/Internet_Explorer http://de.wikipedia.org/wiki/Microsoft_Outlook http://de.wikipedia.org/wiki/Microsoft_Word http://de.wikipedia.org/wiki/Pegasus_Mail http://de.wikipedia.org/wiki/Rich_Text_Format http://de.wikipedia.org/wiki/Router http://de.wikipedia.org/wiki/Schreibtisch_%28EDV%29 http://de.wikipedia.org/wiki/SIP-Telefon http://de.wikipedia.org/wiki/WAV_(Format) http://en.wikipedia.org/wiki/Au_file_format http://en.wikipedia.org/wiki/MP3 http://sayso.elan.fr/interactive_va.asp http://www.acapela-group.com/products/products.asp http://www.babeltech.com http://www.computerbase.de/lexikon/SIP http://www.corel.com http://www.flexvoice.com http://www.gdata.de/trade/productview/123/5/ http://www.infovox.se http://www.kinderleichtsoftware.de/lesefixpro.htm http://www.lencom.com/desc/indexN2615.html http://www.loquendo.com/de/demos/demo_tts.htm http://www.naturalvoices.att.com/demos/ http://www.neospeech.com/demo/demo_text.php http://www.speechissimo.com/ http://www-306.ibm.com/software/lotus/ Stiftung Warentest, Test 2004, Heft 1 www.dragon-medical-transcription.com/historyspeechrecognitiontimeline.html www.dynamic-living.com www.loquendo.com/de/technology/asr.htm www.onlinekosten.de/voip/anbieter www.sakrament-speech.com/products/asr/asr2 www.scansoft.com/automotive/vocon3200 www.speech-user-interface.de www.spracherkennung.de www.spracherkennung.de/service/sebuch.htm www.telisma.com/ASRengine.html www.telisma.com/overviewASR.html www.voicexml.org Hiermit versichere ich, dass ich diese Arbeit selbständig angefertigt und keine anderen als die angegebebenen und bei Zitaten kenntlich gemachten Quellen und Hilfsmitteln benutzt habe. ______________ Dounia Mirrouch