Audio im Internet
Transcription
Audio im Internet
Audio im Internet Seite 1 Audio im Netz Ausarbeitung des Referats WebPublishing Seminar WS 2003/04 bei Prof. Dr. Oliver Vornberger Felix Bießmann, fbiessma@uos.de Audio im Internet Seite 2 Einleitung Mit dem Multimedia Hype der vergangenen Jahre und der Etablierung des DSL-Netzes hat auch das Interesse an Multimedialen Auftritten im Internet zugenommen. Abgesehen von der Raubkopier- und Tauschwut der User in Sharebörsen, hat sich das Medium Audio auch auf Webseiten etabliert: Es gibt Internetradiostationen, die es mit vergleichsweise geringem Aufwand schaffen, in die ganze Welt übertragen zu werden. Sprachausgabe ermöglicht es Blinden, sich im Web zurechtzufinden. Vorträge und Konzerte werden live im Netz übertragen. Soundeffekte und Hintergrundmusik können den Webauftritt manchmal positiv beeinflussen Nun gut, viele Soundeffekte auf einer Webseite können unter Umständen nerven. Es gibt aber auch sinnvolle Einsatzmöglichkeiten. Im pädagogischen Bereich zum Beispiel kann eine multimediale Seite mehr bewirken als bloßer Text. Was das Streaming angeht, so sind Streamingtechnologien sind nicht mehr nur für professionelle Sendebetriebe erschwinglich. Einige Freeware Programme erlauben es jedem Internetuser, sich – abhängig allein von seiner Bandbreite – einen Audiostream in seine Seite zu integrieren. Im Folgenden ein Abriss über das Medium Audio im Internet, wichtige Formate und die Möglichkeiten bei der Einbindung in Websites. Vom analogen zum digitalen Klang Klang ist die Vibration von Luftmolekülen oder die Veränderung des Luftdrucks, die vom Trommelfell wahrgenommen werden kann. Charakteristisch für einen Klang sind 1. Frequenz: Häufigkeit der Vibrationen, wahrgenommen als Tonhöhe 2. Lautstärke: Amplitude der wellenförmigen Luftdruckveränderung 3. Klangfarbe: Klänge, die nur eine einzige Frequenz besitzen, kommen in der Natur nicht vor. Solche können nur elektrisch synthetisiert werden. Natürliche Klänge setzen sich aus vielen Schwingungen zusammen. Ein Klavierklang und ein Trompetenton unterscheiden sich nicht nur durch ihren unterschiedlichen Laustärkeverlauf, sondern auch durch ihr spezifisches Obertonspektrum; anhand der Zusammensetzung dieser Obertöne, also der Töne, die mit einer höheren Frequenz als der Grundton mitschwingen, können wir Klänge, die die gleiche Tonhöhe haben, jedoch von unterschiedlichen Instrumenten stammen, unterscheiden Wahrnehmbar sind Frequenzen von 20 bis 20.000 Hertz. Die Amplitude der Klangwellen wird als Lautstärke wahrgenommen. Digital wird ein Klang von zwei Werten repräsentiert: SamplingRate und Bit-Tiefe. Ein Sample ist ein kleines Stück eines Wellenmusters, das eindeutig den Wert und die Position des elektrischen Analogsignals beschreibt. Die Anzahl der Samples in einer Sekunde wird als Auflösung oder Sampling-Rate Audio im Internet Seite 3 bezeichnet. Die Bit-Tiefe stellt die Größe der Samples im Speicher dar. Je mehr Bit zur Verfügung stehen, desto mehr Klanginformationen können gespeichert werden. Ein Sample ist also eine digitale Momentaufnahme eines Klangs. Wie beim Video werden diese hintereinandergereiht um den Eindruck eines „echten“ Signals zu bekommen. Anders als beim Film, wo schon 24 Samples (oder Frames in diesem Fall) in der Sekunde flüssig wirken, hat sich beim Klang eine Sampling-Rate von 44.100 Hz als am besten geeignet erwiesen, das Signal naturgetreu wiedergeben zu können. Ein Sample sollte dabei mindestens 16 Bit Speicherplatz bekommen. Die Abtastrate moderner Wandlerkarten liegt zwar schon häufig bei über 96 KHz, jedoch langen 44,1 KHz meist, um das wahrnehmbare Frequenzspektrum abzubilden. Die Samplerate sollte aber schon über dem Doppelten der oberen Wahrnehmungsgrenze liegen, da aufgrund der Aliasing-Effekte das Ausgangssignal andernfalls verfälscht werden könnte. Hier ein Beispiel: Ein Sinuston (1,035 Hz) bei 44,1 KHz aufgenommen; Punkte oberhalb der Linie in dieser sehr vereinfachten Skizze repräsentieren positive Spannungen des elektrischen Analogsignals, die darunter negative. Abbildung 1Hier die Spektralanalyse des Sinustons. Die lauteste Amplitude liegt bei 1,035 KHz (C6). Eine Samplerate von 2,000 Hz jedoch ist unter der kritischen Nyquist-Frequenz für diesen Klang. Der Physiker Nyquist stellte fest, dass unterhalb der kritischen Samplerate von Grundtonfrequenz x 2 AliasingEffekte auftreten, die das Ausgangssignal verfremden. In diesem Fall ist die Abweichung des Tons: 1,035 KHz – 2 Khz/2 = 35 Hz Das ist nicht viel, aber hörbar. Dennoch ist die geringe Abweichung angesichts der dürftigen Repräsentation noch erstaunlich. Abbildung 2Hier die Spektralanalyse des Tons mit Aliasing-Effekt. Die lauteste Amplitude liegt hier bei 955 Hz (A#5). Entsprechend der niedrigen Samplerate hat sich der Ton im sichtbaren Spektrum nach rechts verschoben (der Sampleeditor schneidet automatisch bei der Hälfte der Samplefrequenz, 1 KHz, ab). Audio im Internet Seite 4 Man sollte also bei Aufnahmen, oder Resampling von Audiofiles immer auf eine ausreichende Samplingrate achten. Das gilt auch für das Komprimieren mit platzsparenden AudioCodecs. Hier eine Skizze, die an obigem Beispiel schemenhaft verdeutlicht, wie sich die Qualität der digitalen Repräsentation des Tons verschlechtert, wenn die Abtastfrequenz abnimmt. o o o o oo o o o oo oo oo o o o o o o o o -----o-----o-----o-----o-----o-----o-----o-----o o o o o o o o o o o o o o o o o o ------------------------------------------------ o o o o o o o ------------------------------------------------ o o o oo oo oo oo o o o o 44,1 KHz o o o o o 22,05 KHz 2 KHz Auflösung zwar schlechter, jedoch lässt sich das Ausgangssignal noch getreu reproduzieren. Aufbereitung des Audiomaterials Falls man das Material nicht schon digital auf CD vorliegen hat, sondern es erst umwandeln musste, sollte man es zuerst ein wenig bearbeiten. Den Umweg über die analoge Aufnahme legt auch die Gesetzesnovelle vom 13. September nahe: nimmt man eine CD mit Kopierschutz auf Kassette auf, überspielt diese wieder auf den Rechner und wandelt diese Datei in beispielsweise das MP3 Format um, so hat man den Kopierschutz legal umgangen. Natürlich gilt auch für diese Kopien, dass sie nur für private Zwecke und nur in siebenfacher Ausführung erstellt werden dürfen. Hochwertige Aufnahmen kann inzwischen jeder daheim am Rechner mit recht einfachen Mitteln hinbekommen. Aktuelle Soundkarten haben standardmäßig Sampleraten, die CD-Qualität erreichen. Hat man ein Lied aufgenommen geht es an die Aufbereitung. Früher hatten nur professionelle Studios diese Möglichkeit, die Abbildung 3Ein Gitarrenlick, digitale Form macht die Bearbeitung jedoch erheblich billiger. In jedem aufgenommen bei 44,1 KHz/20 mittelmäßigen Sample-Editor sind die wichtigsten beiden Werkzeuge, natürlich in Bit. sehr unterschiedlicher Qualität, enthalten. Erstens sollte man das Material normalisieren, das heißt die Aufnahme sollte den kompletten zur Verfügung stehenden Dynamikbereich ausschöpfen um eine einheitliche Lautstärke aller Dateien zu erreichen. Bei diesem Verfahren wird zunächst der lauteste Pegel in der Datei festgestellt; diesem wird die maximale Lautstärke zugewiesen, die Amplituden der übrigen Samples werden relativ zum lautesten Klang entsprechend vergrößert. Normalisierung ist aber nicht nur aus Abbildung 4Dasselbe Lick, Gründen der Okonomie (die Lautstärke muss nicht nachträglich angeglichen normalisiert werden) und der Konsistenz notwendig. Auch bei der Konvertierung von StereoFiles in platzsparende Mono-Files ist es wichtig, vorher zu normalisieren. Man sollte den Output auf ungefähr 70 % des Ausgangsmaterials trimmen, um digitale Übersteuerung beim Zusammenmischen der beiden Spuren zu vermeiden, wenn der 0 dB Wert des Dynamikbereichs überschritten wird. So etwas macht sich mit Knacksern in der Ausgabedatei bemerkbar. Audio im Internet Seite 5 Als nächstes sollte man sich bemühen, die Konsistenz der Lautstärke auch innerhalb der Datei herzustellen. Denn die ursprünglichen Lautstärkenverhältnisse bleiben beim Normalisieren erhalten. Wenn bei einer Aufnahme ein Ton knapp unter der Übersteuerungsgrenze liegt, der nächste jedoch kaum hörbar ist, mag das dem musikalischen Ausdruck dienen, der Verständlichkeit ist es jedoch eher abträglich. Um allzu krasse Unterschiede auszugleichen gibt es den Kompressor, Abbildung 5Nocheinmal das Lick, der übrigens nichts mit der Komprimierung der Dateigröße zu tun hat. Es handelt nun aber komprimiert. Auch wenn sich um einen Effekt, der die Amplituden der lautesten Wellen staucht und es so die lautesten Amplituden kleiner beim normalisierten Beispiel ermöglicht, die leiseren Signale noch ein wenig lauter darstellen zu können. als sind, ist alles insgesamt lauter Normalerweise setzt man den Kompressor ein, um Klang zu verdichten und so im Zusammenspiel mit anderen Klängen hervorzuheben. Auch wenn ein Lied abgemischt ist, wird der finale Mix noch einmal mit dem Kompressor bearbeitet. Bei eigenen Aufnahmen, die von fertigen Produktionen überspielt wurden, ist es nicht immer sinnvoll, diesen Effekt einzusetzen, da mit den falschen Parametern die Dynamik der Aufnahme stark verändert werden kann. Jedoch bieten die meisten Kompressoren Defaulteinstellungen, die helfen, ohne viel Vorkenntnisse eine Sound Datei druckvoller zu machen und das ist es, was man zu erreichen versuchen sollte, bevor man die Datei in andere, platzsparendere Formate umwandelt. Komprimierung Normale Modem- und DSL-Verbindungen haben zu wenig Bandbreite, um Audiodateien mit einer SampleRate von 44,1 KHz und 16 Bit Samplegröße zu übertragen. Obige Beispieldateien des Sinustons waren im . wav Format, also unkomprimiert. Bei einer Bitrate von 1411 Kbps brauchte eine Datei bei der Samplingfrequenz 44,1 KHz schon 420 Kb. Deshalb müssen die Dateien komprimiert werden. Hier sind die hauptsächlichen Prinzipien, nach denen die gängigen Komprimieralgorithmen verfahren. Zunächst werden soviel überflüssige Informationen wie möglich weggelassen. Generell gilt bei Eigenaufnahmen, dass die Frequenzen über 10 KHz und die unter 80 Hz unter anderem auch Störgeräusche enthalten, wie das Brummen des Gehäuselüfters oder des Netzteils, die nichts mit dem eigentlichen Inhalt der Datei zu tun haben. Diese irrelevanten Frequenzen und alle, die noch weiter außen am hörbaren Spektrum liegen, werden von vielen Komprimier-Algorithmen weggeschnitten. Man kann auch noch weiter gehen. Die Frequenzen, die menschliche Stimmen produzieren liegen hauptsächlich zwischen 1 und 4 KHz. Bei Dateien, die Sprache wiedergeben, könnte man deshalb die Frequenzbänder außerhalb dieses Bereichs unterdrücken. So verfährt beispielsweise ein WindowsMediaFormat für Stimmenübertragung (Sample-Rate: 6,5 KHz): eine 19 MB große Audiodatei wird auf knapp 100 KB gestaucht, wobei alle unnötigen Frequenzen weggelassen werden und ein Anti-Aliasing Filter Verfremdungen verhindern hilft. Jedoch wird der Klang allein schon dadurch verfremdet, dass er sich auf das schmale Band von 1 bis 4 KHz beschränkt, denn die natürlichen Obertonreihen der Stimme erreichen 7 KHz und mehr. Den Unterschied zwischen einer echten und einer so beschnittenen Stimme erkennt man aber sofort, es klingt noch schlechter als beispielsweise am Telefon. Überflüssige Informationen sind außerdem doppelte Töne. Wenn ein Klang von einem leiseren derselben Lage, oder einem geringfügig höheren (respektive niedrigerem), überlagert wird, kann der leisere weggelassen werden, ohne dass man es wahrnimmt. MP3 Codecs können darüber hinaus den Speicher so verwalten, dass Samples, die simpel sind und wenig Information enthalten, ihren Platz teilweise für Informationen aus komplexeren Samples zur Verfügung stellen. Viel Platz verbraucht das Stereo-Format. Bei geringer Bandbreite sollte man ganz darauf verzichten, aber viele Komprimieralgorithmen bieten einen Kompromiss: Das menschliche Ohr kann Töne bei besonders hohen oder tiefen Frequenzen immer schlechter orten. Deshalb fällte es meist nicht auf, dass alle Stereoinformationen aus den Frequenzbereichen, die das menschliche Ohr nur schwer räumlich zuordnen kann, auf eine Monospur gemischt werden. Wenn all diese psychoakkustischen Aspekte berücksichtigt wurden, läuft schließlich noch ein Algorithmus über die Datei, der gleiche Muster erkennt und Duplikate weglässt, wobei er sie durch eine Referenz auf das erste Muster ersetzt. Wie radikal die Komprimieralgorithmen mit dem Material verfahren bestimmt die Klangqualität der enkodierten Daten. Audio im Internet Seite 6 Der Zusammenhang von Bitrate und Qualität einer Audiodatei am Beispiel eines MP3-Codecs: Kb/s Größe in MB Qualität 1411 41,3 CD-Qualität; *.wav Datei von 4 Minuten 192 5,6 Kaum von CD Qualität zu unterscheiden 128 3,8 Nahe an der CD; hat sich als Internetstandard etabliert 64 1,9 Mehr als genug für Stimmen/bei modernen Codecs fast CD-Qualität Streaming Protokolle Wenn die Daten nun komprimiert sind, könnte man sie freilich einfach herunterladen aus dem Netz und vom Rechner aus anhören. Das ermöglicht aber noch keine andauernden Sendungen oder Live-Übertragungen. Vollständiges Runterladen kostet außerdem Speicher und Zeit. Die beste Alternative ist, die Dateien in kleinen Paketen zu verschicken, die clientseitig gebuffert werden und zusammenhängend wiedergegeben werden. Das nennt man streamen. Die Bufferung soll verhindern, dass die Wiedergabe abbricht, wenn der Datenstrom versiegt. Diese Technologie verhalf dem Internet zu einem multimedialen Aufschwung. Doch nicht jedes Datenprotokoll im Internet ist gleich gut geeignet, Streams zu übertragen. Generell bietet das Internet hauptsächlich zwei Möglichkeiten, Daten zu versenden: über das TCP und das UDP Protokoll. Diese arbeiten über einem IP Netzwerk. Während das IP Protokoll alleine sich nur mit dem Versenden von Daten beschäftigt, ermöglichen es TCP und UDP, eine Verbindung zwischen zwei Rechnern herzustellen. TCP/IP hat sich für die FTP, SMTP und HTTP Übertragung etabliert, da es die Integrität der Daten garantiert. Das UDP Protokoll bietet kontinuierlichen Datenstrom, allerdings ohne die Sicherheit der Daten zu gewährleisten. Das TCP Protokoll verlangt von der Client-Seite immer eine Rückmeldung, um Fehler bei der Übertragung zu vermeiden und den Transfer zu organisieren. Die Pakete eines UDP Protokolls haben lediglich einen Marker, der Fehler feststellt, die Übertragung läuft aber nahtlos weiter, ohne die verlorenen Daten zu ersetzen. Analog kann man die Übertragung von Audio mit verschiedenen Protokollen gegenüberstellen. Streamingprotokolle wie das RealTimeStreamingProtocol verfahren eher nach dem UDP-Schema, Protokolle, die mit TCP/IP übertragen werden, wie HTTP kommen an deren Performance nicht heran. Erstellt man eine HTML Seite, wird die über das HTTP Protokoll verschickt. Will man nun Audio in die Seite einbetten, muss man sich entscheiden, ob man einen Stream im echten Sinn anbieten will, oder nur einen sogenannten Pseudo-Stream über HTTP. Erstere Lösung wählen professionelle Sendebetriebe, die viele User auf einmal mit demselben Inhalt bedienen. Die Interaktivität steht dabei im Hintergrund. Einen Server zu installieren, der RTSP benutzt, oder das Streaming Protokoll von WindowsMedia, ist allerdings meist teuer und auch nicht ganz einfach. Es gibt zwar Gratisversionen der nötigen Software von Realaudio, Microsoft oder Apple, allerdings fehlen dem normalen User die Hardwarevoraussetzungen, um einen fähigen Server aufzuziehen, von der Bandbreite ganz zu schweigen. Es bleibt die Möglichkeit, über HTTP zu streamen. Alle gängigen Streaming-Formate unterstützen dies. Für Soundeffekte, Hintergrundloops oder allgemein interaktive Seiten ist das keine schlechte Lösung. Bettet man ein Soundfile in ein SMIL-File in, das es erlaubt, Medien miteinander zu synchronisieren, kann man auch Audio echt über HTTP streamen. Die Nachteile einer solchen Übertragung sind dadurch aber nicht gelöst. Audio im Internet Seite 7 Audioformate RealAudio Das älteste und wohl populärste Audiostreaming-Format ist RealAudio. Wie für Text- und Bildmedien bietet das RealMedia-System eine stabile, leicht zu wartende und systemunabhängige Plattform für Audio im Netz. Generell ist es mehr für professionellen Sendebetrieb gedacht, allerdings gibt es auch eine Gratisversion des RealServers. Er bietet jedoch nur einen Datendurchsatz von 1 Mb/s, das heißt, es könnten fünf Personen gleichzeitig eine Datei mit der Bitrate von 200 Kb/s streamen. Das sind nicht besonders viel. Aber es ist dasselbe Prinzip wie bei der professionellen Serversoftware: Im HTML-Text befindet ein Link auf ein Metafile (*.ram), das genauso heißt, wie die eigentliche Audiodatei (*.rm, früher *.ra). Dieses Metafile enthält nur die URL des Soundfiles. Das liegt auf dem RealServer. Wenn der Browser dieses Metafile interpretiert, öffnet er das RealPlayer-Plugin (sofern er den MIME-Type kennt). Der Player leitet die URL an den RealServer weiter um den passenden Clip als Stream geliefert zu bekommen. Aber in diesen Dimensionen kann man den RealServer auch weglassen und die RealAudio-Daten über HTTP von einem normalen Web-Server streamen. Dadurch verpasst man allerdings die Vorteile, die ein RealServer bietet: 1. Bandweitenaushandlung Der Server kann feststellen welche Verbindung der anfragende User benutzt, und den Stream mit der besten Bitrate bereitstellen; ein 28 Kbps Modem sollte nicht mit einem 128 Kbps Stream überlastet werden, wenn man allerdings eine DSL-Verbindung hat, wäre es schön, eine angemessene Klangqualität geliefert zu bekommen 2. Robuste RSTP Übertragung Das RealTime-Protokoll findet und kompensiert verlorengegangene Pakete; das sorgt für flüssige Streams; hier liegt die Hauptschwäche des HTTP 3. Splitting Das Audiosignal kann aufgesplittet und an weitere RealServer weitergeleitet werden, um den Server zu entlasten 4. Clustering Mehrere RealServer können zu einer Multiprozessormaschine zusammengeschaltet werden 5. IP-Multicasting Erlaubt es allen Usern in einem LAN denselben Stream zu hören; Für Dinge, die ohne solchen Luxus auskommen, bietet sich HTTP-Streaming an. Dabei ist der Server bei hochfrequentierten Seiten recht schnell überlastet. Dinge wie Livestreams sind über HTTP nicht möglich. Für die Erstellung der RealMedia-Dateien gibt es einen Gratis-Encoder . Am besten komprimiert man eine Audio-Datei mehrmals mit verschiedenen Bitraten, um für verschiedene Verbindungen die günstigste Version anbieten zu können. Egal wie man die Mediendatei streamt, die Einbettung kann man in jedem Fall gleich vornehmen: • man referenziert in der HTML Seite auf eine Datei, die die Extension *.ram für einen Popup Player hat, und *.rpm, wenn man die Datei mit dem embed Tag in die Seite einbinden will. • In der *.ram/*.rpm Datei steht nur der Link auf das *.ra File (RealAudio in unserem Fall), ohne Anführungszeichen oder sonstige Tags • Alternativ kann man RealAudio mit anderen Medien in einem SMIL-File koordinieren; neben Informationen über das Stück kann man auch Parameter angeben, die den zeitlichen Verlauf oder die zeitliche Position im Verhältnis zu anderen Mediendateien festlegen. Audio im Internet Seite 8 Hier ein Beispiel: <smil> <head> <meta name = "title" content = "Demo" /> <meta name = "author" content = "jemand@web.de" /> <meta name = "copyright" content = "©2003" /> </head> <body> <audio src = "soundfile.ra" begin = "0.0s" dur = "123.0s"/> </body> </smil> Überblick RealAudio Interaktivität OK; eigentlich ein Streaming-Format, aber auch gut für Slideshows; Synchonisierung mit anderen Medien über SMIL Kosten Von null bis oben offen, je nach Anspruch; professionell ab ca. 2500 € Dokumentation Hervorragend Enkodierung Einfach Einbindung Einfach für HTTP-Streaming; Mittelmäßig schwierig für die Installation eines RealServers; Qualität Exzellent Performance bei geringer Bandbreite Gut bis sehr gut Server Performance Hervorragend BrowserKompatibilität Exzellent Audio im Internet Seite 9 MP3 Als populärstes Audioformat, das zwar nicht ausdrücklich für das Internet gedacht ist, sich aber aufgrund seiner kleinen Dateigrößen besonders hier bewährt hat, kennen wir alle MP3 (eigentlich: MPEG-1, Layer III; MPEG steht für das Entwicklerkonsortium Motion Pictures Expert Group). Es wurde 1992 fertiggestellt und komprimiert Audiodaten sehr effizient. Die größten Speichereinsparungen gehen auf die oben erwähnten psychoakkustischen Prinzipien zurück: nicht Wahrnehmbares wird weggelassen. Nicht hörbare Frequenzen unter 20 Hz und über 20 KHz werden ersatzlos gestrichen, alles außerhalb des räumlich ortbaren Bereichs (hauptsächlich 2 - 4 KHz) wird auf eine Monospur gemischt; überlagern sich zwei ähnliche Töne, wird der leisere aufgegeben. Die Samples, in denen einfache Klangmuster abgebildet werden, geben ihren freien Speicherplatz ab an Frames, deren Samples komplexer sind. Danach läuft ein Algorithmus über die Daten, erkennt doppelte Muster und entledigt die Datei redundanter Strukturen. Damit werden die Dateien noch einmal ca 20 % kleiner. Der hauptsächliche Verwendungszweck von MP3's sind aber nicht internettypische Audioanwendungen, wie Streaming oder Einbettung in Websites. Es hat sich vielmehr als das digitale Audioformat schlechthin bewährt. Während man bei der Bereitstellung von RealStreams oder anderen proprietären Formaten immer nur die Besitzer der passenden Abspielsoftware ansprechen kann (auch wenn sie umsonst ist, hat sie nicht jeder), gibt es eine Unzahl von Playern, die MP3-Files abspielen können. Eigentlich alle Audiodaten, die übers Netz ausgetauscht werden, sind im MP3-Format. Will man Audiofiles einem möglichst großem Publikum lediglich zum Download anbieten, ist MP3 sicherlich die erste Wahl. Aber auch für die Gestaltung einer Seite kann es recht nützlich sein. Zunächst gibt es auch für MP3-Dateien Serversoftware, die das Bereitstellen von Streams erlaubt. Für Windows ist die populärste Software SHOUTcast von Nullsoft, den Entwicklern des Winamps (ein bekannter MP3-Player). Als Open-Source Alternative hat sich Icecast etabliert. Allerdings wird das MP3-Format inzwischen nicht mehr von Icecast unterstützt, man benutzt nun das Open-Source Format OggVorbis, das auch vom Winamp gespielt werden kann. Das Prinzip von SHOUTcast ist recht einfach: Die Software ist für die gängigsten Betriebsysteme erhältlich. Eine Sendestation spielt ein File im Winamp ab, das an den Server übertragen wird. Als Hörer muss man nur die URL des SHOUTcast Servers gefolgt von der Portnummer in das Location Feld in den Abspieloptionen eingeben und kann so mithören. Dieses System hat sich als simples Mittel zur Verwirklichung der eigenen kleinen Radiostation Beliebtheit verschafft. Eine weitere Möglichkeit, MP3 Streams in eine Seite einzubauen, ist die Open-Source Lösung Peercast. Das Programm erlaubt es vielen Internetusern gleichzeitig über das Gnutella Protokoll Audiostreams von anderen Usern zu hören, die die Software installiert haben. Doch muss man sich der rechtlichen Konsequenzen des Schwarzsendens bewusst sein. Wer sich die Gebühren nicht leisten kann und auch nicht die nötige Hardware oder Bandbreite zur Verfügung hat, für den entfällt diese Möglichkeit der Klanggestaltung. Es gibt allerdings einige unabhängige Radiostationen unter obigen Links, die ein breites Angebot an Musik spenden- oder selbstfinanziert anbieten. Generell sollte man bei rechtlichen Fragen im Internet informiert sein, ob es rechtens ist, die Musik oder die Samples, die man verwenden will, frei zugänglich zu machen. Die Einbindung von MP3 Files ist recht einfach, die Möglichkeiten sind allerdings etwas beschränkt. Als Hintergrundmusik könnte man ein File beispielsweise so in eine Seite einbinden: <html> <head> <title>Text des Titels</title> <!-- Microsoft: --> <bgsound src="soundfile.mp3" loop="infinite"> </head> <body> <!-- Netscape: --> <embed src="soundfile.mp3" autostart="true" loop="true" hidden="true" height="0" width="0"> <h1>Inhalt der Seite</h1> </body> </html> Audio im Internet Seite 10 MP3 Überblick: Interaktivität Keine; MP3 ist nur ein Komprimier Standard Kosten Keine; Freeware Encoder gibt's im Netz Dokumentation Beschränkt Enkodierung Einfach Einbindung Einfach Qualität Sehr gut; hängt von Bitrate ab Performance bei geringer Bandbreite Sehr gut Server Performance Gut bei SHOUTcast; hauptsächlich ein Download-Format Browserkompatibilität Exzellent MIDI Das wohl wichtigste digitale Musikformat für instrumentale Musik ist MIDI (Musical Instrument Digital Interface). Es ist ein Standardprotokoll für die Kommunikation zwischen einem Rechner und syntethischen Klangerzeugern. Seinen Aufschwung erlebte MIDI mit der zunehmenden Popularität der digitalen Synthesizer in den 80er Jahren. Die analogen Synthesizer der 60er und 70 sind noch ohne Software ausgekommen, jedoch konzentrierten sich die Synthesizerentwickler schließlich wegen den enormen Möglichkeiten der Klanggestaltung und wegen der günstigen Herstellung auf digitale Synthesizer. Diese brauchten Software um mit den Sequenzerprogrammen, die es vereinfachen, komplexe Partituren zu erstellen und analysieren, zu kommunizieren. Um nicht für jeden Synthesizer eine neue Software erfinden zu müssen, einigten sich die großen Hersteller der Branche (Roland, Sequential Circuits, Yamaha) 1982 auf ein gemeinsames Protokoll, das sich schnell als allgemeiner Standard etablieren konnte. Auch heute noch ist die Kompatibilität zu allen elektronischen Klangerzeugern gewährleistet, es gibt sogar MIDI-Controller, mit denen sich über den Luftstrom MIDI-Daten erzeugen lassen, um die für Blasinstrumente typische Hüllkurve als MIDI zu speichern. MIDI Dateien enthalten alle für ein Instrumentalstück wichtigen Informationen. Die Dateien bestehen aus vielen MIDI-Events, die neben dem MIDI-Timestamp, der die Position des Events im Arrangement festlegt, Informationen über Tonhöhe, Lautstärke und Klangfarbe eines jeden Tons enthalten; die Klangfarbe ist durch das Instruments des MIDI-Events gegeben. Es stehen 16383 Instrumentenbänke mit je 128 Instrumenten zur Verfügung. Somit enthält eine MIDI-Datei alle Informationen des Stücks, die auch in traditionellem Notensatz festgehalten werden können. Man kann eine MIDI-Datei in jedem der üblichen Audiosequencer (Cubase, LogicAudio, Cakewalk Sonar, ProTools...) öffnen und den gesamten Notensatz des Liedes betrachten und ändern. Gratisversionen dieser Sequencer werden auf den Homepages der Firmen Steinberg, emagic und cakewalk angeboten. So ganz verlässlich ist der MIDI-Standard allerdings nicht: man kann eine MIDI-Datei vergleichen mit der Partitur eines Stückes. Der endgültige Klangeindruck und letztlich die Qualität hängen stark vom Orchester ab, das den Notentext interpretiert. Genauso ist es mit MIDI. Da in MIDI-Files keine Klänge gespeichert sind, sondern nur die Information, wie diese zu erzeugen sind, ist es schwierig, vorherzusehn, wie die mit viel Mühe erstellte MIDI-Datei beim Hörer abgespielt wird. Das Orchester muss nicht immer ein teurer Hardwaresynthesizer sein. Heutzutage gibt es viel einfacher zu handhabende Softwaresynthesizer, die sich Audio im Internet Seite 11 problemlos in die Sequencer einbinden lassen über interne Audioschnittstellen wie VST (Cubase, LogicAudio) oder Dxi (Cakewalk). Dabei werden die Klänge im Rechner selbst erzeugt und können beispielsweise auch intern aufgenommen werden, ohne jegliche Klangverluste durch analoge Kabel oder Mischpulte. Der Noteninput kommt von MIDI-Keyboards, die selber keine Klangerzeugung beherrschen müssen. Diese internen Softwaresynthesizer werden inzwischen von allen wichtigen Windows/MacSequencern unterstützt, die Demoversionen der wohl fähigsten gibt es bei NativeInstruments. Egal welche Synthesizer nun bei der Erstellung der MIDI-Files benutzt werden, Konsistenz der Stücke ist ein wichtiges Thema. Wenn sich ein Produzent in seinem Studio an die High-End Synthesizer setzt und nächtelang die passenden Sounds für ein Stück sucht, wird er sich nicht darauf verlassen wollen, dass der handelsübliche Soundblaster im Rechner des Hörers dasselbe Klangerlebnis vermittelt wie die Geräte im Studio. Denn der Klang an sich wird letztlich von der Audio-Engine, die den MIDI-Track abspielt, erzeugt. Das muss sich nicht zwangsläufig schlecht anhören, aber allein die Tatsache, dass es sich ganz anders anhören könnte als die eigentliche Komposition, schreckt viele Künstler ab. So gibt es zwar haufenweise gute bis sehr gute Transkriptionen von bekannten Stücken im MIDI Format, jedoch würde sich niemand dazu herablassen eigene neue Kompositionen in MIDI direkt den Hörern anzubieten. Der Absatzmarkt für MIDI-Musik beschränkt sich hauptsächlich auf Alleinunterhalter und Produzenten, denen das Einspielen schwieriger Passagen zu anstrengend ist. Und natürlich auf die Autoren von Webseiten. Denn die Vorteile für das Internet liegen auf der Hand: unglaublich kleine Dateien im Vergleich zu anderen Musikformaten und alle Vorteile, die sich daraus ergeben: kurze Ladezeiten, flüssiges Abspielen und das alles bei hoher Browserkompatibilität (MIDI ist immerhin über 20 Jahre alt). Zwar ist das MIDI-Protokoll kein StreamingFormat, die Dateien sind aber so klein, dass sie schnell auf einmal heruntergeladen werden können. Ein Lied von vier Minuten und 8 Spuren belegt weniger als 90 KB, das ist kein Vergleich zu allen Audiokompressionsformaten. Da jedoch MIDI ursprünglich nicht für das Webpublishing sondern für die Kommunikation zwischen Sequencern und Klangerzeugern entwickelt wurde, wird es immer einige Nachteile behalten. Zum einen gibt es keinen einheitlichen Standard, wie MIDI-Klänge dargestellt werden müssen. Zwar hat sich mit GeneralMIDI I und II ein Standard etablieren können, aber auch der ist keine Klangqualitätsgarantie. GeneralMIDI ist ein Standard, der eine Auswahl von 128 Instrumenten festsetzt, die jeder MIDI-Klangerzeuger beherrscht. Auf der vierten dieser 128 Spuren ist beispielweise immer ein Honkytonk-Piano. Allerdings ist dieser Standard nur eine Richtlinie, wie der Klang einer Spur in etwa von der Soundengine des Synthesizers dargestellt werden soll. Bei so schwammigen Begriffen wie tubular bells hat man wenig Sicherheit, dass der Klang konsistent von verschiedenen MIDI-Klangerzeuger dargestellt wird. Daneben lässt die Klangqualität bei diesen Instrumenten meist sehr zu wünschen übrig. Und: Stimmen oder besondere und selbst erstellte Klänge lassen sich damit nicht übertragen. Während man auf der einen Seite die Ungewissheit hat, ob Klänge wie gewünscht dargestellt werden, ist man andererseits beim einzigen Standard an ein recht starres Konzept an Gestaltungsmöglichkeiten gebunden. Deshalb haben einige Softwarehersteller hybride Systeme entwickelt, die die Vorteile von MIDI mit denen üblicher Audioformate kombinieren sollten. Da gibt es zum Beispiel das Beatnik-Format, eine einstmals sehr vielversprechende Kombination aus dynamischer Klangerzeugung (über MIDI) und herkömmlichem Sampling. Man kann im Beatnik-Editor RMF (RichMusicFormat) Dateien erstellen, wobei man neben der üblichen GeneralMIDI Instrumentenbank noch einen eigenen Synthesizer und einen Sampler zur Verfügung hat. Mit dem Synthesizer kann man neue Klänge beispielsweise durch die Veränderung der Tonhöhe oder Hüllkurve erreichen, mit dem Sampler hat man die Möglichkeit, kleine Samples von Stimmen oder anderem Audiomaterial in das File zu integrieren. Allerdings hatte ich bei Recherchen im Netz nicht den Eindruck, dass sich dieses Format, auch wenn das Konzept überzeugend ist, richtig durchsetzen konnte. Es findet in letzter Zeit wieder verstärkt in Mobiltelefonen Anwendung, aber für Webpublishing scheint es nicht die Popularität anderer Formate erreichen zu können. Das liegt wohl daran, dass die Umwandlung des Audiomaterials relativ aufwendig ist, man muss es eigentlich noch einmal neu komponieren; Stimmenübertragungen sind auch mit anderen Formaten viel einfacher zu verwirklichen als mit dem RMF. Und dann benötigt der Hörer in spe noch das Beatnik-Plugin, denn das RMF wird von den wenigsten Playern unterstützt. Ich beschränke mich also im Folgenden lieber auf das originäre MIDI Format. Denn auch hier ist man bemüht, konsistente Klänge ohne zu viele Einschränkungen im Klang zu erreichen. Die MIDI Manufacturers Association hat sich einen neuen Standard ausgedacht, der Klangkonsistenz garantieren soll. Downloadable Sounds (DLS) ist eine Spezifikation, die inzwischen alle wichtigen Hersteller von Klangerzeugern in ihre Produkte integrieren. Nicht nur Synthesizer sondern auch Abspielsoftware, beispielweise der WMPlayer und die QuicktimeSoftware unterstützen DLS. Man kann sich MIDI als recht abgespecktes Protokoll zu Übertragung von Informationen über Tonhöhe, Lautstärke und Dauer vorstellen. DLS ist das Protokoll zur Erzeugung von Klängen. Ist ein Klang in MIDI gespeichert und der Player unterstützt DLS, so kann man sich sicher sein, dass es genauso klingt, wie es gedacht war. Audio im Internet Seite 12 Hier ein Überblick über ein MIDI-Setup: Zur Erstellung einer MIDI Datei kann man sich einen Sequenzer zuzulegen, oder mit einem MIDI-Editor arbeiten. Die Demoversion eines brauchbaren Editors findet man beispielsweise bei Midinotate. Normalerweise sollte jeder Editor die MIDI-Noten auch abspielen können, zumindest im GeneralMIDIFormat. Zum Abspielen eignen sich aber auch alle anderen üblichen Player. MIDI wird inzwischen vom RealPlayer verstanden, ebenso vom WinAmp, dem WMPlayer sowie dem Quicktime-Player. MIDI-Songs gibt es haufenweise im Internet, umsonst und in kommerziellen Archiven. Will man eigene Lieder verwenden, kann man vorhandene Dateien editieren und Noten oder Instrumentenbesetzung übernehmen oder nur modifizieren und spart sich viel Sucharbeit im Editor. Oder man fängt eben bei null an. Dafür hier noch einige Tipps: • Initialisierung: Ein MIDI-Song besteht aus mehreren Instrumentalspuren, die alle einen separaten Kanal belegen. Jeder dieser Kanäle muss vor dem Abspielen initialisiert werden. Damit dabei keine Hänger entstehen, ist es manchmal sinnvoll, den ersten Takt leer zu lassen, damit die Instrumente den Kanälen zugewiesen werden können. Um Zeitverzögerungen zu vermeiden, kann man den ersten Takt dann auf Tempo 500 setzen und der Hörer bekommt davon nichts mit. Für die Initialisierung eignen sich auch Pausen am Ende eines Stückes. Man kopiert sie einfach an den Anfang, quasi als stillen Auftakt, um dem Klangerzeuger Zeit zu geben. Ein anderer Trick ist, das Stück mit Drums oder Piano zu beginnen. Die beiden Instrumente sind Defaultbelegungen, sie werden gespielt, wenn keine andere Instrumentalbesetzung bekannt ist. Beginnt ein Lied mit dieser Belegung, startet die Wiedergabe schneller. • Normalisieren Das Volumen sollte man über alle Dateien und Spuren zwischen 60 und 100 halten und nicht den ganzen Bereich bis 127 ausnutzen. Wenn eine Einzelnote mit 127 abgespielt wird, der Kanal dabei auch aufgedreht ist, kann es zu Verzerrungen kommen. • Redundanz Arbeitet man mit einem MIDI-Controller, der auch noch über Drehregler verfügt, sollte man aufpassen, nicht zuviel damit herumzuspielen. Bis auf die Einstellung die direkt vor der Note kommt, bringen Änderungen nichts. Dafür können die Dateien sehr viel größer werden mit diesen unnützen Informationen. • Testen Der wohl wichtigste Teil. Gerade beim MIDI-Format kann man nicht gründlich genug testen, wie sich die Datei beim Abspielen mit verschiedenen Browsern und Playern verhält. Die Einbindung eines Hintergrundsongs in eine Website erfolgt wie oben einfach über den tag <BGSOUND SRC=“mysong.mid“> (IE) und <EMBED SRC=“mysong.mid“> (Netscape). Hier ein Beispiel für eine Hintergrundbeschallung im Netscape Navigator: Audio im Internet Seite 13 <EMBED SRC=“mysong.mid“ HIDDEN=“true“ loop=“yes“ volume =“10“ autostart=“true“> Wenn allerdings schon die Klänge immer dieselben sind, wird dasselbe Lied nach kurzer Zeit nervig. Man kann leicht für Abwechslung sorgen, indem man folgendes Script in die Seite integriert: <SCRIPT> <!-var numMIDI =12 day =newDate() seed=day.getTime() ran=parseInt(((seed-(parseInt(seed/1000,10)*1000))/10)/100*numMIDI+1,10) if (ran == (1)) MIDI=(“loop_1.mid“) if (ran == (2)) MIDI=(“loop_2.mid“) ... if (ran == (12)) MIDI=(“loop_12.mid) document.write('<EMBED SRC=“http://deineseite.de/MIDIFILES/' + MIDI + ' “ WIDTH=0 HEIGHT=0 AUTOSTART=TRUE>') document.write('<BGSOUND SRC=“http://deineseite.de/MIDIFILES/' + MIDI + ' “ AUTOSTART=TRUE>') // --> </SCRIPT> MIDI Überblick: Interaktivität Beschränkt; MIDI ist ein Kommunikationsprotokoll; gut geeignet für ButtonRollovers und Soundeffekte Kosten Keine bis etwa 300 € für einen guten MIDI-Sequencer; MIDI-Keyboards ab ca. 100 € Dokumentation Wenig Enkodierung Schwierig;erfordert Grundkenntnisse in Notation und Harmonielehre und im Umgang mit MIDI-Editoren Einbindung Einfach Qualität Meist miserabel; aber unschlagbares Klang/Dateigröße-Verhältnis Performance bei geringer Bandbreite Sehr gut Server Performance Gut; problemloses Pseudo-Streaming über HTTP Browserkompatibilität Exzellent Audio im Internet Seite 14 WindowsMedia Auch Microsoft bietet ein proprietäres Streaming-Format an, das AdvancedStreamingFormat (ASF). Der Unterschied zu dem Format von RealSystems liegt hauptsächlich darin, dass alle Mediendateien in eine Datei gepackt werden. Bei RealStreams können alle Elemente einer Multimedia-Seite separat gespeichert werde und über ein SMIL-File koordiniert werden. Das erleichtert die Instandhaltung der Seite, wenn einzelne Dateien aktualisiert werden, muss man nicht jedesmal alles zusammen komprimieren. Bei ASF, das alle Daten inklusive Script, Text, Audio, Video und ActiveX Kontrollelementen enthält, ist dafür die Wiedergabe unter Umständen stabiler als bei dem konkurrierenden Format. Wenn ein ASF-File fertig ist, kann es auf jedem WMPlayer fehlerfrei wiedergegeben werden. Man muss nicht darauf achten, ob vielleicht eine einzelne Mediendatei ein veraltetes Format besitzt, oder dem Player ein Plugin für ein bestimmtes Format fehlt. Dafür kommen aber auch nur Windows-User an den Stream. RealSystems bietet auch Player für Mac, Unix/Linux, FreBSD und Solaris an. Ein Vorteil von ASF ist außerdem, dass die WindowsMedia Serversoftware schon bei allen Versionen von Windows NT Server ab der vierten Version dabei sind. Für Windows-User ist dieses Format sicherlich das unkomplizierteste. Microsoft hat den MediaPlayer in den letzten Versionen des InternetExplorers so gut integriert, dass es für diese Zielgruppe keine einfachere Art des Streamens gibt. Es müssen keine neuen Player oder Plugins installiert werden und alle Medien-Dateien werden automatisch mit dem WMPlayer verknüpft, der in das Browserfenster eingebettet ist. Für Audio-Dateien gibt es von Microsoft das WindowsMedia Audio-Format. Es erlaubt effiziente Kompressionen mit Bitraten bis zu 6,5 Kbps. Es dürfen auch weniger sein, aber um Stimmen verständlich zu machen, sollte man dabei bleiben. Die Einbettung erfolgt wie oben bei den MP3-Files erwähnt. WindowsMedia Überblick: Interaktivität OK; ASF gut geeignet für multimediale Präsentationen Kosten Keine; Allerdings nur für WindowsServer Dokumentation Gut Enkodierung Einfach Einbindung Mittel; verlangt WindowsServer Erfahrung Qualität Gut Performance bei geringer Bandbreite Gut Server Performance Exzellent; Geeignet für professionelle Sendebetriebe Browserkompatibilität Exzellent Ausblick Natürlich gibt es noch zahlreiche andere Audioformate, die es wert wären angesprochen zu werden. Neben all den Formaten, die eigentlich für ganzheitliche Multimedia-Präsentationen bestimmt sind, dabei aber auch gute Audiocodecs bieten (z.B. WindowsMedia, Flash, Quicktime) gibt es noch einige gute „Nur“-Audiocodecs, die in Zukunft wohl noch stärker vertreten sein werden. Der Nachfolger des MP3 Codecs, MP3pro, konnte sich nicht richtig durchsetzen. Durch die Lizenzgebühren, die er den Nutzern abverlangte, erreichte er nicht mehr das große Publikum. Anders der OpenSource Codec OGG Vorbis, ein lizenz- und patentfreies Encoding- und Streamingformat, das sich inzwischen schon in weiten Teilen des Internet, insbesondere in Linux- und OpenSource-Kreisen, durchsetzen konnte. Es überzeugt vor allem durch seine Audio im Internet Seite 15 Klangqualität bei niedrigen Bitraten, etwa erreichen Dateien bei 64 Kbps schon CD Qualität. Ein weiterer Vorteil ist die schnelle Encodierung bei variablen Bitraten. Intelligente Komprimierprinzipien ermöglichen eine wirkungsvolle Beseitigung von Redundanzen. So werden beispielsweise zwei Stereosignale, wenn sie dasselbe wiedergeben, nur einmal gespeichert. Man darf gespannt sein, wie sich dieses Format entwickelt, besonders vor dem Hintergrund der sonstigen rechtlichen Umwälzungen im Musikgeschäft im Internet. Sympathien genießt das OpenSource Projekt jedenfalls mehr, als andere kostenpflichtige Codecs. Der nächste Meilenstein bei den Komprimierverfahren wird Mitte 2004 wohl für Aufsehen sorgen. Der neue MPEG-Standard ist schon so gut wie fertig. Das Besondere dabei ist, dass dabei nicht mehr lossy encodiert wird, sondern lossless, es werden also keine Frequenzen mehr weggelassen, sondern alle Klanginformationen gespeichert. Die Einsparungen können nur aufgrund von Redundanzen gemacht werden, die bei einer Audiodatei allerdings sehr rar sind. Aufwendige Suchverfahren spüren bei MP4 Analogien in der Signalstruktur auf und lassen sehr ähnliche Muster als redundant gelten. Dieser Codec hat sich trotzdem als sehr effektiv herrausgestellt und wird sicher den Weg in Studios und Plattenläden finden. .