Film vs. Video
Transcription
Film vs. Video
Modul: Grundlagen digitaler Medientechnik Film vs. Video Olaf Krafft 1. Einleitung Dieses Script versucht einen knappen Überblick zum Thema Bewegbilder zu vermitteln. Es ist eine Sammlung von Daten und Fakten, die nicht die komplette Entwicklungsgeschichte der Videotechnik wiedergeben kann. 2. Photographie 1826 oder 1827 Nicéphore Niépce stellte in Frankreich eine photographische Aufnahme auf einer asphaltbeschichteten Zinnplatte her. Es zeigt den Ausblick aus einem Fenster des Landsitzes seiner Familie in Saint-Loup de Varennes.1 1835 Das erste Negativ der Welt, das William Henry Fox Talbot im August 1835 mit einem kleinem Holzkasten gelingt, ist eine Aufnahme von einem Gitterfenster in Lacock Abbey (England, Anm. des Verfassers).2 Das Verfahren wird Kalotypie genannt. Das vorrangige Ziel Talbots war, eine naturgetreue unverfälschte Abbildung der Natur herzustellen. 1839 Am 7. Januar 1839 verkündete Francois Arago in einer Vorlesung an der französischen Akademie der Wissenschaften, dass eine gebrauchsfähige Methode zur Reproduktion von fotografischen Bildern gefunden wurde, die Daguerreotypie. Der Erfinder heißt Louis Jacques Mandé Daguerre. Die Qualität der Abbildungen ist deutlich besser als die der Talbotopie, die jedoch den Vorteil der Reproduktion bot. Beide Erfinder hielten ihre Rezepturen zunächst geheim – Daguerre um seine stattliche Leibrente unter Vertrag zu bekommen, Talbot um weiter ungestört forschen und verbessern zu können. Neben der Entwicklung photographischer Papiere war auch eine Entwicklung der Gerätschaften notwendig. Erste Aufnahmen entstanden mit einer simplen Camera Obscura, die nichts weiter als ein Kasten mit einen Loch und einer Mattscheibe war. Damals wie heute sind die Objektive eines der größten Herausforderungen in der Photographie und des Films. Sie sind neben den lichtempfindlichen Materialien der entscheidende Faktor für eine naturgetreue Abbildung. 1844 1844 stellt Talbot mit Pencil of Natur das erste photografische illustrierte Werk der Welt her. Es beinhaltet gleichzeitig erste theoretische Auseinandersetzungen mit der Photographie. Diese Abhandlung wurde auch ein finanzieller Erfolg. Es wurden in zwei Jahren 4328 Abzüge für die Ausgabe von Pencil of Natur hergestellt. Später ergaben sich weitere Aufträge: Porträtbilder von Privatpersonen; Reproduktionen von Kunstwerken; wissenschaftliche Aufnahmen für die Ägyptologie; Titelseiten von Zeitschriften.3 1 Vergl.: Die Aufgehobene Zeit, Hubertus von Amelunxen, Berlin 1988 Seite 22, Die Aufgehobene Zeit, Hubertus von Amelunxen, Berlin 1988 3 Vergl. Seite 52, Die Aufgehobene Zeit, Hubertus von Amelunxen, Berlin 1988 2 Olaf Krafft - Film vs. Video 1 1908 Der französische Millionär Albert Kahn beginnt eine beispiellose Dokumentation des Alltagsleben des 20. Jahrhunderts. “Die Fotografen sollten das visuelle Inventar des Alltagslebens schaffen bevor es durch das 20. Jahrhundert zerstört wird” 4. Kahn schickte Fotografen in die ganze Welt. Sie verwendeten das neue Farbverfahren der Gebrüder Lumiére, das Autochrom-Verfahren. Die Sammlung im heutigen Pariser Museum umfasst 70.000 Dokumente. 1913 Mit der Ur-Leica stellt die Firma Leica Camera AG aus Deutschland die erste Kleinbildkamera her. Es wird der 35mm-Film verwendet,der auch für die ersten Filmaufnahmen benutzt wird. Dieser wird zum Kleinbild-Film Typ 135 weiterentwickelt und Kodak packt ihn 1934 in eine Blechpatrone. In dieser Form besteht er bis heute. Er wird zunächst in so genannten Sucherkameras angewendet. Später findet er Verwendung in Spiegelreflex-Kameras (SLR), die bis in die 2000er Jahre benutzt werden. 1963 Das Polaroid-Format ist eine Besonderheit im Bereich der Fotografie. Es ein eigenes Foto-Format – es handelt sich um Sofort-Bilder. Das Format wird 1963 auf den Markt gebracht. Da die Bilder relativ teuer sind kann es sich nur bedingt etablieren. Es hat aber in Branchen der Mode-Industrie (Outfits erinnern bei Modeschauen) oder Filmproduktion (Set-Fotos für das Continuity) einen wichtigen Stellenwert. Zur Zeit ist unklar, ob das Format weiterbestehen wird. 1975 Kodak entwickelt den ersten Prototyp eines digitalen Fotoapparates. 1981 bietet Sony seine ersten digitalen Versionen zum Kauf an. Anfang der 90er kamen die ersten DSLR (digital single-lens reflex / Digitale Spiegelreflex) Kameras auf den Markt. 2005 Canon veröffentlicht die Canon 5D mit “Full Frame Sensor” und 2008 die 5D Mark II mit HD-Video Aufzeichnung. 3. Kinematographie 1895 – Erste Aufnahme von Bewegbildern Die ersten öffentlichen Aufführungen von Bewegbildern fanden 1895 statt. Es wird ein wenig gestritten, wer die ersten waren. Fest steht, dass die Gebrüder Skladanowski am 11. November 1895 im Berliner Varieté Wintergarten waren und am 28. Dezember 1895 im Untergeschoß des Pariser Grand Café die Gebrüder Lumière erste Vorführungen vor zahlendem Publikum gaben. Schnell war die Geburtsstunde vergessen, denn in Europa und den USA wurden verschiedene Geräte für die Aufnahme und Projektion von Bewegbildern entwickelt und vertrieben. Die ersten Aufnahmen von Bewegbildern waren ganz alltägliche Handlungen. Familien und Straßenszenen oder z.B. die Einfahrt des Zuges (Arrivée d´un train en gare a La Ciotat) von Louis Lumière im Sommer 1895. Die Menschen, die den Film sahen, waren sehr erschrocken, weil sie dachten der Zug würde aus der Leinwand hinausfahren und sie überrollen. Zu der Zeit hatte das Publikum keinerlei Erfahrung mit derart realistischen Aufnahmen, so das sie den Unterschied zwischen Illusion und Wirklichkeit nicht unterscheiden konnten. Mit der hohen Nachfrage nach neuen Bildern entwickelt sich ein neuer Zweig, die Filmproduktion. Erst nach und nach wurden szenische Handlungen aufgenommen. Sie sahen zu Anfang wie abgefilmtes Theater aus. Es gab nur eine feste Kameraeinstellung. Später folgten unterschiedliche Perspektiven und die bewegte Kamera. Große Produktionshallen mit Glasdächern wurden gebaut, um möglichst das 4 BBC Dokumentation:Edwardians in Colour: The Wonderful World of Albert Kahn, 2007 2 Olaf Krafft / Film vs. Video Sonnenlicht auszunutzen. Schönes Wetter war wichtig und unter anderem ein Grund, warum das sonnige Hollywood sich als Produktionsstätte etablierte. Der “tönende” Film Der Ton vollendete die Illusion des Films. 1927 produzierte Warner den JAZZ SINGER, der wegen seiner technischen Mängel den Kritikern des Tonfilms zunächst Recht gab. 1928 folgte THE SINGING FOOL, in dem abermals Al Johnson sang und nun mit deutlich besserer Qualität konserviert wurde. Weiter Filme, häufig waren es Musicalfilme, folgten schnell, denn die Konkurrenz schlief nicht. Charles Chaplin war sehr skeptisch und sah sein Pantomimenspiel in Gefahr und so produzierte er mit MODERN TIMES (1936) und THE GREAT DICTATOR (1940) zwei Filme, die den Ton und besonders die Sprache in stilisierter Form abbildeten und damit seiner Darstellungsart genügend Raum boten. Fritz Lang setzte den Ton in M (1930) sehr gezielt ein. Z.B. wurde nicht die normale Atmo einer Szene aufgenommen, sondern Töne eingespielt, die eine bestimmte Aussage unterstützen. In M sind auch zum ersten Mal vorgezogene O-Töne eingesetzt, „was nicht nur das Tempo des Films beschleunigt, sondern auch die dramaturgisch notwendige Gedankenassoziation zweier aufeinander folgender Szenen verstärkt.“5 Film-Material Neben der Präsentation von Bildern ist auch das Speichern dieser Informationen heute wie damals ein schwieriges Unterfangen. 1889 wurde von George Eastmann der flexible fotografische Film für RollfilmKameras vorgestellt. Nachdem die Technologie der Konservierung der fotografischen Abbildungen entwickelt wurde, folgten andere Schwierigkeiten. Zum Beispiel das der Haltbarkeit. Die ersten Filme waren sehr feuergefährlich, weil sie aus Zelluloid bestanden. Film war nicht nur inhaltlich, sondern auch von der technischen Seite gefährlich. Auf den Jahrmärkten und in den kleinen Vorführräumen um 1900 war der Sicherheitsstandard sehr niedrig. Trotz dieses Nachteils überlebten einige dieser Kopien. D.h. einige überstanden 100 Jahre. Das würden die heutigen Benutzer von Datenträgern auch gerne behaupten. Leider sind die heutigen Datenträger nicht so haltbar. Z.B. wurde von einem Dozenten hier an der Universität ein Magneto-Optisches Speichersystem (MOD) verwendet um Daten zu sicher. Nach zwei Jahren stellte man fest, dass sie nicht mehr lesbar waren. Datensicherung ist und bleibt ein großes Problem. Gerade im Zusammenhang mit Archivierung von alten Dokumenten, wie Büchern, die vom Zerfall bedroht sind, stellt sich die Frage, ob der Träger der Informationen Film (heute aus Kunststoff) oder eine Sicherung auf CD-Rom sinnvoll ist. 4. Sensor-Größen Hier soll nicht genauer auf die Entwicklungsgeschichte der Videokameras eingegangen werden, sondern nur auf einen aktueller Aspekt: den Sensor-Größen. Der Sensor ist das elektronische Bauteil, welches in den digitalen Video- oder Fotokameras das einfallende Licht in elektronische Signale umwandelt. In Abhängigkeit von Objektiv, Blende und Sensor-Größe entsteht eine bestimmte Tiefenschärfe im Bild. Die Möglichkeiten eine geringe Tiefenschärfe wie bei Kinofilmproduktionen zu erzeugen ist schon lange der Wunsch vieler VideofilmerInnen, war mit herkömmlichen Videokameras auf Grund der kleinen Sensoren nicht möglich. 2008 hat Canon die Spiegelreflexkamera 5D Mark II mit einem Voll-Format-Sensor herausgebracht, die einen solchen “Kinolook” erzeugen kann. Die Qualität der Canon 5D ist nicht vergleichbar mit den aktuellen Entwicklungen der Kinofilm-Branche (Arri Alexa und RED Epic 6), wird zum Teil aber als günstige Zweitkamera eingesetzt. 5 6 F. Lang nach Polzer, Wunder der Kinomatographie, Sechte Auflage 2002, Seite 15 Die Arri Alexa kostet ca. 50.000 EUR, eine Canon 5D ca. 2000 EUR Olaf Krafft - Film vs. Video 3 Kamera Sensor (mm) Bildformat Pixel 35mm Film 24 x 18 (Filmbild) RED One Codec 24,4 x 13,7 35mm Format 4520 x 2540 (4K) REDCODE RAW ARRI Alexa 24 x 14 35mm Format 3392 x 2200 (3.5K) ARRI RAW APPLE ProRes Canon 5D 36 x 24 Full Frame 5616 x 3744 (Foto) 1920 x 1080(Video) H.264 Canon 7D 22,3 x 14,9 APS-C 5184 × 3456 (Foto) 1920 x 1080 (Video) H.264 Panasonic AF101 18 x 13,5 4:3 Four Third 1920 x 1080 H.264 5. Geschichte der Videotechnik Die Magnetische Aufzeichnung brachte die Technik der Darstellung von bewegten Bildern, die 1895 ihre Geburtsstunde mit dem Zelluliod-Film hatte, in eine neue Richtung. Besonders Kostenersparnisse und die Möglichkeit der mehrmaligen Benutzung des Materials und die sofortige Kontrolle der Aufnahme ist bis heute der Vorteil der magnetischen Aufzeichnung gegenüber der Belichtung von Filmmaterial. Von der Magnetischen Aufzeichnung bis zu den Festspeichern Jahr Ereignis 1936 Probe-Fernsehausstrahlung der BBC; 1939 fortgeführt; Unterbrechung durch den Zweiten Weltkrieg – 1946 wieder gestartet. 1940 Erste TV-Übertragung in den USA durch WNBT-TV. 1948 - 1956 Technische Konzipierung von Magnet-Bandmaschinen für die Aufzeichnung von Fernsehbildern. 1958 - 1962 Etablierung der Magnet-Bandmaschine als Gerät für die Produktion von Programmen im Fernsehrundfunk in der BRD. 1967 SONY bringt den Portapak (portable Videokamera mit abgesetztem Rekorder) in Japan (1968 in USA) auf den Markt. 4 Olaf Krafft / Film vs. Video Jahr Ereignis 1967 Willy Brandt startet auf der Funkausstellung Berlin symbolisch mit einem Knopfdruck das Farbfernsehen in der BRD. 1973 Einführung des VCR-Standards von Phillips. 1976 JVC stellt den VHS-Recorder vor. 1977 Durchsetzung des Videorecorders (VHS) auf dem Massenmarkt der Unterhaltungselektronik. 1980/82 CD-ROM (Compact Disk Read Only Memory)/Audio-CD von Philips und Sony eingeführt. 1995 Sony stellt den DV-Camcorder VX 1000 vor. Gleichzeitig werden digitale Formate für die professionellen Anwender einführt: DVCAM (Sony), DVCPRO (Panasonic). 2004 Panasonic stellt in Zusammenhang mit HD-Camcordern das Fest-Speicher-System P2 vor Die Entwicklung des HDTV Fernsehens wurde schon seit den 90er Jahre in Europa vorangetrieben. Bis Anfang 2000 werden jedoch nur in Japan und in den USA grossflächig Sendungen in HDTV ausgestrahlt. Wieder einmal brachte die Uneinigkeit der Hersteller sich auf einen gemeinsamen Standard zu einigen und die hohen Investitionskosten auf der Produktions- und auf der Konsumentenseite diese Entwicklung immer wieder ins Stocken. Pro7 hat seinen HD-Kanal wieder abgeschaltet. Nur der Bezahl-Sender PREMIERE und ANIXE TV bieten in Deutschland einen HD Kanal als Vollprogramm an. Die ARD und das ZDF wollen 2011 die Ausstrahlung in HD erproben. Produktionsseitig im Bereich Dokumentarfilm/Dokumentationen und Serien wird alles in HD ausgeführt um bei späterer Umstellung auf HD-Tauglich zu sein. 6. SD-Format 576i Pixel Darstellung Aspect Ratio Framerate 720 x 576 768 x 576 4 : 3 50 fields (Halbbilder) 1024 x 576 16 : 9 Obwohl die Darstellung bei 16 : 9 mit 1024 x 576 angegeben ist, so ist die digitale Pixel-Auflösung nicht höher als bei 4 : 3 : 720 x 576. Das Bild wird bei der Wiedergabe gestreckt/skaliert und die höhere horizontale Auflösung dabei errechnet. SD Aufzeichnung Der Standard bei der Videoaufzeichnung war das 1980 eingeführte Betacam SP Format von Sony. Dieses Format wird seit Mitte der 90er Jahre von digitalen Formaten langsam abgelöst. SD (Standard Definition) Format SpeicherMedien Betacam SP 1/2” Tape Digital Betacam 1/2” Tape XDCAM Professional Disc Olaf Krafft - Film vs. Video 5 Format SpeicherMedien MPEG IMX 1/2” Tape/Professional Disc DV Mini DV Tape DVCPRO Tape/P2 Card Digital Betacam wird zum Standard bei Archivierung und Herstellung von Kopien zum Senden. Wann auch hier das Band abgelöst wird lässt sich schwer sagen. Archivierung der Aufzeichnung auf den Festspeichern/Festplatten ist zu teuer. Server-Systeme mit Festplatten in den Produktionshäusern sind für eine Langzeitarchivierung auch nicht geeignet, da hier die Ausfallsicherheit auch mit hohen Kosten verbunden ist. Hier kommt schon eher das weit verbreitete digitale Daten-Backup Format LTO (Linear Tape Open) zum Einsatz. Es basiert auf 1/2” Bändern – 1,5 TB kosten ca. 70 EUR. 7. HD Aufzeichnung Ab dem Jahr 2003 wird in Europa immer stärker in den HD (High Definition) Bereich investiert, obwohl es zu der Zeit keine TV-Übertragung und kaum Konsumer-Endgeräte gibt. Aber es tut sich einiges auf der Produktionsseite. Camcorder, Studiorecorder und Schnittsysteme sind auf dem Markt und sind in die Produktionsabläufe eingebunden worden. Alle Produktionen, die auch noch Jahre später ausgestrahlt werden sollen (Dokumentationen, Fernsehspiel u.ä.) werden in HD produziert. 2011 bieten die Öffentlich-rechtlichen Sender mit ARD HD, ZDF HD und Arte HD drei HD-Kanäle parallel zu den “normalen” SD-Kanälen als Voll-Programm an. Ausgestrahlt wird in dem Format 720p 50p und der Codec ist H.264 . HD Aufzeichnungsformate (Festspeicher) Neben Bändern werden Festplatten, Blu-ray Disc und Festspeicher als Aufzeichnungsmedien angeboten. Im Gegensatz zu den Blu-ray Discs sind Festspeicher auf Grund der fehlenden beweglichen Teile keinem Verschleiß ausgesetzt. Die Festspeicher sind allerdings noch deutlich teurer. 2005 liefert die Firma Panasonic die ersten Camcorder mit Aufzeichnung im P2 Format. Die Videosignale werden auf modifizierte SD-Karten geschrieben. Dieses Medium beinhaltet keine beweglichen Teile mehr und ist daher sehr unempfindlich. Eine P2 Karte kann ca. 4 Minuten DV/DVCPRO-Material(SD-Format) oder ca. 1 Minuten DVCPRO HD/AVC-Intra100 (HD-Format) pro GB aufnehmen. Aktuell gibt es 64 GB Karten zu einem Preis von ca. 600 EUR. Sony brachte 2007 eine Festspeicher-Karte mit Namen “SxS” auf den Markt. Folgende Festspeicher sind aktuell weit verbreitet: 6 Consumer Professional SD HC P2 (Panasonic) MemoryStick SxS (Sony) Olaf Krafft / Film vs. Video HD-Formate 720p Pixel Aspect Ratio Framerate 1280 x 720 16 : 9 24 fps 25 fps 50 fps 1080i 1920 x 1080 16 : 9 24 fps 25 fps 50i fields “p” steht für progressive Bilder(Vollbilder); “i” steht für interlaced Bilder (Halbbilder) Wenn das digitalisierte HD-Material nur 1440 x 1080 statt 1920 x 1080 (oder bei 720p50 nur 960 x 720 statt 1280 x 720) aufweist, liegt es daran, dass einige Kameraformate bei der Aufzeichnung Daten einsparen und die fehlenden Pixel später in der Darstellung/Bearbeitung hochrechnen – interpolieren. Ähnlich ist es bei der 16 : 9 Darstellung im SD-Format (siehe weiter oben) – die Darstellung hat 1024 x 576 Pixel, das Bild nur 720 x 576 gespeicherte Pixel. 8. Interlaced vs. Progressiv Beim Interlaced-Verfahren werden 50 Halbbilder (60 Bilder bei NTSC) aufgenommen. Jedes Halbbild (Field) besteht nur aus der Hälfte der Zeilen. gerade Zeilen (2. Zeile; 4.Zeile; usw.) und ungeraden Zeilen (1. Zeile; 3. Zeile; usw.). Dadurch kann die Hälfte der Datenrate eingespart werden. & 1. Field (1/50)& & 2. Field (2/50) Field 1 und 2, bei Frame-Darstellung im Software-Player. Bei Verwendung von Halbbildern besteht bei Bewegungen zwischen erstem und zweitem Halbbild die Gefahr der “Treppenbildung”, wenn die beiden Halbbilder im Frame-Modus gleichzeitig dargestellt werden. Das geschieht z.B. im Videoschnitt-Programm Final Cut Pro und bei Software-Playern. Olaf Krafft - Film vs. Video 7 9. DVD vs. Blu-Ray Das 1995 eingeführte DVD-Format unterstützt nur das SD Format (Standard Definition). Für das HDFormat mußte eine Disk gefunden werden, die insgesamt mehr Daten aufnehmen kann (statt 4,5/9 GB jetzt 25/50GB) und eine wesentliche höhere Datenrate ermöglicht (statt max 9 Mbit/sec bei SD, bis 27 Mbit/sec bei HD). Mittlerweile haben sich Blu-Ray-Player weit verbreitet und mit den vorhandenen DVD-Playern gleichgezogen. Die Zukunft wird zeigen, wie lange diese Medien noch im Einsatz (Verleih/Verkauf) sind und wann sie von Web-Downloads (z.B Apple iTunes Store) abgelöst werden. 10.Digitale Schnittprogramme Die Firma AVID stellt 1995 als erste Firma ein professionelles digitales Schnittsystem vor. Es ist ein Komplett-System und besteht aus Soft- und Hardware. Die Preise liegen bei 100.000 bis 200.000 DMark. Im Jahr 2000 bringt Apple seine Videoschnitt-Software Final Cut Pro auf den Markt. Es wird nur für Apple-Rechner angeboten. Sie kostet 1.000 D-Markt und zielt auf den breiten Markt der kleine Produktionsfirmen, Hochschulen und Quereinsteiger der Film- und Video-Branche. Final Cut Pro kommt aber auch bei Kino-Film-Produktionen zum Einsatz. Im Sommer 2011 soll ein komplett neues Final Cut Pro angeboten werden. Adobe Premiere (verfügbar für Apple- und Windows-Rechnern) ist schon vor Final Cut Pro auf dem Markt, kann aber auf Grund von Instabilität und Aktualität (Unterstützung aktueller Formate) das neu programmierte Final Cut Pro nicht in seinem Vormarsch au'alten. Avid bietet den Media Composer seit 2006 auch als Software-Only-Version an. Immer noch ein wenig teurer (2.200 EUR) als die Konkurrenz (ca. 1.000 EUR) aber schon deutlich günstiger um marktfähig zu bleiben. Anforderungen an Digitale Schnitt-Systeme • • • • • Professionelle Features, z.B. Trimmen; Farbkorrektur; Anpassung der Benutzer-Oberfläche Broadcast-/Film-Taugliche Video- und Audio-Formate Unterstützung von Capture- und Playback-Karten für professionelle Monitore Import aller Aufnahmeformate Export für Archive-/Sendeformate, Web, DVD und Band 11.Video-Player Für die Darstellung von Videosequenzen auf einem Computer (Mac oder Windows) wird ein Player benötigt. Weit verbreitet sind: • • • • • Flash Player QuickTime Player Windows Media Player Real Player VLC Player bzw. die entsprechenden Plug-Ins für die Web-Brwoser. Die Player können bestimmte Dateiformate lesen, das bedeutet: decodieren und damit auf dem Rechner abspielen. In der Regel benötigt man mehr als einen Player, um alle Filme aus dem Internet abspielen zu können. Die oben genannten Player werden alle kostenlos zum Download im Internet angeboten. Die Hersteller bieten auch Erweiterte Versionen (Pro Versionen) an, die jedoch kostenpflichtig sind. Zum Beispiel kostet der QuickTime Player Pro 30 EUR und bietet Exportmöglichkeiten und einfache Schnittfunktionen. 8 Olaf Krafft / Film vs. Video Die Video-Dateien werden bei der Konvertierung (Encoding) für das Internet, für die CD-ROM oder DVD mit einem bestimmten so genannten Codec komprimiert. Diese Codecs müssen auch im Player enthalten sein um die Dateien zu decodieren (Decoding) und damit abspielen zu können. Die Player enthalten standardmäßig eine Anzahl von Codecs. Es kann jedoch vorkommen, dass dem Player ein Codec fehlt und dieser nachträglich installiert werden muss. Häufig ist es ausreichend, sich die aktuelle Version des Player-Programms herunter zuladen. VLC Die Besonderheit des VLC-Players liegt in seiner vielfältigen Anwendungsmöglichkeit. Auf dem Apple Betriebssystem MACOSX zum Beispiel kann er zum Abspielen von DVDs, MPEG-Videostreams, DIVX und AVCHD eingesetzt werden. Der Player ist auch für die Betriebssysteme Windows und Linux verfügbar. 12.Datei-Endungen Die häufigsten Datei-Endungen sind: Flash Quicktime Windows Media Real Media MPEG-4 .flv .mov .wmv .rm .mp4 .swf .m4v .avi .ram .f4v Dateiendungen lassen keinen Rückschluss auf den Codec zu. So kann eine .mov-Datei den MPEG-4 Codec beinhalten eine .mp4-Datei den H.264-Codec – oder auch den Codec MPEG-4 benutzen. Datei-Endungen sollen dem Betriebssystem lediglich sagen, mit welchem Programm die Datei abgespielt werden soll. Dateien mit der Endung .mpg sind mit dem MPEG-1 oder MPEG-2 Codec komprimiert. Sie bilden oft den kleinsten gemeinsamen Nenner, wenn Videos auch auf alten Rechner abspielbar sein sollen. Die MPEG-1-Filme können z.B. vom Windows Media Player und vom QuickTime Player abgespielt werden. Der Windows Media Player ist der weltweit am häufigsten auf PCs installierte Software-Player – kein Wunder, denn er wird zusammen mit dem Windows Betriebssystem installiert. Diese Tatsache liefert allerdings noch keine Informationen darüber, welches Datei-Format im Internet bzw. auf den Rechnern überwiegt. Im Jahr 2007 ist das Angebot von Filmen im Flash Format weit verbreitet, da Plattformen wie www.youtube.com oder www.myvideo.de ihre Filme in diesem Format anbieten. Und sie können mit Hilfe des bei den meisten Browsern implementieren Flash-PlugIns problemlos abgespielt werden. Die Qualität des zunächst verwendeten Codecs “Sorenson Spark” ist bald nicht mehr zeitgemäß. Codecs wie ON2 VP6 und besonders der H.264 bieten deutlich bessere Qualität. H.264 wird allerdings von damals vorwiegend installierten Flash-Versionen nicht unterstützt. Deshalb wird zunächst ON2 VP6 von youtube eingesetzt. Aber schon 2009 kann mit der neusten Flash-Player Version auch H.264 abgespielt werden. Vorraussetzung war allerdings, dass die vielen Youtube-User ein Update ihres Browsers vorgenommen haben. • 2009 setzt Youtube neben Flash auch den Container MPEG-4 (Codec: H.264) für die HD-Videos ein. • 2010 setzt eine Diskussion über Flash ein: Apple weigert sich, iPhone und iPad flash-tauglich zu machen. • Google kauft das Open Source Codec ON2 VP8 und nutz ihn im Matroska-Container und nennt ihn WebM. • HTML-5 macht den Flash-Player überflüssig. Olaf Krafft - Film vs. Video 9 • 2011 sind bei Youtube auch die Filme mit der Datei-Endung .flv mit dem Codec H.264 (AVC) codiert. 13.Codecs Hier eine Auflistung der Medien-Player und die in der Standard-Version unterstützten Codecs. Flash Video • • • Sorenson Spark On2 VP6 H.264 mit AAC Audio (ab Flash-Player Version 9) QuickTime & Video-Codecs • H.264 • DV-PAL • Foto-JPEG • H.261/263 • Motion JPEG A/B • Sorenson • Cinepak • Animation • TIFF • u.a. & Audio-Codecs • AAC • MP3 • QDesign Music Pro • IMA 4:1 • Alaw 2:1 • Qualcomm Purevoice • Llaw 2:1 • u.a. Aktuelle Aufstellung unter: http://www.apple.com/de/quicktime. Erweiterung auf: • DIVX • Flash • Windows Media • u.a. mit Hilfe des Quicktime-Plugin PERIAN (www.perian.org). 10 Olaf Krafft / Film vs. Video Real Media • • Real Media Version 9 Real Media Version 10 Windows Media • • • Windows Media Video 9 Windows Media VC-1 MPEG-4 (ab Windows 7) 14.Aspect Ratio (Seitenverhältnis) Alle gängigen Videokameras zeichnen im Seitenverhältnis 4 : 3 oder 16 : 9 auf. Bei SD-Videokameras ist beides möglich. Das HD-Videoformat ist auf 16 : 9 festgelegt. Das gängige Kinoformat 2.35 : 1 (21:9) wird in Filmkameras oder in der Postproduktion erzeugt. Bei der Betrachtung auf 16 : 9 Fernsehern werden die Seitenverhältnisse 2.35:1 oder 4:3 mit schwarzen Balken angezeigt. Academy Ratio 4:3 1.33 : 1 HDTV 16: 9 1.78 : 1 CinemaScope 21 : 9 2.35 : 1 15.Container-Formate Dieses ist der eigentliche Schlüssel für die Video-Formate. Ein Container-Format ist ein von einer Gruppe von Experten festgelegtes Kochrezept für ein Videoformat. Olaf Krafft - Film vs. Video 11 Videodaten müssen in einen Container abgelegt werden, um eine abspielbare Datei zu sein. Mit dem Container ist festgelegt welche Elemente/Spuren und Codecs zugelassen sind und so für bestimmte Player kompatibel sind. Ein Beispiel: In einem QuickTime Movie können eine Vielzahl von Tracks angelegt werden (Video, Audio, Text, Metadaten u.a.) und die jeweiligen Tracks können mit bestimmten – also nicht allen – Codecs komprimiert sein. Der Quicktime-Player kann nur bestimmte Codecs abspielen – unzulässig sind z.B. ein Video-Track im Real-Codec. Der DivX-Codec oder On2 VC6 (Flash) ist nur abspielbar, wenn er zusätzlich als PlugIn (www.perian.org) installiert ist. Weitere Container-Formate Die MPEG-Formate sind von der Motion Picture Expert Group festgelegte Parameter für die entsprechenden Codierungsalgorithmen. MP3 Dieser Komprimierungsalgorithmus wurde am deutschen Fraunhofer Institut entwickelt. Die offizielle Bezeichnung ist MPEG-1 Layer 3. MP3 hat die Verbreitung von Audio-, vornehmlich Musikdateien über das Internet ermöglicht. Die Dateien sind um den Faktor 10 kleiner und trotzdem in ihrer Qualität kaum schlechter. Die nun ca. 3 bis 5 MB großen Musikstücke können auch bei einer 56k-Internetanbindung in einer annehmbaren Zeit herunter geladen werden. Die Musikindustrie sieht durch die entstandenen Tauschbörsen das Urheberrecht verletzt und darin auch den staken Rückgang beim Verkauf von Audio-CDs. MPEG-1 Schon 1991 wurde mit der Einführung der LaserDisc das Format MPEG-1 verwendet. Die LaserDisc als Kaufvideo ist fast verschwunden, das MPEG-1-Format hat jedoch eine Wiedergeburt durch die VideoCD gefunden. Es bot die Lösung für die Sicherung eines kompletten Spielfilms auf einer oder zwei CDROMs. Diese Anwendung wird aktuell in Tauschbörsen im Internet angewendet. MPEG-2 MPEG-2 wird als Codec für Video DVDs benutzt. MPEG-4 WebM 12 Olaf Krafft / Film vs. Video Google kauft das Open Source Codec ON2 VP8 und nutzt ihn im Matroska Container und nennt ihn WebM; 16.Komprimierung von Videosequenzen Problemstellung: Welches Format? In welches Format soll der fertige Videofilm exportiert werden? Dazu eine Grafik, die nur einige Möglichkeiten darstellt. Abspielmöglichkeit DVD Computer Video-Codec MPEG-2 ------------Audio-Codec AC3;WAV;AIFF QuickTime Player QuickTime .mov MPEG-4 .mp4 Video-Codec H.264 ------------Audio-Codec AAC MobileDevice Mac VLC Flash.flv ON2 VP6 .flv ---------Audio-Codec MP3 Windows WebBrowser mit FlashPlugin Window Media MPEG-4 (ab Windows 7) .mp4 Windows Media .wmv Video-Codec Windows Media Video ------------Audio-Codec Windows Media Audio Video-Codec H.264 ------------Audio-Codec AAC Wenn nicht genau geklärt werden kann, welche Abspielmöglichkeiten vorhanden sind, so bietet es sich an, mehrere Varianten zu erstellen – z.B.: Container Video-Codec Audio-Codec Datei-Endung MPEG-4 H.264 AAC .mp4 Quicktime H.264 AAC .mov Flash 2011 H.264 AAC .mp4/.f4v Olaf Krafft - Film vs. Video 13 Container Flash bis Version 8 Video-Codec Audio-Codec Datei-Endung On2 VP6 MPEG-Audio .flv Dabei können pro Container noch kleine, mittlere und große Versionen erstellt werden. Sie unterscheiden sich in folgenden Parametern: • • • Datenrate (Beispiele: 500 Mbit/sec; 1000 Mbit/sec; 1500 Mbit/sec) Pixel-Auflösung (Beispiele: AspectRatio 16:9: 320x180; 640x 360) Dateigröße (bis 10MB per Mail; größere Dateien per FTP,DropBox u.a.) Vorsicht! Ältere Rechner können H.264-codierte Dateien mit hohen Datenraten nicht ruckelfrei abspielen! 14 Olaf Krafft / Film vs. Video