Das photographische Bild
Transcription
Das photographische Bild
Das photographische Bild Photometrische Grundlagen Latentes Bild und photographisches Entwickeln Charakteristische Kurve und spektrale Empfindlichkeit Geometrische Auflösung der Emulsion 1 Photometrische Grundlagen • I.....Intensität (Lichtstärke [Candela] = [cd]) • I = Lichtstrom F / Raumwinkel w des Lichtstroms; F....Lichtstrom [lumen] = [lm • F = Lichtleistung, die von einer Normallampe in den Raumwinkel w = 1 abgestrahlt wird Optischer Empfänger Undurchlässigkeit (Opazität) O= Transparenz IO IT T= Dichte (Schwärzung) (D = 1, d.h. nur 1/10 des Lichtes wird durchgelassen) Beleuchtungsstärke Belichtung (t…Zeit) IO IT 1 IT = O IO D = logO = log E= Lichtstrom Φ Fläche F lm 2 IO IT = lx m Bel = E * t lx sec 2 1 Kontrast C Photo Kontrastverhältnis Differentieller Kontrast Logarithmischer Kontrast CR = CD = Emax Emin (Emax-Emin) Emin Emax CL = log E min 3 Grauwertprofil E Emax Modulation M= M= Emax - Emin Emax + Emin CR - 1 CR + 1 Emin x (Ort) CR und M werden meistens in der Luftbildphotographie verwendet. Kontrastreduktion bedingt durch die Atmosphäre: Faktor 2 -3 bei 9 km hg (Flughöhe über Grund). M: Beschreibt das Vermögen von Filmen, Objektiven etc. ein Objekt mit einer bestimmten Qualität wiederzugeben 4 2 Latentes Bild und photographisches Entwickeln Analoges vs. Digitales Bild: • Digitales Bild muss nicht entwickelt werden • Elektronisch speicherbar • Anschliessend digitale Bildverarbeitung möglich • Möglichkeit des Belichtens auf Fotopapier oder drucken mit einem Tintenstrahl-, Laserdrucker …. 5 Schwarzweiss – Photographie Schicht, Emulsion (5-25 µm) (Silberhalogenid) Schichtträger, Basis Die Emulsion besteht aus Gelatinemasse mit eingebetteten SilberhalogenidKristallen (Bromsilber). Diese "Körner" sind photosensitiv. Treffen Photonen (Lichtstrahlen) auf eine Anzahl Körner, dann wird dort das Silberhalogenid zerlegt in Silber und Halogen (Brom). Die Schicht ist "belichtet". Silber (schwarz) Lichtquanten Silberhalogenid Halogen (Brom) "Belichtung" latentes Bild 6 3 Licht Emulsion Basis nach der Belichtung -----> "Latentes Bild” nach der Entwicklung nach Fixieren, Wässern -----> „Negativ“ Fog (Schleier) 7 • Entwickler verstärkt Reduktionsprozess • Fixierbad löst unreduzierte Silberhalogenidkörner aus der Schicht • Härtet damit die Emulsion und stoppt den Entwicklungsprozess • Restbestände durch Wasser herausgewaschen Ergebnis ist ein "Negativ", welches die Helligkeitsunterschiede des Objekts als Dichteunterschiede der photographischen Schicht zeigt. Das schwarze Silber repräsentiert die hellen Objektstellen. Bereiche, welche kein Licht erhalten haben, werden hell nach der Auswaschung der unreduzierten Körner (weiss im Falle von Papier als Basis, durchsichtig bei Film oder Glas). 8 4 Schwarzweissphotographie vs. Farbphotographie: • Bei Schwarzweissphotos sind Farbkontraste gegenüber der Farbphotographie kaum wahrnehmbar • Bei Schwarzweissbildern „sieht“ man anders • Motive, die in Farbe gut aussehen, können in S/W eher langweilig wirken, umgekehrt können andere Motive durchaus in S/W besser wirken • In der Photogrammetrie kommt es aber weniger auf die Wirkung eines Bildes an, sondern mehr auf den Informationsgehalt zur Erfüllung einer speziellen Messaufgabe Quelle: www.paparazzi-smile.de 9 Schwarzweissphotographie vs. Farbphotographie: Unterschiede in der Empfindlichkeit der Farben bei S/W-Bildern tritt vor allem in den Grundfarben auf Rot wird auf Schwarzweissfilmen etwas zu hell wiedergegeben. Grün wird noch stärker als rot zu hell dargestellt, kräftig grüne Farbe wird annähernd weiß. Der Farbunterschied grüner Bäume zu blauem Himmel kann mit einem Rotfilter extrem verstärkt werden. Blau wirkt dunkler als wir es eigentlich wahrnehmen. Mit Rotfilter wird es nahezu schwarz, was beim Vorhandensein von Wolken dazu führt, dass fast unwirkliche, sehr kontrastreiche Bilder entstehen. 10 5 Farbphotographie Weisses Licht Blau Grün Cyan Rot Primärfarben Gelb Sekundärfarben Magenta Die Emulsion der Farbphotographie besteht aus drei Schichten, wobei jeder Schicht ein Farbstoff zugemischt ist. Dieser wirkt jeweils als Filter. 11 Filtereigenschaften von Farben Weiss Weiss Weiss Cyan Gelb Magenta Grün Blau subtrahiert rot Rot Grün subtrahiert blau Blau Rot subtrahiert grün 12 6 Aufbau eines Farbnegativ - Films Drei Schichten; die Farbstoffe sind in Schichten eingelagert Blau Grün Rot Weiss Cyan Magenta Gelb Objektfarben Zurückgehalten Eingelagert Blauempfindlich Gelb Gelbfilter Grünempfindlich Magenta Rotempfindlich Cyan Nach Belichtung und Entwicklung gelber Farbstoff magenta Farbstoff cyan Farbstoff Nach Fixierung Gelb Magenta Cyan Schwarz Rot Grün Blau Farben im Negativ Die Farbschichten für Diafilme sind anders aufgebaut. Daneben gibt es noch Filme mit speziellem Aufbau, so zum Beispiel Infrarotfilme. 13 Charakteristische Kurve und spektrale Empfindlichkeit Dichte : Ausmass der Schwärzung eines entwickelten Photos D = log IO IT Charakteristische Kurve : D = f (Belichtung Et) (Schwärzungskurve) Die charakteristische Kurve definiert somit die Beziehung zwischen Dichte D einer Emulsion und der Belichtung (Et). Der Logarithmus von (Et) wird benutzt, da das menschliche Auge Lichtunterschiede ebenfalls über eine logarithmische Funktion registriert. Diese Kurve beschreibt ein Charakteristikum der photographischen Emulsion. 14 7 Abb. 2. 1: Charakteristische Kurve einer photographischen Emulsion γ Der geradlinige Teil dieser Kurve ist von besonderer Bedeutung für die Erzielung "guter" Photos. Bei einer "richtig" belichteten Aufnahme fallen alle Dichtewerte auf den geradlinigen Teil. Die Steigung dieser Geraden nennt man "Gradation γ" . γ = tan α = ∆D ∆ log (Et ) γ … Gradation 15 Abb. 2. 2: Kurven unterschiedlicher Gradation "Hart" bedeutet: Scharfe Unterschiede zwischen hell und dunkel (starker Kontrast). 16 8 Der Verlauf der Kurve ist auch von der Entwicklung und nicht nur von der Art der Emulsion abhängig (Entwicklungsdauer, Zusammensetzung,Temperatur und Typ des Entwicklers). Abb. 2. 3: Schwärzungskurven bei verschiedener Entwicklung Die Schwärzungskurve gibt auch Hinweise bezüglich der Empfindlichkeit einer Emulsion. 17 Die DIN- und ASA-Normen sind so festgelegt, dass sie eine reziproke Funktion der Belichtung (Et) darstellen, welche bei einer festgelegten Entwicklung einen bestimmten Dichtewert erzeugt, und zwar um ∆D = 0.1 über dem Schleier D A D ∆D = 0.10 A Schleier Normen: 1 DIN − Zahl = 10log Et A Log (Et)A Log Et 1 ASA− Zahl = 0,8 log Et A 18 9 Spektrale Empfindlichkeit Die spektrale Empfindlichkeit einer Emulsion zeigt an, in welchem Ausmass sie gegenüber Licht verschiedener Wellenlängen des Spektrums empfindlich ist. • Photographische S/W-Emulsionen sind grundsätzlich blauempfindlich. Die Beimischung von Farben macht sie auch gegenüber anderen Wellenlängen empfindlich. • Als "orthochromatisch" bezeichnet man Emulsionen, die blau-, grün- und gelbempfindlich sind. • Sind sie zusätzlich noch rotempfindlich, so bezeichnet man diese als "panchromatisch ". 19 Aus: Philip Swain und Shirley Davis, Remote Sensing: The Quantitative Approach; MacGraw-Hill, 1978 20 10 Abb.2.4: Spektrale Empfindlichkeitskurven von menschlichem Auge, unsensibilisiertem, orthochromatischem und panchromatischem Schwarzweiss-Film Deutlich wird die erhöhte Blau- und die verringerte Gelbempfindlichkeit des Films, üblichen die im panchromatischen Gegensatz zur Augenkurve steht. Das erklärt auch, weshalb Blau auf dem Film (zu) hell, Gelb dagegen wiedergegeben widersprüchlichen (zu) wird. und dunkel Solche oft unerwünschten Grautonwerte lassen sich mit Hilfe von Farbfiltern ganz oder teilweise korrigieren. 21 Aus:Albertz/Kreiling, Photogrammetrisches Taschenbuch 3. Auflage, Herbert Wichmann Verlag Karlsruhe, 1980 22 11 Geschwindigkeit Geschwindigkeit einer Emulsion: Schnell heisst hochempfindlich; erfordert wenig Licht, um eine bestimmte Dichte zu erreichen. Wenig Licht bedeutet aber kurze Belichtungszeit. Anwendung bei schnell bewegten Objekten oder schlechten Lichtverhältnissen. Empfindlichkeit Die Empfindlichkeit hängt ab von Grösse und Anzahl der Bromsilberkristalle. Grosse Bromsilberkristalle erhöhen die Empfindlichkeit, aber reduzieren die Auflösung und umgekehrt. 23 Geometrische Auflösung Ein weiterer wichtiger Parameter der Emulsion ist die geometrische Auflösung. Zwischen der Empfindlichkeit einer Emulsion und ihrer geometrischen Auflösung besteht eine Wechselwirkung: Empfindlichkeit Grosses Korn Hoch Kleines Korn Gering Geometrische Auflösung Gering Hoch Heute sind Emulsionen sehr hoher Auflösung verfügbar (Kodak: 700 lp/mm). Die Gesamtauflösung eines photographischen Systems wird durch Objektiv und Emulsion bestimmt. Dabei ist das Objektiv der eigentlich einschränkende Faktor (Auflösungsvermögen moderner Luftbildobjektive: ca. 100 lp/mm, bildortabhängig). 24 12 Rayleigh-Streuung Das sichtbare Sonnenlicht besteht aus Strahlung unterschiedlicher Wellenlängen, die ein Farbspektrum von Violett und Blau über Grün und Gelb zu Rot ergeben. Das weiße Licht entsteht durch die Mischung dieser Farben. Der englische Physiker Lord Rayleigh konnte 1871 nachweisen, daß das Sonnenlicht an den Luftmolekülen in alle Richtungen gestreut wird. Weiterhin zeigte er, daß die kurzwelligen Lichtstrahlen (also Violett und Blau mit Wellenlängen L=0,38 bis 0,45 µm) an diesen kleinen Partikeln stärker gestreut werden als das langwellige Licht (Orange und Rot, L=0,65 bis 0,75 µm). Die Streuung des Lichtes nimmt also mit abnehmender Wellenlänge zu. Das Himmelsblau ergibt sich als gewichtetes Mittel aller gestreuten Strahlung des sichtbaren Bereiches, in dem der kurzwellige Blau-Anteil überwiegt. Umgekehrt beruht auch die Rotfärbung der tiefstehenden Sonne auf diesem Effekt, da aufgrund des langen Weges durch die Atmosphäre die Blau- und Grünanteile aus der direkten Sonnenstrahlung herausgestreut werden und Orange und Rot überwiegen. Die blaugraue Färbung entfernter Landschaftsteile beruht auf genau diesem Streu-Effekt. 25 Praktische Bedeutung a) Terrestrische Photogrammetrie: • Es bestehen große Lichtunterschiede • Bei nichtbewegten Objekten sind lange Belichtungszeiten möglich • Daher wird gewöhnlich eine feinere Emulsionen benutzt (Kontrast CR = 30 : 1). b) Luftbildphotographie: • Wegen der Flugzeugbewegung werden kurze Belichtungszeiten benutzt, d.h. man braucht dann zur Erzielung guter Bilder eine relativ "schnelle" Emulsion • Forderung nach hoher Auflösung steht Forderung nach grosser Empfindlichkeit gegenüber. Es ist ein Kompromiss nötig (FMC -> Forward Motion Compensation). Die Lichtunterschiede (abhängig von hg und Zustand der Atmosphäre), die durch diffuse Reflexion und Streuung des Sonnenlichts an Staub- und Wasserteilchen verursacht werden, sind kleiner. Es werden Filme hoher Gradation (γ = 1-2), also harte Emulsionen, benutzt. Zudem ist ein sorgfältiges Aufeinanderabstimmen von Emulsion, Entwickler und Entwicklungszeit nötig. Der hohe Blaulichtanteil muss mit einem Gelb- oder Orangefilter abgeschwächt werden. 26 13 2.3 Geometrische Auflösung der Emulsion Ein wichtiger Parameter ist das Auflösungsvermögen und im Zusammenhang damit die Modulationsübertragungsfunktion. - Ziel des Auflösungsvermögens: Erhalten eines quantitativen Masses zur Beschreibung der Fähigkeit eines optischen Systems, benachbarte Punkte oder Linien noch erkennbar übertragen/wiedergeben zu können. - Testfiguren: Testfiguren bestehen aus Strichrastergruppen mit wechselnden Abständen (z. B. Siemensstern). 27 - Definition des AV: Das Auflösungsvermögen definiert sich nach der Anzahl noch erkennbarer Hell/Dunkel-Perioden pro Längeneinheit, z.B. 50 lp/mm für ein Objektiv. (Linienpaare pro Millimeter -> lp/mm) lp{ 28 14 29 30 15 - Problem: Eine einzelne Zahl für das AV ist nicht aussagekräftig genug. So beeinflusst zum Beispiel auch der Kontrast das Auflösungsvermögen. - Lösung: Modulationsübertragungsfunktion (MTF) Allgemein: Optische Übertragungsfunktion (OTF). Man erhält sie aus einer Ableitung aus der Nachrichtentechnik. 31 f(x) = a + b cos (2 π ω x + ε) "Input" opt. System: Objekt f(x) "Output" opt. System: Abbildung g(x) Bild Der "Output" ist ebenfalls sinusförmig und hat die gleiche Frequenz, aber eine andere Amplitude als der "Input" (--> Amplitudenmodulation). g(x) = a + M(ω) b cos (2 π ω x + ε + Φ(ω)) 32 16 Definition Input Modulation fmax - fmin Min = Definition Output Modulation Mout = MTF = Das Verhältnis fmax + fmin = gmax - gmin gmax + gmin b a = M(ω) b a Output Modulation = M(ω) Input Modulation hängt ab von der Frequenz ω (= Wechsel zwischen schwarz und weiss). (MTF -> Modulus der Fourier Transformation der Verwaschungsfunktion) Normalisierung von M(ω): Modulus M(ω) = Phase 2 M(0) = 1 2 C (ω) + S (ω) φ(ω) = arctan -S(ω) C(ω) Damit C(ω) = Μ(ω) cos φ(ω) S(ω) = -M(ω) sin φ(ω) 33 MTF of Zeiss RMK AR 15/23 1:8000 aerial photographs 34 17 Rayleigh-Kriterium [nach J. W. Rayleigh] Das Rayleigh-Kriterium definiert, wann zwei Lichtquellen als aufgelöst betrachtet werden können. Beugungsphänomene begrenzen das Auflösungsvermögen jedes optischen Apparates. Nach Lord Rayleigh gelten zwei Lichtpunkte als aufgelöst, wenn der Abstand der beiden Hauptmaxima nicht geringer ist als der vom Maximum einer Beugungsfigur zu ihrem ersten Minimum. 35 Photogramphische und Nichtphotographische Sensoren Bildaufnahmeröhren / Vidicons (veraltet) CCD-Sensoren CMOS-Sensoren 36 18 Bildaufnahmeröhren / Vidicons Aufzeichnung und Wiedergabe von Fernsehbildern: Beim Fernsehen werden Bilder direkt in elektrische Signale umgewandelt. • An Stelle der photographischen Schicht wird Sensor angebracht ein optoelektronischer • Schnelle Übertragung der Bilder über grössere Distanzen möglich • Bilder werden zurückgewandelt und am Bildschirm dargestellt • Einsatz dieser Technologie in der Vermessung nur für Betrachtungszwecke • Erhebliche Nachteile des Verfahrens wegen instabiler Bildgeometrie 37 Abbildung 3.1: Funktionsprinzip der Vidicon-Bildröhre 38 19 3.2 CCD - Sensoren 3.2.1 Aufbau 3.2.2 Funktionsweise 3.2.3 Architektur 3.2.4 Zeilensensoren 3.2.5 Flächensensoren 3.2.6 Farbsensoren 39 CCD - Sensoren CCD: Charge-Coupled Device CCDs in 60er Jahren von Forschern der Bell Laboratorien (USA) entwickelt • Ursprünglich neuer Typ von Speicherschaltkreisen für Computer • Fähigkeit des neuen Chips, Ladungen zu transportieren und mit Licht zu interagieren Andere Anwendungsgebiete: • Signalverarbeitung • Bilderfassung CCD ist heutzutage das gebräuchlichste Mittel, als AllzweckBilderfassungsbauteil die gewöhnliche Fotografie durch die digitale zu ersetzen. 40 20 CCD - Sensoren 41 CCD - Sensoren • Heute verdrängen CCD-Sensoren vollständig die Bildröhren und analoge Kameras • CCD-Sensoren sind wesentlich kleiner, leichter, robuster • Sie haben einen grösseren dynamischen Bereich und sind geometrisch stabiler als Bildröhren • Der CCD-Sensor liefert beim Auslesen der Information nicht ein komplettes Bild simultan sondern Punkt für Punkt und zeilenweise in serieller elektrischer Form • Das elektrische Signal wird in der Signalaufbereitungsstufe in ein genormtes Format umgesetzt und anschliessend zum Ausgang weitergeleitet 42 21 Aufbau von CCDs Die meisten heutigen Sensoren wie auch CCD sind auf MOS (Metal Oxide Semi-conductor) Technologie aufgebaut. • Solche Sensoren sind verfügbar als Zeilen- und Flächensensoren • Klassifizieren Belichtungszeit Effekte) nach {ohne der Auslesemethode (Auswirkung auf Verschluss} , sensitive Fläche und weitere Unterscheidung zwischen: • CCD (Charge Coupled Device) • CID (Charge Injection Device) • Photodioden Bei CIDs und Photodioden Bildelemente einzeln adressier- und auslesbar. 43 MOS (Metal Oxide Semi-conductor) Quelle: Universität Berlin 44 22 Aufbau CCD Element • Der CCD in seiner einfachsten Form ist eine lineare Anordnung (linear array) von dichtbenachtbarten MOS-Dioden (Fotodioden). • Die gängigsten CCDs bestehen aber aus einer Matrix von Fotodioden. • Fotodioden wandeln Lichtenergie in Form von Photonen in elektrische Ladungen um. • Die Elektronen, die durch Interaktion von Licht mit Siliziumatomen entstehen, werden in einem Ladungspool gesammelt. • Jedes der so erzeugten Ladungspakete werden mit Hilfe von Schieberegistern über den Chip zum Ausgang und zu einem Verstärker transportiert. 45 Aufbau CCD Element Quelle: Universität Berlin 46 23 Funktionsweise von CCD - Sensoren • Licht (Ultraviolettes, sichtbares oder infrarotes) dringt durch eine dünne transparente Elektrode und einer ebenfalls lichtdurchlässige Oxidschicht und trifft auf ein Halbleitermaterial (Siliziumatom). CCD Entstehung eines freien Elektrons. • Durch zeitweise Abwesenheit des Elektrons im Kristall entsteht ein elektrisch positiv geladenes Loch. • Freie Elektronen werden in einem Ladungspool gesammelt. Diese Ladungspools können nur eine bestimmte maximale Anzahl von Ladungen speichern Festlegung der Dynamik einer Kamera • Die einzelnen Fotodioden sind voneinander isoliert, können sich aber beeinflussen „Blooming“ • Freie Elektronenpakete werden zur Elektrode gebracht. • Ist der Ladungspool mit Elektronen aus der Verarmungszone gefüllt, werden die Ladungspakete durch eine Kombination von parallelen und seriellen Transfers so zu einem einzigen Ausgangsknoten an der Ecke des Chips geführt. 47 Architektur von CCD - Sensoren • Zeilensensoren bestehen aus einer einzigen Reihe nebeneinander liegender CCD-Zellen. Für Farbaufnahmen müssen die RGB-Bildanteile in drei verschiedenen Belichtungsphasen erfasst werden. Zeilensensoren bieten eine sehr hohe Auflösung. • Trilineare Zeilensensoren bestehen aus drei parallelen Sensorzeilen, die auf ihrer Oberseite jeweils einen Farbfilter für Rot, Grün und Blau tragen. Diese Sensoren haben ein hohes Auflösungsvermögen und Farbwiedergabequalität. • TDI (Time-Delayed-Integration) Zeilensensoren sind eine Art „Zwitter“ von Zeilen- und Flächensensoren. Sie besitzen mehrere nebeneinander angeordnete Zeilen. Die Bildinformationen werden dabei synchron mit der Fortbewegung des zu scannenden Objekts von einer Zeile zur nächsten geschoben und dabei analog summiert. Neben der Verminderung des Rauschens ist vor allem die höhere Empfindlichkeit zu nennen als Vorteil gegenüber herkömmliche Zeilensensoren. 48 24 Architektur von CCD - Sensoren Flächensensor Linearzeilensensor Digitales Bild Digitales Bild 49 Architektur von CCD - Sensoren • Flächensensoren (Matrizen) erfassen alle Bildpunkte gleichzeitig und erlauben die Aufnahme bewegter Objekte mit (fast) beliebiger Verschlusszeit. • Interline und Frame Transfer CCDs setzen zwei getrennten Flächen für die Bildaufnahme und für den Ladungstransport ein. • Vollbild-Sensoren (Full Frame Transfer) nutzen fast ihre gesamte Oberfläche zur Lichtumwandlung. • X3-Bildsensoren repräsentieren eine neue CCD-Technik, welche eine volle Ausnutzung der Pixelanzahl für Farbaufnahmen ermöglicht. X3 macht sich die Tatsache zu Nutze, dass Licht je nach Wellenlänge unterschiedlich tief in Silizium eindringen kann. 50 25 Zeilensensoren • Zeilen-Sensoren bestehen normalerweise aus einer lichtempfindlichen Zeile (Ausnahme TDI). Unter der Zeile befindet sich das abgedunkelte horizontale Schieberegister. Eine Ladungsbarriere verhindert, dass die Ladungen schon während des Integrierens in das Schieberegister „auslaufen“. • Ein Hauptproblem bei grösseren Sensoren ist die Datenrate. Ein Zeilensensor mit 12000 Pixels soll zum Beispiel mit 2000 Zeilen pro Sekunde ausgelesen werden. Bei nur einem Ausgang entspricht das einer Frequenz von 24 MHz. Damit stösst man an physikalische Grenzen. • Entweder man nutzt zwei Ausleseregister. Eines oberhalb und das andere unterhalb der Zeile. Eine weitere Möglichkeit ist, dass die Ausleseregister in zwei entgegengesetzt auslesbare Hälften unterteilt werden oder die Zeile in mehrere kleinere Abschnitte unterteilt und parallel ausgelesen wird. 51 Zeilensensoren 52 26 Flächensensoren Interline Transfer Bei CCDs müssen die Ladungen gesamthaft verschoben werden. "Interline Transfer" • Kolonnen von lichtempfindlichen Sensoren neben Transportbahnen angelegt • Ladungen werden in Transportbahnen transferiert • Während Belichtung werden Ladungen zunächst in Kolonnen verschoben und dann in Registerzeilen ausgelesen • Transfer geschieht sehr schnell, da die Ladungspakete nur um ein Sensorelement verschoben werden müssen 53 Interline Transfer Abbildung: Prinzip CCD Interline Transfer, Quelle (rechtes Bild): Universität Berlin 54 27 Frame Transfer • Sensorfläche in Bildzone und Speicherzone aufgeteilt • Die gesammelten Ladungen werden schnell in die Speicherzone transportiert • Von dort wird Zeile um Zeile in die Auslesezeile(n) verschoben und anschliessend ausgelesen • Verhältnis Belichtungszeit zu Verschiebezeit des Bildes ist etwa 19:1 • Frame Transfer Sensoren sind lichtempfindlicher als Interline Transfer Sensoren (Pixelfläche ist wesentlich grösser) • Typische Flächensensoren 2k x 2k Elemente • horizontale Auflösung meist besser als die vertikale, da letztere durch die Anzahl Zeilen des Videosignals beschränkt ist 55 Frame Transfer Abbildung: Prinzip CCD Frametransfer (rechtes Bild): Universität Berlin 56 28 CCD-Chipformate Die Formatangabe des Bildsensors in Zoll kommt aus der Zeit, in der es nur Fernsehröhren gab. Eine runde Aufnahmeröhre mit 1“ Durchmesser hatte ein rechteckiges, aktives Fenster mit einer Diagonalen von 16mm. • 1“-Chips waren bei CCDs eher die Ausnahme, werden heute aber wieder mehr eingesetzt • Gängige Größen sind 2/3“, 1/2“, 1/3" (1“ = 2,54 cm) • Diese finden immer mehr Anwendung (u.a. im Bereich der Überwachung, bei Miniaturkameras und bei Home-Videokameras) 57 Farb-Sensoren (CCDs) • Farberkennung wird durch separate Speicherung der Intensität der Grundfarben Rot, Grün und Blau (RGB) durchgeführt. One-Chip Technologie ermöglicht kostengünstigen Kameraaufbau • Vor den Pixeln sind Farbfilter integriert • Es kann entsprechend des Filters nur ein Wellenlängenbereich aufgenommen werden • Bei einer RGB-Kamera ergeben die Messung der Intensität der Grundfarben zusammen ein Farbpixel • Jeder Bildpunkt hat nur die Information über eine Farbe, die beiden anderen müssen interpoliert werden • Qualität des Ergebnisbildes hängt u.a. von der Interpolationsmethode ab • Farbfehler und Schärfeverluste können auftreten 58 29 Farb-Sensoren (CCDs) – One-chip technology Abbildung: Bayerfilter (Quelle: Universität Berlin) 59 Farb-Sensoren (CCDs) – Three-chip technology • Bei Three-Chip-Technologie spaltet ein Prismensystem das einfallende Licht auf und lenkt es auf separate CCD-Sensoren Diese wiederum bürgen für genauere Ergebnisse und höhere Farbtreue. • Nachteil ist die Komplexität der Mechanik • die aufwendiger zu produzieren • Störungsanfälliger als One-Chip-Technologie Quelle: TU Wien 60 30 Farb-Sensoren (CCDs) Beispiel: Rotationszeilenkamera Quelle: Schneider & Maas, 2003 Das Aufnahmeprinzip einer digitalen Panoramakamera ähnelt dem eines Flachbettscanners. Bei einem Flachbettscanner wird eine RGB-CCD-Zeile linear über das aufzunehmende Objekt geführt. Da der Zeilensensor aus jeweils einer CCD-Zeile je Farbkanal besteht, wird die volle RGB-Information ohne Verwendung von Farbfiltern und nachträglicher Interpolation aufgezeichnet. 61 CMOS-Sensoren CMOS: Complementary Metal Oxide Semiconductor • Active Pixel Sensors (APS) basiert wie CCD-Sensor– auf dem inneren fotoelektrischen Effekt Im Gegensatz zu CCDs ist in jedem einzelnen Bildelement ist ein Verstärker integriert. • Jedes Bildelement enthält zusätzlich zur Fotodiode eine Vielzahl von Transistoren gesammelte Ladung werden in eine messbare Spannung umgewandelt • Elektronik kann direkt das Spannungssignal eines einzelnen Pixels auslesen Weniger Blooming • Zwischen lichtempfindlichen Fotodioden befindet sich viel Elektronik Kleinere lichtempfindliche Fläche Daher in 70er und 80er Jahren war diese Technologie bedeutungslos. 62 31 CMOS-Sensoren • CMOS -Bildsensoren haben Fähigkeit, eine Vielzahl von Verarbeitungsschritten und Kontrollfunktionen parallel auszuführen bzw. direkt auf dem Chip zu implementieren: • Timing, • Analog – Digital – Wandlung (ADC), • Bildkontrolle, • Verschlussautomatik (Shuttering), • Taktung, • Weißabgleich sowie erste Bildverarbeitungsschritte. 63 Aufbau eines CMOS-Sensors Quelle: Universität Berlin 64 32 Blockschaltbild CMOS Quelle: Universität Berlin 65 CMOS Quelle: Universität Berlin 66 33 Vergleich / Unterschiede CCD vs. CMOS Siehe: http://www.dalsa.com/markets/ccd_vs_cmos.asp 67 Vergleich / Unterschiede CCD vs. CMOS 68 34 Vor- und Nachteile der vorgestellten Sensoren Vorteile von CCD- und CMOS-Sensoren gegenüber Filmkameras: • Information sind sofort nach dem Belichten verfügbar (Entwicklungsprozess entfällt). Daher Echtzeitfähigkeit • Stabile, stationäre Bildgeometrie • Kosten sind geringer Nachteil: • Kleineres Bildformat • Gefahr der Manipulation • (Speicherprobleme) Definitionen von Video-Normen: Wichtig für den Auslesevorgang und Kompatibilität zu anderen (Video)geräten 69 Vor- und Nachteile der vorgestellten Sensoren Nachteile von Vidicons: • Grössere Geräteformate • Kleinere Bildformate • Instabile Bildgeometrie Vorteile von CCDs: • Die Ausgangsuniformität & Bildqualität bei CCD-Sensoren ist sehr hoch • Lichtausbeute (Empfindlichkeit) ist sehr hoch • Es sind keine oder nur wenige lichtunempfindliche Bauteile auf der Chipoberfläche vorhanden hoher Dynamikbereich (Dichte) 70 35 Vor- und Nachteile der vorgestellten Sensoren Vorteile von CMOS: • CMOS-Kameras haben kleine Baugrößen • Die meisten Funktionen können auf Chiplevel implementiert werden, Verdrahtung ausserhalb des Chips ist sehr gering • Jedes Pixel vollzieht selbst die Umwandlung von Ladungen in Spannungen • Digitalisierung erfolgt schon auf dem Chip • Stromverbrauch des Chips ist sehr gering. • Bloomingeffekte treten wegen der sofortigen Umwandlung der Ladungen in Spannungen nicht (gering) auf. • Einzelne Bildbereiche können direkt adressiert werden • Hohe Bildwiederholraten • CMOS–Systeme können nach erfolgreicher Entwicklung in hohen Stückzahlen sehr günstig produziert werden • Anwendungen wo es weniger auf Bildqualität, jedoch mehr auf Platzsparsamkeit ankommt Überwachungskameras, Webcams, Spielsachen, 71 Vor- und Nachteile der vorgestellten Sensoren Nachteile von CCDs: • Auftreten von Bloomingeffekten • Direktes Adressieren von Bildbereichen ist nicht möglich • Die Nachverarbeitungsmodule nehmen viel Platz ein und machen sich in den grösseren Abmessungen der Kamera bemerkbar Nachteile von CMOS: • Herstellungsbedingte Schwankungen des Ladungs-pro-Spannungsverhältnisses Einheitlichkeit von gleichfarbigen Bereichen (Uniformität) des Bildes leidet • Schlechtere Lichtempfindlichkeit 72 36 Grenzen der Sensoren Die Grösse des Sensors kann aufgrund der folgenden zwei Punkte nicht beliebig reduziert werden: • Teilcheneigenschaft des Lichtes • Erhöhung des Rauschens • Reduktion des dynamischen Bereichs • Reduktion der ISO Geschwindigkeit • Welleneigenschaft des Lichtes • Beugung: Rayleigh Grenzwert (lp/mm) = 1600 / f-stop 73 Wikipedia: Die Nyquist-Frequenz, durch Claude Elwood Shannon benannt nach Harry Nyquist, ist die halbe Abtastfrequenz: fnyquist = ½ fabtast Das Abtasttheorem besagt, dass ein kontinuierliches, bandbegrenztes Signal, mit einer Minimalfrequenz von 0 Hz und einer Maximalfrequenz fmax, mit einer Frequenz größer als 2 · fmax abgetastet werden muss, damit man aus dem so erhaltenen zeitdiskreten Signal das Ursprungssignal ohne Informationsverlust exakt rekonstruieren und beliebig genau approximieren kann. Nach dem WKS-Abtasttheorem (für Whittaker-Kotelnikow-Shannon) müssen alle Anteile in einem Signal kleinere Frequenzen als die Nyquist-Frequenz haben, damit das abgetastete Signal beliebig genau rekonstruiert werden kann: fsignal < fnyquist Das Abtasttheorem ist ein Gesetz, wonach die Taktfrequenz der punktweisen Probeentnahme aus dem Ursprungssignal mehr als doppelt so hoch sein muss, wie die höchste im Ursprungssignal enthaltende Frequenz fsignal : fabtast > 2fsignal Falls dieses Kriterium verletzt wird, entstehen Verzerrungen, die auch als AliasEffekt bezeichnet werden. 74 37 Grenzen der Sensoren Beugung f-stop 5.6 Rayleigh Limit (lp/mm) 286 Pixel spacing (RL = Nyquist) 1.75 µm 8 200 2.5 µm 11 145 3.44 µm 16 100 5 µm • Um den Vorteil von kleinen Pixeln nutzen zu können muss die Beugung der Linse durch die Wahl eines entsprechenden f-stops klein gehalten werden. • Kleine Pixel reduzieren das Signal/Rauschen Verhältnis Mit Pixeln kleiner als 2 µm is wenig zu gewinnen, jedoch viel zu verlieren (ISO Geschwindigkeit, dynamischer Bereich, Rauschen) 75 Weitere Literatur und Links Digitalkameras • www.canon.de • www.sony.de Der Fotoeffekt http://smile.unibw-hamburg.de/HL_Physik/Undotierte_HL.htm Feldeffekttransistoren und CMOS-Technologien: Dr. Winkler, Technische Informatik 1, HU Berlin CCD, CMOS, Aufbau http://micro.magnet.fsu.edu/primer/digitalimaging/concepts/concepts.html http://www.dpreview.com/learn/Glossary/Camera_System/Sensor_01.htm Neue Bilderfassungstechnologie - Foveon Chip www.foveon.com www.sigma-photo.com/Html/news/news_sd9_fs.htm Vergleich CCD CMOS http://www.dalsa.com http://www.dalsa.com/markets/ccd_vs_cmos.asp 76 38