Das Arbeitsbuch - Arbeitsbuch Patrick Urfer
Transcription
Das Arbeitsbuch - Arbeitsbuch Patrick Urfer
Das Arbeitsbuch Ausbildung Informatik Ük Modul 304 Modulbezeichnung: Ük Modul 304 Kompetenzfeld: Einzelplatz-Computer in Betrieb nehmen, Computer-Aufbau kennen und verstehen, Betriebssystem und Office Suite installieren, Gerät mit dem Netzwerk verbinden und System Testen. Komponenten des Computers Ein Computer besteht wie der Menschliche Körper aus einer Vielzahl von verschiedenen Komponenten, die in der Informatik als Hardware bekannt sind. Jeder dieser Komponente bewältigt verschiedene Zentrale Teilaufgaben welche letzten Endes im Gehirn des Computers zusammen kommen und verarbeitet werden. Diese 3 Komponenten welche wir uns anschauen sind das Gehirn, die Erinnerung und der Körper des Computers. CPU Die CPU auch bekannt als Central Processing Unit ist das Gehirn des Computers hier kommen alle zu verarbeitenden Abläufe zusammen und werden dementsprechend Abgearbeitet. Eine CPU setzt sich auch wie ein Gehirn aus mehreren Teilbereich zusammen, welche nur im Verbund richtig funktionieren, diese werden wir nun näher anschauen. Sockel: Der Prozessorsockel ist eine Steckplatzvorrichtung für die Computerprozessoren, umso Prozessoren austauschbar auf einem Motherboard oder einer Slot-CPU anzubringen. Es wird heute zwischen einigen verschiedenen Sockeltypen und Sockel unterschieden. PGA: Unter dem Namen Pin Grid Array(Kontaktstift-Rasterfeld) bekannt versteht man ein Chipgehäuse für Integrierte Schaltkreise welches vor allem bei Prozessoren rege Anwendung fand. Der Schaltkreis in Form eines Siliziumchips wurde auf einer keramischen, organischen oder kunststoffbasierten Leiterplatte angebracht, die auf einer Seite mit Pins versehen war, über die Pins wurden Daten, Steuer und Versorgungsleitungen des Schaltkreises nach außen geführt. Diese Pins konnten entweder direkt in eine Leiterplatte eingelötet werden oder über einen Sockel eingebaut werden. Hier ein Bild eines PGA. LIF: Ük Modul 304 Ausgeschrieben unter dem Namen Low Insertion Force bekannt, ist ein Fassungstyp für elektronische Bauteile. Patrick Urfer 11.12.2014 Seite 1 von 26 Das Arbeitsbuch Ausbildung Informatik Die LIF-Fassung wurde als preisewerte Alternative realisiert, für einfache Programmier- und Testgeräte. Im Vergleich zu anderen Fassungen haben sie eine deutlich geringere Federkraft der Kontakte was das Einsetzen und Entfernen eines Bauteils vereinfachen sollte. Einer der Nachteile war aber das durch die geringere Kontaktkraft auch ein deutlich schlechterer Kontakt zustande kam und es in einigen Fällen zu Oxidbildung zwischen Kontakt und Anschlussbeinen kam. Dieses System wurde von Intel eingeführt um dem häufigen Prozessorwechsel ein geeignetes Sockelsystem zu bieten, dieses wurde dann jedoch später durch das ZIF-System ersetzt. ZIF: Auch bekannt als Zero Insertion Force ist der Name einer Fassung für elektronische Bauteile, bei welcher man beim Einsetzen und Entfernen des Elements keinerlei Druck oder Zug benötigte. Bei den meisten anderen Fassungen werden die Pins in die Kontaktfedern eingeführt und festgeklemmt daher musste immer eine gewisse Kraft aufgewendet werden, um die Pins in die davor vorgesehenen Kontakte zu drücken oder auch aus Ihnen zu entfernen. Dies beherbergte immer eine gewisse Gefahr für die Komponenten man konnte unbeabsichtigt Pins oder auch Leiterplatten relativ schnell beschädigen oder Unbrauchbar kaputt machen. Beim ZIF-System jedoch war Kraftaufwand komplett unnötig weil die Kontaktfeder vor dem Einsetzen geöffnet werden konnte und dadurch die Pins ohne Kraftaufwand in den Sockel eingeführt werden konnten. Beim Schließen der Kontaktfedern werden die Pins dagegen gepresst und sorgen so für elektrischen Kontakt und mechanischen Halt. LGA: Bekannt unter dem Namen Land Grid Array ist es ein System zur Verbindung von Integrierten Schaltungen, bei diesem System werden die Anschlüsse des Integrierten Schaltkreises auf die Unterseite eines Feldes (Grid Array) welches mit Kontaktflächen(land) übersäht ist angebracht, dieses Feld sieht einem Schachbrett sehr ähnlich. Die Ähnlichkeiten in Name und Aussehen des PGA sowie LGA kommt nicht von ungefähr, das PGA hatte anstatt der Kontaktflächen so genannte Beinchen(Pins) ansonsten sehen sich das LGA und auch PGA sehr ähnlich. Die LGA-Prozessoren werden meistens auf den Sockel gesetzt, welche federnde Kontakte enthalten was geringere mechanische Beanspruchung der Kontakte verursacht. Für die x86 Prozessoren brachte Intel das Land Grid Array im Juni 2004 als LGA775 das erste Mal für die Pentium 4-Reihe auf den Markt. Dies ist ein LGA-Sockel 1150 der aktuellen Generation Ük Modul 304 Patrick Urfer 11.12.2014 Seite 2 von 26 Das Arbeitsbuch Ausbildung Informatik Nach der Abarbeitung der Sockel als Thema gehen wir nun ein wenig tiefer auf die einzelnen Bereiche der CPU ein und veranschaulichen uns den Aufbau und die Funktionsweise einer CPU. CISC: Steht für Complex Instruction Set Computer, also einen Computer mit komplexem Befehlssatz. CISC ist eine Designphilosophie für Computerprozessoren, die bekanntesten Benutzer dieses Konzept sind Intel mit der x86-Prozessorfamilie. CISC zeichnet sich vor allem durch viele mächtige Einzelbefehle aus, hat jedoch im Vergleich zu RISC auch einen dementsprechend hohen Decodierungs-Aufwand zu bewältigen. RISC: Steht für Reduced Instruction Set Computer, also einen Computer mit reduziertem Befehlssatz. RISC ist eine Designphilosophie für Computerprozessoren, diese Philosophie sah vor auf komplexen Befehlssatz zu verzichten. Es wurde ein für die Assemblerprogrammierung komfortabler Befehlssatz der einfach zu dekodieren und extrem schnell Ausführbar war entwickelt um eine hohe Taktfrequenz zu ermöglichen. Register: Als Register bezeichnet man in der Computertechnik Bereiche innerhalb des Prozessorkerns für die Speicherung welche direkt mit der Recheneinheit verbunden sind und Operanden und Ergebnisse von Berechnungen direkt Speichern. Register sind normalerweise maximal so gross wie die Wortgrösse des Prozessorkerns sprich 8,16,32 oder 64 Bit. Alle solchen Register zusammengefasst nennt man Registersatz, diese beinhalten auch spezielle Register welche für die Wahl der Betriebsmodi eines Prozessorkerns verwendet werden. Die Register stehen an der Spitze der Speicherhierarchie innerhalb eines Prozessorkerns, daher ist es die schnellste Möglichkeit Daten zu manipulieren, da der Zugriff unabhängig von Daten oder Adressbus möglich ist. ALU: Ist ein elektronisches Rechenwerk auch bekannt als arithmetisch-logische Einheit das in Prozessoren benutzt wird. Sie berechnet arithmetische und logische Funktionen, sie kann immer einige Minimaloperationen durchführen im Arithmetischen die Addition und in der Logik die Negation sowie Konjunktion. Weitere Operationen können auf Kosten von Rechenzeit in mehreren Takten mit den oberen 3 Operationen durchgeführt werden. FPU: Ist ein spezieller Prozessor auch bekannt als Floating Point Unit der Operationen mit Gleitkommazahlen verarbeitet und ausführt. Neben den Grundoperationen wurden sie vor allem für erweiterte Operationen wie transzendente Funktionen in Form von Exponentialfunktion und trigonometrische Funktionen benutzt daher nennt man Floating Point Units auch mathematische Koprozessoren. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 3 von 26 Das Arbeitsbuch Ausbildung Informatik Floating Point Units können auch als externe Chips in eigenen Gehäusen verbaut sein oder in bestimmten Bereichen einer CPU integriert sein. MIPS: Ausgeschrieben million instructions per second wird auch IPS genannt was instructions per second bedeutet, damit wird eine Masseinheit bezeichnet für die Rechenleistung von Computern und damit wird vor allem die Leistungsfähigkeit der CPU mittels Computer-Benchmark ermittelt. Diese Einheit gibt vor allem an wie viele Befehle der Prozessor verarbeitet, 1 MIPS bedeutet also er verarbeitet 1 Million Befehle pro Sekunde. MMU: Der Begriff steht auch für Memory Management Unit und ist eine Hardwarekomponente im Computer welche die Speicherverwaltung des Arbeitsspeichers verwaltet. Jede virtuelle Adresse welche durch Prozesse angefordert werden, wird durch die MMU in eine physische Adresse umgewandelt, bevor sie auf den Adressbus geschrieben werden. MMUs verfügen über schnelle und spezielle Register für Basisadressen um die Adressierung so effizient wie möglich zu berechnen. Heutzutage existieren sogenannte Selbstnachladende MMUs diese haben einen speziellen integrierten Cache-Speicher, bekannt als Transition Lookaside Buffer, dieser speichert jeweils die letzten Adressübersetzungen in Tabellen-Form. Taktgeber: Ein Taktgeber ist eine Hardware-Komponente welches Impulse in einer bestimmten Frequenz abgibt, diese sind vor allem für die Verarbeitung von Daten und für Synchronisierungen notwendig. In Prozessoren sind Taktgeber nahezu immer mit einem Steuerwerk kombiniert, diese können die Taktzahl angeben mit der man die Geschwindigkeit von Prozessoren angibt. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 4 von 26 Das Arbeitsbuch CPU-Upgrade: Ausbildung Informatik Ein CPU-Upgrade ist eine oft gemiedene jedoch sehr effektive Art einem in die Jahre gekommenen Rechner neue Kraft zu verleihen, jedoch was ist wichtig bei einem CPU-Upgrade und wie findet man raus welcher CPU der richtige ist, dies werde ich nun erläutern. Der erste und wichtigste Schritt ist es sicherlich erstmal zu wissen was für eine aktuelle CPU vorhanden ist von welchem Hersteller und welches Modell, dafür nutzen wir ein Prozessor-Diagnose Tool welches uns die genauen Daten unserer CPU anzeigt(Weiter unten sehen Sie ein Bild von CPU-Z). Als nächstes sofern wir das Motherboard nicht mit ersetzen möchten, müssen wir schauen welche neueren CPU-Modelle unser Motherboard unterstützt. Dies finden wir dank der Revisionsnummer des Motherboards heraus, in dem wir bei den Prozessor-Herstellern in der CPU-Kompatibilitäts-Liste nachschauen, welche CPUs unterstützt werden und welche Bios-Version benötigt wird. Als nächstes suchen Sie den geeigneten Prozessor für sich aus der Kompatibilitäts-Liste raus beachten sie allerdings dass das Upgrade mindestens doppelt so viele Kerne besitzt, mindestens 1 GHz mehr besitzt oder das Modell eine komplette Generation aktueller ist, als letztes müssen Sie sofern sie ein geeignetes Modell gefunden haben die alte CPU ausbauen und das neue einbauen oder einbauen lassen, das Bios auf die verlange Version setzen und schon haben sie Ihr CPU-Upgrade abgeschlossen. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 5 von 26 Das Arbeitsbuch Ausbildung Informatik Motherboard Als nächste Komponente erläutern wir das Motherboard welches dem Computer als Nervensystem dient in unserem Vergleich von Mensch zu Computer. Ein Motherboard hat wie ein Nervensystem eine Verbindung zu allen wichtigen Komponenten und dient als Werkzeug für das Hirn oder in diesem Fall der CPU. Formfaktor: Motherboards gibt es in sehr vielen Formfaktoren(Standarisierte Grössen) ein Grund mehr warum ich das Motherboard mit dem Menschlichen Körper vergleiche, die verschiedenen Formfaktoren werden wir ein wenig genauer anschauen. • Das AT-Format ist der Vorgänger des aktuellen ATX und der Nachfolger des XT-Formats, es wurde bekannt durch den 80286-Prozessor von Intel und durch die 16-Bit-ISA-Slots für Erweiterungskarten, dieser Slot wurde auch oft AT-Bus genannt. • Das ATX-Format ist der Nachfolger des AT-Formats es wurde 1996 von Intel eingeführt, trotzt des späteren Versuchs das BTX-Format zu standardisieren blieb das ATX-Format, das kleinere Micro-ATX und das grössere E-ATX bis heute der vorherrschende Formfaktor. • Das BTX-Format war als Nachfolger des ATX-Formats geplant, dieser neue Standard wurde erstmalig von Intel 2003 vorgestellt. Das BTX-Format wurde in mehreren Grössen veröffentlicht ohne Erfolg. Es konnte sich wegen fehlender Akzeptanz nie gegenüber dem ATX-Format durchsetzen, im Jahr 2007 wurde es dann von Intel komplett vom Markt genommen. Formfaktor Produktbezeichnung Grösse in mm AT AT-Mainboard 305 x 279 bis 330 Baby-AT-Mainboard 216 x 204 bis 330 ATX-Mainboard 305 x 244 Micro-ATX 244 x 244 E-ATX 305 x 330 BTX-Mainboard 325,12 x 266,70 microBTX 264,16 x 266,70 ATX BTX Ük Modul 304 Patrick Urfer 11.12.2014 Seite 6 von 26 Das Arbeitsbuch Chipsätze: Ük Modul 304 Ausbildung Informatik Sind das zentrale Element auf dem Motherboard Sie haben sich im Laufe der technischen Entwicklung von vielen einzelnen Bausteinen zu hochtechnisch integrierten Schaltungen entwickelt. Der Chipsatz ist das Bindeglied zwischen allen einzelnen Komponenten eines Computers, man kann sagen bei allen Abläufen im Computer ist er involviert und sorgt dafür dass alle Komponenten über ihre Schnittstellen kommunizieren können. Er ist wie das Herz beim Menschen während das Herz alles mit Blut welches Sauerstoff enthält versorgt, berücksichtigt der Chipsatz alle unterschiedlichen Spannungspegel, Taktfrequenzen und Protokolle und lässt sie zwischen den Schnittstellen umwandeln. Die immer steigende Integrationsdichte bei Chipsätzen liess die Aufteilung in zwei Chips entstehen, dies war die Geburt der North- und Southbridge. In der North- und Southbridge Technologie verschachtelte man den Chipsatz wie eine Art Landkarte Norden und Süden sind über einen Bus verbunden, im Norden wurde der Datenfluss von Prozessor, Arbeitsspeicher, Grafikkarte und dem Peripherie-Bus gesteuert, im Süden wurden Peripherie-Schnittstellen gesteuert sowie das Bios wurde hier eingebunden. Die North- und Southbridge wurde dann von der Hub-Architektur abgelöst, welche von Intel entwickelt wurde um eine neue PC-Generation einzuführen. Der Grund für die neue Architektur war die langsame Anbindung zwischen North- und Southbridge, die immer schneller arbeitenden Prozessoren wurden durch die Anbindung der Peripherie immer mehr ausgebremst. Die Daten konnten nicht mehr schnell genug im Computersystem übertragen werden, zur Lösung des Problems wollte Intel als Chipsatz-Hersteller Einfluss auf den Markt nehmen, um eigene Prozessoren besser zu unterstützen mit einer eigenen und besseren Arbeitsumgebung. Die Hub-Architektur ist im Grund ähnlich wie die Bridge-Architektur jedoch haben sich einige Dinge geändert, anstatt der Northbridge übernimmt diese Aufgaben nun der Memory-Controller-Hub(MCH), anstatt des MCH gibt es nun auch einen Graphic Memory Controller Hub(GMCH), hier ist die Funktion der Grafikkarte nun im Chipsatz integriert. Als Verbindung zwischen North- und Southbridge dient nicht mehr der langsame PCI-Bus sondern ein Hub-Interface, dabei handelt es sich um eine Punkt-zu-Punkt-Verbindung welches auch weiteren Controller-Hubs zulässt die sich miteinander verbinden, z.B. lässt sich ein PCI-Hub an den MCH anbinden welcher so Steckplätze für den PCI-Bus zur Verfügung stellt. Die neueren MCHs verfügen über direkte Verbindungen zu PCI-Express-Steckplätzen, in dieser Hub-Architektur ist die Southbridge nur eine Verlängerung der Northbridge umso alle internen und externen Schnittstellen sowie Bussysteme schneller an die Northbridge anzubinden. Auch nach dieser Entwicklung des Hubs war nicht Schluss es folgte die Erweiterte Hub-Architektur in dieser verliert der Chipsatz immer mehr an Bedeutung, die Anbindung von Arbeitsspeicher sowie Grafikkarte war immer eine der Hauptaufgaben des Chipsatzes, jedoch verlor er diese Aufgabe durch das Integrieren des Speicher-Controllers(MMU) in die CPU, durch dies spart er den Umweg über den Chipsatz wenn er auf den Speicherzugreift. Dasselbe wurde mit der Grafikkarte gemacht, diese wurde länger je mehr an den Prozessor direkt angebunden, oder durch einen integrierten Grafikchip in der CPU ersetzt, diese Teile wanderten alle vom Chipsatz in die CPU: Grafikkarten, Speicher-Controller sowie Direktanbindungen von Erweiterungskarten, nur noch einfach Schnittstellen werden über den I/O-Chip bereitgestellt. Patrick Urfer 11.12.2014 Seite 7 von 26 Das Arbeitsbuch Ausbildung Informatik Hier haben Sie eine Abbildung einer Bridge-Architektur, welche alle einzelnen Komponenten auf dem Motherboard an der richtigen Position darstellt. Hier haben Sie eine Abbildung einer Hub-Architektur, welche alle einzelnen Komponenten auf dem Motherboard an der richtigen Position darstellt. Hier haben Sie eine Abbildung einer Erweiterten Hub-Architektur, welche alle einzelnen Komponenten auf dem Motherboard an der richtigen Position darstellt. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 8 von 26 Das Arbeitsbuch Ausbildung Informatik Integrierte Funktionen: Motherboards haben oftmals ein grosses Spektrum an Integrierten Multimediaund Netz-Peripheriegeräten am meisten trifft man Motherboards an welche Netzwerkkarte(LAN) und Audiokarte integriert habe n, sowie die meisten verfügen über Videoeingänge und andere Controller. WLAN ist auch immer öfters je nach Preisklasse des Motherboards integriert, jedoch meist erst bei den etwas kostspieligeren Modellen. Bussysteme: Der Prozessor braucht Daten um sie zu bearbeiten, die Daten werden aus dem Datenspeicher geholt, die Daten werden bearbeitet, die Daten werden gespeichert… Die elektrische Leitung welche die Daten transportiert nennt man bei einem PC Bussystem, kurz Bus. Dieses Bussystem verbindet jede angeschlossene Komponente mit jeder anderen Komponente und überwacht das die Daten an der richtigen Adresse ankommen. Da innerhalb eines Computers nicht nur Daten sondern auch Steuersignale ausgetauscht werden, unterscheidet man 3 Bussysteme: Datenbus: Der Datenbus sendet die zu verarbeitenden Daten von einer Komponente zum Prozessor und umgekehrt. Adressbus: Da alle Komponenten parallel am Datenbus angeschlossen sind, aber immer nur eine Komponente Daten senden oder empfangen darf, da sonst eine Datenkollision entsteht. Es muss jede Komponente eine Adresse erhalten, mit der sie von der CPU adressiert werden kann. Alle Komponenten des PCs werden parallel an den Datenbus angeschlossen, um die Adressen an die Komponenten zu übermitteln. Daten auf dem Datenbus dürfen nur gesendet oder empfangen werden, wenn eine Komponente die ihr zugewiesene Adresse auf dem Adressbus empfängt. Steuerbus: Wird über den Adressbus eine Komponente (z. B. Arbeitsspeicher) adressiert, so muss dieser auch mitgeteilt werden, ob Informationen hineingeschrieben oder ausgegeben werden sollen. Mithilfe des Steuerbusses gibt der Prozessor einer Komponente die Befehle die ausgeführt werden sollen. ROM: Auch bekannt als Read-only-Memory ist ein Nur-Lese-Speicher das bedeutet auf Ihn kann im normalen Betrieb nur lesend zugegriffen werden, nicht schreibend und das er ist nicht flüchtig. Er wird bei PCs z.B. für das BIOS verwendet. NVRAM: Ist ein nichtflüchtiger Datenspeicher welcher auf Arbeitsspeichern basiert und dessen Dateninhalt ohne externe Stromzufuhr gespeichert erhält. Normale Arbeitsspeicher wie DRAM und SRAM sind ohne zusätzliche Vorkehrungen flüchtig und verlieren bei Stromverlust den Dateninhalt. Das Meistverwendete NVRAM befindet sich in der CMOS-Technologie in der ein SRAM-Speicher mit einer Lithiumbatterie versehen wird und in einem Chipgehäuse zu einem CMOS-RAM wird, in diesem werden die BIOS-Parameter gespeichert. BIOS: Das BIOS auch bekannt als basic input/output system ist die Firmware bei x86-PCs, es wird in einem CMOS-RAM gespeichert und auf dem Motherboard angebracht, direkt nach dem Starten eines PCs wird das BIOS ausgeführt, es macht den PC funktionstüchtig und startet im Anschluss das Betriebssystem. Im BIOS hat man einige Einstellungsmöglichkeiten in dem man nach dem Einschalten des PCs eine bestimmte Taste oder Tastenkombination gedrückt wird, gelangt man zu diesen, diese Einstellungen werden durchgehend im CMOS-RAM gespeichert, sollten mal Probleme auftreten, wenn man versucht ins Setup-Programm zu gelangen, lassen sich die meisten Einstellungen über einen Jumper am Mainboard zurücksetzen. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 9 von 26 Das Arbeitsbuch Ausbildung Informatik Sollte dies mal nicht möglich sein so kann dies auch Erreicht werden, in dem man beim CMOS-RAM die Batterie entfernt, jedoch benötigt es einige Zeit da man auf das Entladen der Kondensatoren warten muss. Beepcodes: Sind Meldungen in Form von Geräuschen welche den Status des BIOS-Vorgangs im POST(Power-on self-test) kommentieren. Hier eine Auflistung der Original IBM POST beep Codes. Beeps Meaning 1 short beep Normal POST – system is OK 2 short beeps POST error – error code shown on screen No beep Power supply, system board problem, disconnected CPU, or disconnected speaker Continuous Power supply, system board, or maybe RAM problem, keyboard beep problem Repeating short http://en.wikipedia.org/wiki/Power_supplyPower Suppy or system beeps 1 long, 1 short beep 1 long, 2 short beeps 1 long, 3 short beeps 3 long beeps Ük Modul 304 board problem or keyboard http://en.wikipedia.org/wiki/System_boardSystem board problem Display adapter problem (MDA, CGA) Enhanced Graphics Adapter (EGA) 3270 keyboard card Patrick Urfer 11.12.2014 Seite 10 von 26 Das Arbeitsbuch Ausbildung Informatik Speicher Als nächstes kommt der Speicher in unserem Beispiel das Gedächtnis im Mensch zu Computer Vergleich an die Reihe, das Gedächtnis besteht beim Computer auch aus mehreren Ebenen wie beim Menschen welche wofür zuständig sind werden wir uns nun anschauen. Cache: Als Cache bezeichnet man in der Informatik einen sehr schnellen Speziellen Speicher-Mechanismus welcher sich aus static RAM(SRAM) zusammensetzt, es speichert oft wiederholte Zugriffe ab, so dass sie bei späteren Bedarf erneut ohne aufwändige Neuberechnung aufgerufen werden können. In unserem Mensch zu Computer Vergleich wäre der Cache das Kurzzeitgedächtnis. Cache existiert in vielen Variationen: Prozessor-Cache, Festplatten-Caches, und Software-Cache welcher wofür ist und was bewirkt schauen wir uns nun an. Prozessor-Cache: Heute in der Moderne besitzt nahezu jeder neuere Prozessor einen Prozessor-Cache diese setzen sich aus verschiedenen Ebenen zusammen, welche aufeinander aufbauen. Der Level 1-Cache auch bekannt als L1-Cache ist der schnellste und somit auch Teuerste Prozessor-Cache er befindet sich fast immer im Prozessor selbst integriert und arbeitet dadurch mit der vollen Taktgeschwindigkeit des Prozessors also in der heutigen Zeit mit mehreren GHz. Die Aktuellen Prozessoren verfügen fast allesamt über 3 Cache-Level, L1, L2 und L3 diese 3 Level verfügen alle über eine gängige Grösse: L1: 4 bis 256 KiB pro Prozessorkern L2: 64 bis 512 KiB pro Prozessorkern L3: 2 bis 32 MiB meistens für alle Prozessorkerne zusammen. Aktuelle Prozessoren haben auch eine so genannte Harvard-Cachearchitektur, das bedeutet Sie haben L1-Caches für Programme und Daten getrennt, was schnellere und synchrone Zugriffe zwischen Daten und Programmen ermöglicht. Festplatten-Cache: Bei Festplatten befindet sich der Cache auf der Steuerplatine, oder auf einem Festplattenkontroller, die Grösse der aktuellen Festplatten-Caches ist je nach Hersteller zwischen 8 MB und 64 MB. Software-Cache: Caches können auch bei Software genutzt werden, dabei gilt dasselbe Prinzip wie bei jedem Cache die Daten werden auf ein schnelleres Speichermedium gespeichert umso die Zugriffsgeschwindigkeit zu erhöhen. Beispiele für Software-Caches sind Browser-Cache welche bewirken das Webseiten und Inhalte von diesen schneller geladen werden beim erneuten Besuch. RAM: Auch bekannt als Random-Access Memory wird auch als Schreib-/Lesespeicher bezeichnet, RAM sind alles Halbleiter-Speicher. Die Zugriffszeit ist für alle Speicherzellen beim Lesen sowie Schreiben gleich lang, daher bezeichnet man Ihn als einen Random-Access Memory(Speicher mit wahlfreiem Zugriff). Ük Modul 304 Patrick Urfer 11.12.2014 Seite 11 von 26 Das Arbeitsbuch Ausbildung Informatik DRAM: Auch bekannt als Dynamic Random Access Memory hier werden die Informationen in Kondensatoren gespeichert, deren Ladung temporär aufgefrischt werden muss, beim Wiederaufladen hat der Prozessor keinen Zugriff auf das DRAM weswegen Computer mit DRAM langsamer als Computer mit SRAM arbeiten. SRAM: Auch bekannt als Static Random Access Memory hier werden die Informationen in rückwärtsgekoppelten Schaltkreisen sogenannten Flipflops gespeichert, wodurch die Zugriffsgeschwindigkeit deutlich höher ausfällt und auch die Wartezeiten ist deutlich geringer. Weil keine Auffrischungen wie bei Kondensatoren notwendig sind. Speicherbausteine: Im Englischen als Chip bekannt ist ein Integrierter Schaltkreis, welcher aus einer Vielzahl von Speicherzellen besteht, diese werden auf einer Leiterplatte angeboten und aus mehreren dieser RAM werden Speichermodule zusammengebaut. Parität: Ist ein Verfahren um Fehler in einem Speichermodul auszumachen, dieses wird vor allem von der Memory Management Unit(MMU) verwendet, es prüft damit die BitAnzahl in dem es ein 9tes Bit zu jeweils 8 Datenbits hinzufügt, der Wert des Parität Bits zeigt dann die Fehler an und eine Fehlermeldung wie z.B. Parity Error at xxxx: yyyy wird ausgegeben. Refresh Zyklus: Da sich Kondensatoren, bedingt durch unvermeidliche Ruheströme, nach einer bestimmten Zeit selbst entladen, wird eine "Auffrischung" der Kondensatorladung notwendig. Diesen Vorgang nennt man Refresh-Zyklus, da er ständig wiederholt werden muss, um den Speicherinhalt der DRAMs nicht zu verlieren. Dual Channel: Ist eine Technik um von Memory Management Unit(MMU) in PCs mit welchen RAM-Module parallel betrieben werden können, hierfür werden abgetrennte Datenbusse vom Memory Management Unit(MMU) zu den einzelnen Modulen eingesetzt, durch gleichzeitiges übertragen über mehrere Busse können mehrere Daten in der gleichen Zeit gesendet werden. ECC / non ECC: ECC heisst Error control and correction und non ECC heisst no Error control and correction das ist Speicher welcher Fehler kontrollieren und korrigieren kann und eben welcher der es nicht kann der non ECC kann allerdings trotzdem die Paritätsprüfungen vornehmen jedoch die Fehler dann nicht beheben. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 12 von 26 Das Arbeitsbuch Ausbildung Informatik Eingabegeräte des Computers Das ist eine Zusammenfassung über die Wichtigsten Eingabegeräte des Computers in unserer Zusammenfassung bearbeiten wir die Eingabegeräte: Tastatur, Maus und Scanner und schauen uns Ihre Funktionsweise etwas genauer an. Tastatur Eine Tastatur besteht aus mehreren Teilen und benutzt verschiedene Techniken um Ihre Aufgaben erfolgreich zu bewältigen diese schauen wir uns nun etwas genauer an. Scan-Code: Die Kommunikation einer Tastatur erfolgt über den so genannten Scan-Code auch bekannt als Make- und Break-Code, dieser bewirkt dass per Tastendruck eine Nummer an den Computer gesendet wird. Die ersten Tastaturen sendet direkt den ASCII oder andere Codes an den Rechner, um jedoch Computer in allen Ländern vertreiben zu können ohne den Code wieder und wieder anpassen zu müssen, hat man jeder Taste eine Nummer zugeordnet der sogenannte Scan-Code dieser ist eine 7-Bit Zahl. Der Make-Code ist eine zusätzliche Information welche beim Halten oder drücken einer Taste vom Tastaturcontroller gesendet wird, als nächstes erfolgt der Break-Code dieser löst sich aus wenn eine Taste losgelassen wird, der Tastaturcontroller sendet da dann den Scan-Code + 7-Bit Zahl an den Treiber welcher nun noch die Landesspezifische Zuordnung des ASCII vornimmt. Der Tastatur mussten Technisch nur noch passende unterschiedliche bedruckte Tastenkappen eingebaut werden. ASCII: Der ASCII-Code auch bekannt als American Standard Code for Information Interchange ist eine 7-Bit-Zeichencodierung welche als USVariante des ISO 646 gesehen werden kann und diente später als Grundlage für weitere aus mehr Bits bestehende Codierungen. Er besteht aus 128 Zeichen wovon 95 druckbare Zeichen und 33 nichtdruckbare Zeichen sind, welche die Steuerzeichen enthalten. Jedem dieser Zeichen wird ein Bit-Muster aus 7 Bit zugeordnet, Da jedes Bit zwei Werte annehmen kann gibt es 27 = 128 verschiedene Bit-Muster die man auch als die ganzen Zahlen 0-127 oder als Hexadezimal 00-7F Interpretieren kann. Unicode: Der Unicode ist die heute am weitesten Verbreitete und auch meist Genutzte Zeichenkodierung, sie besteht aus 16-Bit, im Vergleich der ASCII-Standard war auf 7-Bit ausgelegt und nachfolgende Kodierungen auf 8-Bits daher war der Unicode auch so ein Gewaltiger Sprung das er bis heute Bestand hält. Im Jahr 1991 nach mehrjähriger Entwicklung wurde die erste Version veröffentlicht, die damals nur die Europäischen-, Indischen- und Nahöstlichen-Zeichen kodieren konnte. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 13 von 26 Das Arbeitsbuch Ausbildung Informatik Der Standard wuchs allerdings sehr schnell schon mit Unicode 2.0 im Juli 1996 wurde der Standard von ursprünglichen 65.536 UnicodeZeichen auf die heutigen 1.114.112 Unicode-Zeichen von U+0000 bis U+10FFFF erweitert. Der Umfang von Unicode ist also 17 Ebenen die jeweils 65.536 Zeichen umfassen anders ausgedrückt 216, davon werden 6 Ebenen bereits verwendet und der Rest wurde für spätere Nutzung erschaffen. Tastatur-Aufbau: Aktuelle Professionelle Tastaturen benutzen heutzutage ein so genanntes MF2-System, diese arbeitet mit einer Leiterplatte auf dieser ist eine gedruckter Schaltung angebracht. Der Untere Teil der Taste ist dabei metallisiert und bildet mit der Tastaturplatine einen kleinen Kondensator, durch das Niederhalten einer Taste wird dessen Kapazität geändert und übergibt so die Information das die Taste betätigt wurde. Die Tastatur verarbeitet dann die Information mit einem Mikroprozessor der die Informationen auswertet, und mit einem Kabel mit DIN-Stecker welches eine Spannungsleitung(+5V), eine Massenleitung und zwei Signalleitungen besitzt welche die Informationen an den PC übertragen. Funktionsweise-Tastatur: Alle Tasten sind sogenannte Kreuzungspunkte auf der Leitermatrix alle Spalten und Zeilen sind mit Dioden verbunden welche eine Eindeutige Zuordnung der betätigten Tasten auch beim Betätigen mehrer Tasten bestimmen können. Dieses Ergebnis wandelt der Prozessor mit dem Tastaturcode beim Betätigen(Make-Code) und beim Loslassen(Break-Code) dementsprechend um. Dieser von dem Tastaturprozessor an den PC übertragene Code wird als 16-Bit Wert dargestellt, dabei sind die ersten 8-Bit der ASCII-Code und das oberste Bit der Scan-Code. Tastaturanschlüsse: Früher wurde noch der DIN-41524-Anschluss verwendet, welcher aber für heute Irrelevant ist dieser wurde durch den Nachfolger dem PS/2-Stecker verdrängt, der PS/2 Standard war lange aktuell bis zur Einführung der USB-Stecker für Tastaturen. Der Hauptunterschied zwischen PS/2 und USB liegt vor allem daran dass die USB-Tastatur keine Make- und Break-Codes mehr sendet, sondern über einen Datenblock mit Statusinformationen für die ganzen Tasten besitzt und darüber den aktuellen Status der Tastatur überträgt. Ergonomische-Aspekte: Tastaturen sind die Werkzeuge, die wir täglich für die Produktivität, soziale Interaktion, Unterhaltung und Selbstdarstellung nutzen. Sämtliche Erlebnisse, die wir mit Technologie haben, basieren auf der Grundlage des physischen Komforts. Deswegen befassen wir uns damit um die beste Grundlage zu schaffen. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 14 von 26 Das Arbeitsbuch Ausbildung Informatik Maus Es gibt mehrere verschiedene Arten der Entwicklung der Maus-Technologie, die Maus ist als Eingabegerät und als Hauptsteuergerät durch die Entwicklung grafischer Oberflächen zusammen mit der Tastatur nicht mehr wegzudenken. Die Mausbewegungen werden hierbei mit einem Sensor in der Maus ausgelesen, digitalisiert, und über die am Computer angeschlossene Schnittstelle übertragen. Mechanische-Mäuse: Die Mechanische-Maus auch als Mechanisch-elektrisch bekannt, funktionierte mit Schleifkontakten um die Koordinaten zu ermitteln, da dies aber ein zu starker Verschleiss mit sich brachte wurde weiter Entwickelt. Optomechanisch: Die zweite Mechanische-Maus auch bekannt als Optomechanische-Maus las die Bewegungen mit Hilfe einer Bleikugel, zwei Lochscheiben und dazugehörigen Lichtschranken aus. Die Rollbewegungen der Bleikugel wurden über zwei Walzen auf zwei gelochte Segmentscheiben übertragen, aus der Drehrichtung und Geschwindigkeit dieser wurde über den Inkrementgeber kleine elektrische Impulse(Mickies) erzeugt, die restliche Koordinatenberechnung übernahm dann der dazugehörige Maustreiber. Leuchtdioden: Diese neuere Mausgeneration auch bekannt als Optische-Maus berechnete die Koordinaten mit beleuchten der Oberfläche auf welcher sie bewegt wurde und nahm die Reflexion mit einem Optischen Sensor wahr, der eingebaute Mikroprozessor berechnete aus den Unterschieden der BildRichtung und Geschwindigkeit die Bewegungen der Maus. Die ersten Mäuse dieser Generation benötigten spezielle Mousepads mit Raster oder Punktierungen zur Orientierung für den Optischen Sensor. Laserdiode: Diese Maus war die erste verbesserte Variante der Optischen-Maus hier wurde statt einer Leuchtdiode eine Laserdiode als Lichtquelle eingesetzt, das gab einen besseren auslesbaren Wert. Blue-Track: Hier wurde eine grosse blaue Lichtquelle unterhalb der Maus verwendet welche in der Kombination mit dem Optischen Sensor und Pixelgeometrie eine bessere Orientierung(Tracking) ermöglichen. Wheel-Mouse: Auch bekannt als das Rollrad(Mausrad) ermöglicht bequemes Scrollen kann aber auch anders belegt werden, bei den meisten Mausmodellen ist das Scrollrad heutzutage klick bar und dient als zusätzliche 3te Maustaste. Maustasten: Mäuse haben neben der Orientierung die zusätzliche Fähigkeit mit Tasten Aktionen auslösen zu können, dies Funktioniert dank Mikrotastern welche sich hinter den Maustasten verbergen, welche bei Überschreitung des Krafteinflusses einen Kontakt meldet, diese Änderung wird als Bit im Mausprotokoll übertragen wodurch Maustreiber, Betriebssystem und Applikationen die damit verbundene Aktion ausführen lassen. Mausanschlüsse: Die ersten Mäuse benutzten alle den lange aktuellen Seriellen Port RS232 welcher über einen neun- oder 25-Poligen D-Sub-Stecker angeschlossen wurden diese frühen Modelle wurden allerdings durch hohen Schaltungsaufwand meistens mit einem eigenen Netzteil betrieben wodurch später mit aufkommen der ATX-Mainboards der Anschluss auf den bereits von der Tastatur bekannten PS/2-Port wechselte. Seit geraumer Zeit nun wurde allerdings auch der PS/2-Port im Mausbereich nahezu gänzlich durch die USB-Anschlüsse abgelöst. Ergonomische Aspekte: Mäuse sind die Werkzeuge, die wir täglich für die Produktivität, soziale Interaktion, Unterhaltung und Selbstdarstellung nutzen. Sämtliche Erlebnisse, die wir mit Technologien haben, basieren auf der Grundlage Ük Modul 304 Patrick Urfer 11.12.2014 Seite 15 von 26 Das Arbeitsbuch Ausbildung Informatik des physischen Komforts. Deswegen befassen wir uns damit um die beste Grundlage zu schaffen. Scanner Ein Scanner auch bekannt als Abtaster ist ein Datenerfassungsgerät das Objekte auf systematisch und regelmässige Art und Weise abtastet und vermisst, Scannen ist ein optomechanischer Vorgang. Die Idee ist es mit begrenzten Messinstrumenten durch eine Vielzahl an Einzelmessungen ein genaues Gesamtbild des Objektes zu erstellen. Flachbettscanner: Ist das heutige gebräuchlichste Bilderfassungsgerät es arbeitet nach dem Prinzip dass die Vorlage auf eine Lichtdurchlässe Glasscheibe gelegt wird, dabei bleibt sie immer an der gleichen Stelle und wird von Lichtempfindlichen Sensoren abgetastet, welche unterhalb der Glasscheibe entlangfahren um eine gute Erfassung zu ermöglichen muss die Vorlage allerdings gut aufliegen. Handscanner: Wie der Name es vermuten lässt muss man den Handscanner von Hand über die Vorlage ziehen, allerdings darf dies nicht zu schnell sein, da sonst die Übertragung nicht fehlerfrei abläuft. Der Handscanner hat zur Unterstützung des Scanvorgangs auch eine Integrierte Walze welche zusammen mit einem Impulsgeber den zurückgelegten Weg über die Vorlage und die zweite Dimension ausmisst. Rollscanner: Wie der Name schon sagt wird hierbei etwas in eine Rolle eingeführt oder aufgetragen, diese gibt es für Druckereien sogenannte Ink-Scanner aber auch für andere Zwecke in der Industrie. 3D-Scanner: Dreidimensionale Vorlagen werden mit 3D-Scanner eingelesen, man verwendet solche Geräte oft zum Archivieren oder Katalogisieren, der Nachteil ist es das die Abtasteinrichtung oft fest montiert sein muss oder das man bei Handscanner-Versionen sogenannte Referenzpunkte an der Vorlage anbringen muss. Auflösung: Die Auflösung einzelner Scanner ist je nach Einsatzgebiet und Qualität der Geräte sehr verschieden, es gibt das Auflösungsvermögen auch bekannt als Unterscheidbarkeit von feinen Strukturen an, bei Scannern ist auch die Frequenz des Abtastrate und der dadurch entstandenen Qualität des Abtastens von enormer Wichtigkeit, ein guter Scanner hat also eine Hohe Auflösung und eine dementsprechend gute Abtastrate. Format: Auch hier Modell und Einsatzgebiet-abhängig es gibt Modelle welche gängige Papierformate erfassen können, aber auch Geräte welche den kompletten Menschlichen Körper erfassen können. Geschwindigkeit: Auch hier Abhängig von Einsatzgebiet und Modell es gibt Geräte welche in unter Sekundenschnelle Daten erfassen können, aber auch Geräte welche mehr Zeit benötigen oder absichtlich benutzen um dafür das Resultat dementsprechend qualitativ genauer Auszugeben. Schnittstelle: Die Schnittstellen welche für Scanner benutzt werden sind auch sehr unterschiedlich da es welche mit Parallel Port, GPIB, SCSI, USB(bis 3.0), FireWire und Integrierte Propietäre Interfaces welche meist mit Bildschirmen oder anschliessbarem Bildschirm-Port einherkommen. Platzverbrauch: Auch hier sehr unterschiedlich und abhängig von Einsatzgebiet und Modell es gibt Scanner im Mikro-Bereich aber auch welche in Hausähnlichen Dimensionen. Gewicht; Auch hier sehr unterschiedlich und abhängig von Einsatzgebiet und Modell es gibt Scanner im Leichtgewicht-Bereich und auch welche die man nicht ohne Maschinelle Unterstützung transportieren kann. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 16 von 26 Das Arbeitsbuch Stromverbrauch: Ausbildung Informatik Auch hier sehr unterschiedlich und abhängig von Einsatzgebiet und Modell es gibt Scanner mit wenig Verbrauch und welche die eigene Hochleistungs-Stromquellen benötigen. Ausgabegeräte des Computers Das ist eine Zusammenfassung über die Wichtigsten Ausgabegeräte des Computers in unserer Zusammenfassung bearbeiten wir die Ausgabegeräte: Monitor/Display,Drucker und schauen uns Ihre Funktionsweise etwas genauer an. Monitor/Display Der Monitor/Display auch bekannt als Bildschirm ist eine elektrisch angesteuerte Anzeige ohne bewegliche Teile zur optischen Signalisierung von sich ändernden Informationen wie Dokumente, Bilder oder Zeichen. Der Bildschirm kann dabei ein eigenständiges Gerät oder Teil eines Computersystems sein. Es gibt sehr viele Arten der Bildanzeige im Technischen Bereich, es werden dabei sehr unterschiedliche Arten benutzt und auch verbaut. CRT: Auch bekannt als Kathodenstrahlröhrenbildschirm ist ein Bildschirm welche die sogenannte Kathodenstrahlröhre im technischen Bereich zur Anzeige nutzt, diese Technik funktioniert in dem der Bildschirm sogenannte Rastergrafiken zur Darstellung benutzt und die Informationen werden für die Primärfarben auf getrennten Signalwegen übertragen, ebenso die Informationen für die Synchronisation der Position des Elektronenstrahles wird auf der Leuchtschicht angezeigt. LCD: Auch bekannt als Flüssigkristallbildschirm ist ein Display dessen Funktion auf Flüssigkristallen beruht diese Technik funktioniert das Flüssigkristalle die Polarisationsrichtung von Licht beeinflusst, wenn eine bestimmte Menge an elektrischer Spannung angelegt wird, so kann ein LCD-Display bestimmte Inhalte anzeigen. TFT: Auch bekannt als Thin-Film Transistor ist ein spezieller Feldeffekttransistor mit isoliertem Gate, mit dem grossflächige Schaltungen. Hergestellt werden diese entsprechen dem Thema des Metall-Oxid-Halbleiter-Feldeffektransistor (MOSFET). Die wesentlichen Unterschiede bestehen neben den verwendeten Materialien in der nachträglich hinzugefügten Halbleiterschicht und dem häufig grossflächig gestalteten Gate. Die grösste Anwende dichte ist die Orientierung von Flüssigkristall-Flachbildschirmen bei diesen werden pro Bildschirmpunkt drei Transistoren eingesetzt welche zum Einsatz kommen, diese Bauart von Displays wird oft auch als Matrix-LCD bezeichnet und Umgangssprachlich auch TFT-Display genannt. Plasma: Auch bekannt als PDP-Display ist ein Farb-Flachbildschirm der durch Leuchtstoffe verschiedenfarbiges Licht erzeugt, welche durch Gasentladungen des Plasmas angeregt werden. Plasma ist eine Art von Ionisiertem Gas, welches neben Neutralen-Teilchen auch freie Ionen, angeregte Atome sowie Elektronen enthält, diese Plasmen senden durch Spontane Emission von angeregten Atomen sichtbare Lichtquellen aus sowie die Bekannte Ultraviolettstrahlung. Bei diesen Bildschirmen macht man sich Emission von UV-Strahlen durch das sogenannte Niederdruckplasma zunutze, diese Funktionsweise kennt man bereits von Leuchtstofflampen im Vergleich zu PDP-Displays ändert sich nur die Art des Gases bei den Displays werden Edelgase verwendet. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 17 von 26 Das Arbeitsbuch Ausbildung Informatik LED: Ein LED-Display auch bekannt als Leuchtdiodenanzeige ist eine Technologie basierend auf Leuchtdioden, diese werden im Bildschirm-Bereich vorallem als Hintergrundbeleuchtung verwendet während der LCD-Technik weiterhin die Bilddarstellung überlassen wir. Heutzutage werden die Hintergrundbeleuchtung und zusätzliche Farbspektrum-tiefe via LED’s gemacht das heisst das die Leuchtdioden neben der Beleuchtung auch zusätzliche Farbtiefe beifügen. Auflösung: Ist eine Normung für die Bildgrösse einer Rastergrafik, diese wird definiert durch die Anzahl der Bildpunkte oder auch durch die Anzahl der Breite(Spalten) und Höhe(Zeilen), Auflösung im Physikalischen Sinn bezeichnet die Dotierung der Bildelemente pro Länge und dadurch auch die Wiedergabe(Bildabtastung) und ist mit der Farbtiefe die Normung der Qualität einer Auflösung. Im Technischen Bereich in Form von Prozessen mit Rastergrafik gilt im Normalfall je grösser die Rastergrafik umso mehr Qualität und Tiefe kann in der Wiedergabe erreicht werden. Die in der IT vorhanden existierenden Grafikstandards wie typische Auflösungen von Grafikmodis werden hauptsächlich von der VESA standardisiert und Normiert. Farbtiefe: Die sogenannte Farbtiefe ist eine sehr wesentliche Eigenschaft von Grafiken im Raster- sowie Vektorbereich und differenziert sich mit den Helligkeits- und Farbwerten. Diese Farb- und Helligkeitswerte werden in einem jeden einzelnen Pixel in einer Raster- und bei Vektorgrafiken innerhalb des farbdefinierten Vektorbereichs definiert. Die Maximale Farbtiefe wird erreicht durch eine möglichst hohe Farbabstufung welche in Bit definiert wird innerhalb einer Farbskala, zusammen mit der Anzahl der möglichen Bits pro einzelne Pixel. Speicherberechnung: Als Grafikspeicher wird der durch die gesamte Grafikhardware umfassende nutzbare Speicher von Computern erfasst, hier kann es sich auch um reservierte Bereiche des Arbeitsspeichers handeln, oder auch speziell für diesen Zweck verbaute Speichermodule(Video-RAM) handeln. Welche Kombinationen der Bildauflösung zusammen mit der Farbtiefe wieviel Speichergrösse für die Darstellung benötigen, ist festgelegt durch Normungen, welche sich durch die Entwicklung ergaben. Grösse: Wenn wir über die Grösse eines Bildschirms reden, reden wir zwangsweise über die Bildschirmdiagonale welche die Normung einer Bildschirmgrösse ist, sie bezeichnet den Abstand der sich diagonal gegenüberliegenden Ecken. Auch wird die Bildschirmdiagonale heutzutage in Zoll angegeben, zusammen mit der Pixeldichte auch bekannt als dpi(Dots-Per-Inch). Anschlüsse: Die Anschlüsse der Bildschirme haben sich auch sehr weiterentwickelt von Analogen Anschlüssen wie dem VGA-Anschluss(Video Graphics Array) zu den Digitalen Anschlüssen wie DVI-Anschluss(Digital Visual Interface), SDI-Anschluss(Serial Digital Interface), UDI-Anschluss(Unified Display Interface), DP-Anschluss(Display Port) und zu dem HDMI-Anschluss(High Definition Multimedia Interface) welcher der aktuelle Standard ist und die Absolute Maximalqualität der heutigen Bildübertragung ermöglicht. Ergonomie: Auch bei Bildschirmen gibt es gewisse Ergonomische-Aspekte welche das Erlebnis am Computer-Bildschirm verbessern sollen und die Gesundheit des Nutzers fördern sollen, diese Ergonomie Aspekte sind in vielen Firmen heutzutage eine Wichtige Regulierung da Gesunde Arbeiter und welche sich bei der Arbeit entspannt fühlen auch mehr Antrieb besitzen. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 18 von 26 Das Arbeitsbuch Strahlungsnormen: Ausbildung Informatik Sind die Normen der maximalen Strahlung und Ergonomie der Computermonitore diese werden durch verschiedene TCO-Standards gemessen an der ergonomischen Qualität der in Büroumgebungen eingesetzten Produkte, für die Computermonitore und Ihre Strahlung sowie Ergonomische Qualität werden die TCO-Prüfsiegel(92,95,99,03,06) vergeben. Der TCO-Standard ist zusammen mit Energy Star das noch älteste bestehende Label welches Green-IT-Aspekte bewertet wie Ergonomie und Strahlung. Drucker Drucker sind Peripheriegeräte in der Datenverarbeitung welche zur Ausgabe von Daten auf ein Medium welches meistens Handels üblicherweise das altbekannte Papier ist, dieser Vorgang nennt man auch Drucken und das Endprodukt dieses Vorgangs nennt man Druckerzeugnis. Es gibt sehr viele Verschiedene Druckmethoden und Druckerarten diese werden wir uns was genauer ansehen. Tintenstrahldrucker: Sind Drucker welche mit sehr kleinen Tinten Tröpfchen arbeiten welche sie anschlagfrei auf das zu bedruckenden Medium spritzen und dieses je nach Art der Qualität mit unterschiedlicher Dichte und Genauigkeit machen angegeben in DPI(Dots per Inch). Laserdrucker: Laserdrucker sind fotoelektrische Drucker, die mit einer Bildtrommel arbeiten, diese Trommel ist statisch geladen, rotiert und wird überall dort wo für den Druck notwendig von Punkt zu Punkt mit einem zeilenweise hin und her bewegten LaserStrahl beschrieben und erzeugt eine negative oder positive Ladung an den Stellen wo der Laser auftrifft, man erschafft so gesehen ein Druckerzeugnis-Negativ auf der Trommel welches dann mit Toner-Pulver bestückt wird und an den gleichen Stellen wo die Ladung auf Druckunterlage und Trommel gleich ist aufträgt oder nicht. Nadeldrucker: Nadeldrucker sind eine Unterart der sogenannten Matrix-Drucker die anstatt Buchstaben nur Punkte durch Nadeln auf die Druckunterlage bringen, diese setzen sich dann optisch zu Buchstaben zusammenfügen, meist verwendet man in diesen Druckern sogenanntes Endlospapier, der grösste Vorteil dieser Drucker liegt in der Fähigkeit Durchschläge zu erstellen in einem Arbeitsgang. Typenraddrucker: Die Buchstaben werden erzeugt, indem ein Hammer die Typen eines drehbaren Typenrads durch ein Farbband gegen das Papier schlägt. Der Hammer wird in der Regel von einem Permanentmagneten angetrieben, der sich innerhalb eines Elektromagneten befindet. Auflösung: Diese wird hier einmal mehr mit den bereits bekannten DPI(Dots-Per-Inch) angegeben übersetzt heisst es ein 1dpi = 1 Punkt pro Zoll. Druckgeschwindigkeit: Wird Normalerweise in diesen 2-Normierungen angegeben mm/s auch bekannt als Millimeter pro Sekunde sagt aus wie viele Millimeter er in der Sekunde bedruckt und oder es wird mit Seiten/min angegeben das sagt aus Wie viele Seiten der Drucker pro Minute fertigstellen kann. Format: Format ist sehr abhängig von Einsatzgebiet des Druckers es gibt Drucker welche Papier-Seiten von A1 bis A10 bedrucken können, aber auch welche die riesige 3DNachbildungen von Gegenständen Drucken können. Befehlssprachen: PCL steht für Printer Control Language und PS steht für PostScript. PCL und PS sind Sprachen, die ein Drucker verwendet, um Daten in einen fertigen Druckauftrag umzuwandeln. PCL ist optimal für alltägliche, auf Text basierende Bürounterlagen, während PS für große PDF-Dateien oder andere Dokumente mit vielen Bildern besser geeignet ist. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 19 von 26 Das Arbeitsbuch Ausbildung Informatik Druckeranschlüsse: Auch hier gibt es verschiedene Formen welche sich entwickelt haben die am meisten bekannten Druckerschnittstellen sind allerdings: USB, Bluetooth, Parallel, Firewire, LAN, WLAN, Serielle Schnittstelle(RS-232) und LPT(Serielle Schnittstelle IEEE-1284) Ergonomie: Auch für den Drucker gibt es Ergonomische Anforderungen welcher dieser wenn möglich erfüllen sollte, diese bestehen aus: Niedriger-Emission, leisem Arbeitsvorgang, Ressourcensparende Geräte, eigene Räumlichkeiten, leichte Bedienbarkeit und Reflexionsarmes helle Gehäuse haben. Massenspeicher des Computers Das ist eine Zusammenfassung über die Wichtigsten Massenspeicher des Computers in unserer Zusammenfassung bearbeiten wir die Massenspeicher: Festplatte, CD, DVD, BD und einige Flash-Speicher und schauen uns Ihre Funktionsweise etwas genauer an. Festplatte Festplatten sind Massenspeicher und eine der bekanntesten Hardware-Komponente des Computers jedoch auch hier existieren wie in allen Bereichen der Hardware mehrere Kategorien, Modelle, Verarbeitungsarten und auf diese werden wir nun ein wenig genauer Eingehen. IDE: Der Name IDE bedeutet "Integrated Device Electronics" und besagt eigentlich nur, dass ein Teil der Steuerungsfähigkeiten (Controller) für den Festplattenbetrieb bereits im Gerät integriert ist. IDE ist ein älterer Standard für den Anschluss von Festplatten und CD/DVDLaufwerken. Heutzutage wird er auch oft PATA genannt um ihn von den SATAModellen besser zu unterscheiden. SCSI: Der Name SCSI steht für Small Computer System Interface und ist eine andere Schnittstelle für Festplatten diese Festplatten auch SCSI-Festplatten genannt können nicht nur zwischen zwei sondern je nach Controller zwischen 7 bzw. 15 Adressen auswählen, hierfür befinden sich an alten SCSI-Laufwerken 3 bis 4 Jumper für die Vergabe von Adressen diese werden auch SCSI-ID-Number genannt. Bei Modernen SCSI-Systemen wird die Adressierung automatisiert und der Reihenfolge am Kabel die IDs vergeben, hier sind die Jumper nur noch relevant sofern eine Adressvergabe beeinflusst werden soll. SATA: Auch bekannt als Serial ATA(S-ATA) ist eine aktuelle Festplatten-Schnittstelle welche seit 2002 sich gegenüber der ATA-Schnittstelle durchgesetzt hat, die Vorteile von SATA sind höhere Datenraten, vereinfachte Verkabelung, für Anwendungen relevante zusätzliche Funktionen und die Fähigkeit Geräte im laufenden Betrieb auszutauschen(Hot Plug). SAS: Die SAS-Technik auch bekannt als Serial Attached SCSI basiert auf der bereits etablierten SCSI-Technik, sendet aber im Vergleich die Daten alle Seriell und nutzt eigene Ports anstatt eines gemeinsamen BUS-Systems. Deutlich Höhere Geschwindigkeiten, können ebenfalls theoretisch eine Anzahl von bis zu 16 000 Geräte in einem Verbund angesprochen werden, der weitere Vorteil ist die Kabellänge von bis zu 10 Metern Länge. Struktur: Magnetische Festplatten organisieren ihre Daten – im Gegensatz zu anderen Speichern in Strukturierten Datenblöcken (wie z. B. 512, 2048 oder 4096 Byte) dadurch wird dieses Verfahren auch blockbasierte Adressierung genannt. Dabei können seitens der Hardware immer nur ganze Datenblöcke oder Sektoren gelesen und geschrieben werden. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 20 von 26 Das Arbeitsbuch Ausbildung Informatik Das Lesen von Blöcken erfolgt durch Angabe der linearen Sektor Nummer. Die Festplatte „weiß“, wo sich dieser Block befindet, und liest beziehungsweise schreibt ihn auf Anforderung. Formatierung: Jede Partition wird vom Betriebssystem gewöhnlich mit einem Datensystem formatiert, je nach Datensystem, werden mehrere Blöcke zu Clustern zusammengefasst, die dann die kleinste logische Einheit für Daten sind, die auf die Platte geschrieben werden. Das Dateisystem sorgt dafür, dass Daten in Form von Dateien auf die Platte abgelegt werden können. Ein Inhaltsverzeichnis im Dateisystem sorgt dafür, dass Dateien wiedergefunden werden und hierarchisch organisiert abgelegt werden können. Der Dateisystem-Treiber verwaltet die belegten, verfügbaren und defekten Cluster. Grösse: Es gibt Festplatten in verschiedenen Formfaktoren in welchen Sie Genormt wurden und welche sich durchgesetzt haben, aktuelle Festplattengrössen sind: 3,5″-Festplatten, 2,5″-Festplatten und die 1,8″-Festplatten welche für Netbooks und sehr kleine Computer oder Laptops verwendet werden. Festplattenanschlüsse: Wie weiteroben Behandelt sind es die IDE-Kabel, S-ATA-Kabel, SCSI-Kabel und das neuste SAS-Kabel zu allen Technologien finden sie oben mehr Informationen. Kapazität: Sehr verschieden von Modell und Hersteller sowie der Normungsgrösse abhängig, für jede Normierungsgrösse gibt es eine Maximale Anzahl an Speicherkapazität. Die Grösse der Speicherkapazität einer Festplatte setzt sich aus der Grösse eines Sektors multipliziert mit der Anzahl Sektoren zusammen. Umdrehungsgeschwindigkeit: Die Standardnormen bei der Umdrehungszahl liegen zurzeit zwischen 5400und 7200 wobei erstere immer mehr durch die 9600 abgelöst wird, es gibt auch bereits erste Desktop-Festplatten mit 11000 Umdrehungen pro Minute. Diese Umdrehungsanzahlen geben an wie oft eine Festplatte sich um sich selbst dreht diese Zahl ist allerdings nicht die Wichtigste Zahl bei der Zugriffsgeschwindigkeit ist die IOPS(Input/Output operations Per Second) das entscheidende Mass. Cache: Heute in der Moderne besitzt nahezu jeder neuere Prozessor einen Prozessor-Cache diese setzen sich aus verschiedenen Ebenen zusammen, welche aufeinander aufbauen. Der Level 1-Cache auch bekannt als L1-Cache ist der schnellste und somit auch Teuerste Prozessor-Cache er befindet sich fast immer im Prozessor selbst integriert und arbeitet dadurch mit der vollen Taktgeschwindigkeit des Prozessors also in der heutigen Zeit mit mehreren GHz. Die Aktuellen Prozessoren verfügen fast allesamt über 3 Cache-Level, L1, L2 und L3 diese 3 Level verfügen alle über eine gängige Grösse: L1: 4 bis 256 KiB pro Prozessorkern L2: 64 bis 512 KiB pro Prozessorkern L3: 2 bis 32 MiB meistens für alle Prozessorkerne zusammen. Aktuelle Prozessoren haben auch eine so genannte Harvard-Cachearchitektur, das bedeutet Sie haben L1-Caches für Programme und Daten getrennt, was schnellere und synchrone Zugriffe zwischen Daten und Programmen ermöglicht. Zugriffszeiten: Ük Modul 304 Die Zugriffszeiten haben sich sehr weiterentwickelt und sind mittlerweile bei Mittleren Zugriffszeit von ca. 3.0ms(Millisekunden) im Desktop- und im Serverbereich bei ca. 2.5ms(Millisekunden) Mittlerer Zugriffszeit. Patrick Urfer 11.12.2014 Seite 21 von 26 Das Arbeitsbuch Ausbildung Informatik Optische Massenspeicher Optische Massenspeicher sind unter diesem Namen bekannt da man Sie mit Laser, also auf einer OptischFunktionierenden Basis beschreibt und liest. Es gibt 3 Optische Datenträger welche von Enormer Wichtigkeit sind und Unentbehrlich geworden sind. CD,DVD,BD CD: Auch bekannt als Compact Disc ist ein Optischer Speicher welcher seit 1980 zur digitalen Speicherung von Musik von Sony eingeführt wurde, später wurde Sie auch für die Speicherung für den Computer(CD-ROM) erweitert. Seit 1990 wurde Sie auch mit Privaten Multimedia Computern beschreibbar mit sogenannten CD-Brennern(Writer) mit welchen man so genannte CD-R beschreiben kann, und später mit CD-RW wurden mehrfach Beschreibbare CDs eingefügt, welche den Durchbruch in der Datensicherung auf CDs bedeuteten. DVD: Auch bekannt als Digital Versatile Disc ist ein Optischer Speicher welcher im Aussehen und Aufbau der Compact Disc(CD) entspricht, als sich 1990 die CompactDisc als Massenspeichermedium für den Computer durchgesetzt hatte, wuchsen nicht nur die Anwendungsfehler sondern auch die Ansprüche der Bedürfnisse der vielen Anwender, Filmindustrie und der Unterhaltungsindustrie. Ziel wurde es die Speicherkapazität der Compact Disc(CD) weiter zu erhöhen, 1995 einigten sich dann die Entwickler von Sony und Phillips durch Bedrängung von der Filmindustrie und Sie Entwickelten die Digital Versatile Disc(DVD), am Anfang nannte man Sie Digital Video Disc da Sie vor allem für Video-Medien gedacht war. 1996 kamen dann die ersten DVD-Brenne(Writer) in den Handel sowie die ersten DVD-R und kurz darauf die ersten DVD-RW seit da an setzte sich die DVD als Massenspeicher sowie Optischer Datenträger für Video- und Unterhaltungsmedien immer mehr durch. BD: Auch bekannt als Blue-ray Disc(BD) ist ein Optischer Speicher welcher als ein High-Definition-Nachfolger der DVD entwickelt wurde, wodurch Sie deutlich Höhere Datenraten und Speicherkapazität bot. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 22 von 26 Das Arbeitsbuch Ausbildung Informatik Die Blue-ray Disc setzte sich im Formatkrieg gegen die Mitstreiter wie z.B. die HD-DVD und VMD deutlich durch, deren Weiterentwicklung wurde dann schliesslich im Jahr 2008 eingestellt und seit da an ist die Blue-ray Disc einziger Vertreter Ihrer Art, und natürlich ist seit da an auch BD-R und BD-RE(Wiederbeschreibbar) erhältlich. Bei der Blue-ray Disc wurde allerdings nicht nur die Technologie der Vorgänger CD und DVD verbessert sondern es geschah eine Weiterentwicklung der Technologie, wie der Name Blue-Ray schon sagt handelt es sich um einen Blauen Strahl. Dies kommt daher dass der Laser einen Violett-Bläulichen Lichtstrahl verwendet. Funktion: Formatierung: Alle drei dieser Optischen Speichermedien haben einige Gemeinsamkeiten Sie alle haben einen genau 12cm grosse Durchmesser und alle 3 Funktionieren nach dem gleichen Grundprinzip die BD ist nur weiterentwickelt. Die Informationen sind auf einer spiralförmig nach außen verlaufenden Spur angeordnet, der Informationsbereich reflektiert Licht mit deutlichen Farberscheinungen wegen seiner Mikrostruktur, den Pits. Länge und Abstand dieser kleinen Vertiefungen bilden einen seriellen digitalen Code, der die gespeicherte Information repräsentiert. Ein weiterer Unterschied ist nur der Abstand der Datenträgerschicht zu der Fossierungsoptik, wie unschwer auf dem Bild zu erkennen. Vor der Benutzung einer CD und DVD werden Sie in eines dieser 2 Formate das Livedateisystem welches wie ein USB-Flashlaufwerk fungiert oder das Mastered-Format welches mit einem CD/DVD-Player verwendbar ist. Bei Blue-ray Disc sind es die 2 Formate namens BDAV und BDMV(Blue-Ray Movie) das BDAV funktioniert wie ein USB-Flashlaufwerk und das BMDV ist wie das Mastered-Format nur mit einigen neueren und verbesserten Funktionen. Laser: Die Entleerung von Licht entsteht durch Wiedervereinigungsprozesse von Elektronen und Löchern am Übergang zwischen positiv- und negativ-gepolten Bereichen, die Endflächen dieser Übergänge sind teilreflektierend und bilden einen Optischen Resonator in dem sich stehende Lichtwellen ausbilden können. Liegt eine Besetzungsinversion vor, können die stimulierten Entleerungen zum dominanten Strahlenprozess werden und die Laserdiode gibt dann Laserstrahlung ab, diese Laserdioden werden fast immer zusammen mit einer Photodiode(Monitordiode) gekoppelt, diese dient als Sensor um die Elektronische Schaltung konstant aufrecht zu haltenDie CD verwendet einen 780 nm(Nanometer) Laser dieser ist auch als Laserdrucker oder auch als Lichtschranken bekannt. Die DVD verwendet einen 650 nm Laser dieser ist auch als Laserpointer bekannt. die Blue-Ray-Disc verwendet ein Halbleitermaterial namens Iniumgalliumnitrad es ist ein Blau-Violett Laser. Format/Grösse: Das Einheitliche Format all dieser Datenträger ist ein Durchmesser von 12cm. Geschwindigkeiten: Die Geschwindigkeiten betreffen die Laufwerke und die Angaben bedeuten 1x = Einfache Datenrate das entspricht 36Mbit/s und 2x = Doppelte Datenrate das entspricht 72Mbit/s das ganze zieht sich weiter bis zu einer Vervielfachung der Datenrate von je nach Medium bis zu 48x = das entspricht 1728Mbit/s was unglaublich viel Geschwindigkeit ist. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 23 von 26 Das Arbeitsbuch Ausbildung Informatik Laufwerkanschlüsse: Eine Festplatte bringt man an SATA-Anschlüssen an je nach Datenraten und Geschwindigkeit wählt man einfach die SATA-Generation aus wo man das Laufwerk anschliessen möchte oder welche das Laufwerk verlangt. Bei älteren Systemen hat man Optische Laufwerke an einem IDE-Anschluss angebracht. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 24 von 26 Das Arbeitsbuch Ausbildung Informatik Flash-Speicher Flash-Speicher sind auch bekannt al s Flash-EEPROM, es sind digitale Speicherbausteine diese gewährleisten eine nichtflüchtige Speicherung bei niedrigem Energieverbrauch. CompactFlash: Ist ein Schnittstellenstandard für digitale Speichermedien er kommt vor allem in Fotoapparaten heute zum Einsatz und bei Netzwerkkomponenten, Computern, PDAs dieses CompactFlash ist in Kartenform und im Volkmunde als Speicherkarte bekannt oder auch Memory Card. SD Card: Ist die Weiterentwickelte Form des CompactFlashs der Name bedeutet Secure Digital Memory Card und ist eine Flash-Speichereinheit welche nachdem selben Prinzip wie das CompactFlash arbeitet, nur mit einigen zusätzlichen Hardware-Funktionen für die Digitale Rechteverwaltung(DRM) ab das bewirkt das die Karte unrechtmässiges Abspielen von geschützten Mediendaten verhindert. Memory Stick: Ist ein Digitales Speichermedium für Daten welches von Sony entwickelt und 1998 das erste Mal Eingeführt wurde, es gibt verschiedene Varianten der Speicherkarten in Bezug auf Grösse, Speicherplatz, Anwende Bereich und welche die mit Speziellen Kopierschutzmassnahmen versehen sind. Diese werden vor allem in Sony Produkten verwendet wie Videokameras, MP3-Playern, PDAs, Mobiltelefonen und anderen Portablen Geräten es gibt auch andere Anbieter welche die Memory-Sticks verwenden, jedoch sind die eher wenige. SmartMedia: Ist ein Digitales Speichermedium in Flash-Technologie welches in Keyboards, Groove Boxen, Sequenzern, MP3-Playern und Digitalkameras in den Einsatz kommt, ist der Nachfolger des CompactFlash und der Vorreiter der SD-Card gewesen. Diese Karte hielt nicht lange durch bis Sie von der SD-Karte verdrängt wurde, weil sie sehr Störanfällig war. Speichertechnologie: Die Speicherung eines Bits ist erfolgt über das Floating-Gate das eigentliche Speicherelement des Flash-Feldeffektransistors. Im Ungeladenen Zustand des Floating-Gates kann in den über das Steuer-Gate angesteuerten Transistor in der Source-Drain-Strecke(Kanal) Strom fliessen. Werden über das Steuer-Gate durch Anlegen einer hohen Positiven Spannung(10V+) so genannte Elektronen auf das Floating-Gate gebracht, so kann in der Source-DrainStrecke auch bei angesteuertem Transistor kein Strom mehr fliessen, weil das Negativ Potential der Elektronen auf dem Floating-Gate die Spannung des Steuer-Gates aufheben und den Flash-Transistor somit schliessen. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 25 von 26 Das Arbeitsbuch Ausbildung Informatik Anwendungsbereich: Der Anwendungsbereich liegt vor allem in Bereichen der Portablen Multimediageräten welche über eine Speichereinhei verfügen wie z.B. bei Fotoapparaten, Handy, MP3-Player und PDA(Personal Digital Assistent) diese Flash-Speicher sind meistens in Karten- oder Riegel-Form und lassen sich meistens einfach mit einfachem Stecken anschliessen. Format: Sehr unterschiedlich und von Anwendungsbereich abhängig. Geschwindigkeiten: Ebenfalls sehr unterschiedlich von je nach Klasse der einzelnen Module(Karten) und auch Generation abhängig und auch wieder je nach Anwendungsbereich und Preisklasse sehr verschieden. Die Schreibgeschwindigkeit ist bei den neueren Modellen zwischen 0.8Mbyte/s bis 95Mbyte/s und die Lesegeschwindigkeit ist meistens der Doppelte Wert der Schreibgeschwindigkeit. Laufwerkanschlüsse: Gibt verschiedene Möglichkeiten je nach Modell es gibt integrierte Card Reader, externe Card Reader, Geräte welche man mit USB verbindet und so auf das Speichermedium Zugriff erhält und auch Geräte welche man mit Bluetooth, WLAN oder sonstigen Übertragungssignale welche man durch die Luft überträgt und dann direkt über das Gerät auf das Speichermodul den gewünschten Zugriff erhält. Ük Modul 304 Patrick Urfer 11.12.2014 Seite 26 von 26