Scanner und Digitalkamera - Das Bild entsteht zunächst im Kopf!
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Scanner und Digitalkamera Das Bild entsteht zunächst im Kopf! Objektive, Sensor, Auflösung, Farbtiefe 1
Bevor wir fotografieren... ...müssen wir denken! Um etwas fotografieren zu können, müssen wir es erst einmal sehen und begrei- fen können. Doch was sehen wir tatsächlich? Vieles was wir als selbstverständ- lich erachten, ist es gar nicht. Und vieles was wir als existent erachten, gaukelt unser Gehirn uns vor. Unser Sehvermögen ist tatsächlich stark beschränkt. Von allen Wellenlängen, die in unserem Universum vorhanden sind sehen wir nur den geringsten Teil, nämlich von ca. 400 nm bis 700 nm (nm = Nanometer, Milliardstel Meter ,Millionstel Millimeter). Dass das erschreckend wenig ist, veranschaulicht die unteren Grafik, wo man sieht, dass der größte Anteil der vorhandenen Strahlung sich im Röntgen- und im Mikro/ Kurz/Mittelwelligen Bereich (Radio) verteilt. Wir sehen sie nicht, da wir keinerlei Re- zeptoren für diese Bereiche besitzen. Selbst der UV- und Infrarotbereich ist breiter angelegt als der für uns sichtbare Teil. Erschwerend hinzu kommt noch, wir sehen die einzelnen Farbbereiche auch noch un- Was sehen wir? terschiedlich intensiv. Der grüne Bereich ist für uns überproportional groß, während der gelbe verschwindend klein ist. Und doch kommt uns das Farbenspektrum gigantisch groß vor. Wir sehen nicht mit den Augen, sondern mit dem Gehirn: Unsere Augen können von den aufgenommenen Bildern nur wenig mehr verstehen Wie sehen wir? als eine Kamera. Erst im Gehirn werden die Bilder in vielen Verarbeitungs-Schritten Was brauchen wir um analysiert, interpretiert und verstanden. Daher können auch bei intakten Augen zu sehen? Wahrnehmungsschwierigkeiten auftreten. Das Licht der Umwelt fällt durch die Pupille, dessen Größe durch die Iris erweitert oder verengt werden kann, in das Auge. Das Auge ist ein kugelförmiger Glaskörper, der fast komplett mit der Netzhaut ausgekleidet ist. Diese ist mit zwei verschie- denen Arten von Rezeptoren bestückt, den Stäbchen und Zapfen, die das Licht durch photochemische Prozesse in Nervenimpulse umwandeln und sich gegenseitig lateral hemmen oder stimulieren können. Die Stäbchen erbringen keine so hohe Auflösung wie die Zapfen, die für scharfes Farbsehen bei hellen Lichtverhältnissen zuständig sind. Die Stäbchen reagieren dagegen selbst bei dunklen Lichtverhältnissen mit un- scharfem Schwarz-Weiß-Sehen auf Licht. Anatomie und Physiologie des Auges Ein besonderer Bereich der Netzhaut ist der gelbe Fleck, auch Fovea centralis ge- nannt. Dort befindet sich eine relativ hohe Zahl von Zapfen. Wenn man einen Be- reich des Sichtfeldes fokussiert, wird das Auge auf den Bereich gerichtet und die Linse bündelt das Licht so, dass der Brennpunkt auf dem gelben Fleck liegt. Das ermöglicht Scharfsehen in einem kleinen Bereich des Sichtfeldes, wodurch kleinste Details erkennbar werden. Der restliche Bereich des Sichtfeldes nimmt dagegen nur globale Informationen der Umwelt und vor allem Bewegungen wahr. Der blinde Fleck ist der Bereich, in dem der Sehnerv das Auge verlässt. Die Existenz dieses Bereichs lässt sich mit folgendem Experiment feststellen. Hält man ein Auge geschlossen und bewegt ein Objekt, welches man nicht anvisiert - beispielsweise einen Stift - vor dem geöffnetem Auge, so wird er bei einem Abstand von ca. 20 cm und ca. 30° Winkel von der Sichtachse unsichtbar. 2
Die Augen des Menschen können also nur in einem Bruchteil des Gesichtsfeldes scharf sehen, daher tasten wir unsere Umgebung mit 3 bis 5 Blicksprüngen pro Sekunde ab und unser Gehirn setzt die Einzelbilder zu einem Gesamt-Eindruck zusammen. Daraus entstehen drei unterschiedliche Bildwinkel: Kernbildwinkel, 0,4 - 1° willkürlicher Sichtwinkel oder Fokussierfläche Normalbildwinkel, ≈ 45°, unser normal empfundenes Bildfeld, unwillkürlich Gesichtsfeld, ≈180-190°, ergibt keine Bilder, sondern nur bewegungssensorisch, grobe Veränderung im Bildfeld, keine will- kürliche Steuerung Eine der wichtigsten Funktionen der visuellen Informationsver- arbeitung ist die Wahrnehmung von Tiefen und Oberflächen. Das menschliche visuelle System kann wie folgt auf drei Möglichkeiten zurückgreifen, um aus dem zwei- dimensionalen Bild ein dreidimen- sionales zu machen. Ein Hinweis der wahrgenommenen Welt, der einen aber schnell täu- schen kann, ist der Texturgradi- ent. Die Texturen sind zwar auf ei- Tiefen- und Oberflächenwahrnehmung ner ebenen Fläche, aber auf Grund ihrer Struktur gewinnt die Darstel- lung an Tiefe, sie wirkt dreidimen- Eyetracking bei einer Bildbetrachtung ( Aufzeichnung der sional. Pupillenbewegungen) Eine weitere Quelle von Informationen, die dem Gehirn zu einer dreidimensionalen Sicht der Dinge verhilft, ist die Bewegung. Durch das Bewegen des Kopfes stellt das visuelle System fest, welche Objekte sich schneller, welche sich langsamer und in wel- chem Verhältnis zueinander bewegen, selbst wenn nur ein Auge geöffnet ist. Objekte, die sich weiter in der Tiefe befinden, bewegen sich im Verhältnis zu den Objekten im Vordergrund langsamer. Man sieht die Dinge zwar zeitverzögert und deshalb aus ver- schiedenen Blickwinkeln, wodurch sich Tiefe und Räumlichkeit einstellen. Beispiele für Texturgradienten 1950 Es können zwar alle visuellen Reize sowie Balken und Kanten und ihre jeweilige Lage im Raum wahrgenommen werden. Die wahrgenommenen Informationen werden jedoch noch nicht als Objekte wahrgenommen, weil nicht klar ist, welche Balken und welche Linien zusammengehören. Die Organisation von Balken und Linien zu Einheiten, also zu Objekten, folgt bestimmten Gesetzen, welche im Folgenden erläutert werden. Die Gestaltgesetze, nach denen das unser visuelles System Objekte erkennt, auf die wir unsere Aufmerksamkeit richten können. Objektwahrnehmung und Gestalt- • Gesetz der Nähe psychologie • Gesetz der Geschlossenheit • Gesetz der Ähnlichkeit/Gleichheit Die Gestaltgesetze • Gesetz der guten Fortsetzung • Das Gesetz des gemeinsamen Schicksals • Das Gesetz der Symmetrie Objektidentifikation Der Weg der visuellen Wahrnehmung ist durch die Zergliederung der Welt in einzelne Objekte noch nicht beendet, denn das visuelle System muss die ausgemachten Objekte noch identifizieren. 3
Camera obscura oder Lange bevor es die ersten massentauglichen Kameras im 19. Jahrhundert gab, gab es schon ähnliche Instru- der Vorläufer aller Ka- mente - die camera obscura (lat. das dunkle Zimmer). Eine große leere Box mit einem winzigen Loch auf der meras einen, das auf die gegenüberliegenden Seite ein auf dem Kopf stehendes, gedrehtes Bild von dem was vor dem Loch zusehenden Bild warf. An diesem Prinzip hat sich bis heute nichts grundlegendes geändert. Die Kameras der Neuzeit haben nun mehr „Eigenintelligenz“ sind anpassungsfähiger und geben dem Fotografen wesentlich mehr Kontrolle über das was er tut. Und das Lichtloch wurde aufgrund seiner lichtbrechenden Eigenschaften durch geschliffenes Glas ersetzt und erlaubt durch die höhrere Anpassungsmöglichkeiten beim Erfassen ein flexibleres Arbeiten. So bekam im erwähnten 19. Jahrhundert die Camera einen Sucher um das aufzuneh- mende Bild einfacher zu erfassen. Die Kamera Wir unterscheiden in erster Linie die vielen verschiedenen Kameratypen an zwei Merkmalen: Merkmal 1 der “Film”-typ: Minoxkameras Pocketkameras APS Kameras Kleinbildkameras Mittelformatkameras Großformatkameras Digitalkameras (mit vielen weiteren Untergruppen) Merkmal 2 der Suchertyp: Sucherkameras Spiegelreflexkameras Digitalkameras mit Display “Film”-typen Für unterschiedliche Aufgabengebiete und Qualitätsansprüche standen und stehen unterschiedliche For- mate des Aufnahmematerials zur Verfügung. Die meisten Kameras kann man nur mit einem Filmformat be- nutzen, so dass die unterschiedlichen Kameratypen auch anhand des benutzten Filmformates unterschieden weden können. Filmformate Typische Filmformate (in Millimeter des Negativformats) sind: 18 x 24 - Pocketformat 24 x 35 - Kleinbildformat 60 x 60, 60 x 70, 60 x 90 Mittelformat 9 x 12 (eig. 90 x 120), 13 x 18, 18 x 24 - Großformat Suchertypen Fast jede Kamera hat einen Sucher, mit dem man mehr oder weniger genau bestimmen kann, was aufs Foto kommt. Für die unterschiedlichen Einsatzzwecke gibt es unterschiedliche Suchertypen. Da die meisten Ka- meras nur einen Suchertyp haben, können wir sie anhand dieses Merkmals unterscheiden und grob in drei Gruppen, in Sucher- und in Spiegelreflexkameras, und seit neuestem noch in Digitalkameras mit Display einteilen. Bei den Sucherkameras sehen wir das Bild durch eine spezielle Vorrichtung, die sehr einfach, ähnlich dem Visier eines Gewehres, ist. Wie sehen dabei quasi über Kimme und Korn. Aufwendigere Sucher haben ein Linsensystem, also eine Art Zielfernrohr (aber meist ohne den Vergrößerungseffekt). Spiegelreflexkameras (genauer gesagt: einäugige Spiegelreflexkameras) ermöglichen es dem Fotografen, das Bild durch das (Aufnahme-) Objektiv zu sehen. Vornehmlich bei den High-Class-Kameras der Hersteller Nikon und Canon ist man in der Lage genau 100% des Bildes zu sehen und zu bestimmen. Was eine sehr genaue Aufnahme und professionelle Weiterbearbeitung erst möglich macht. 4
Objektive Objektive braucht jede Kamera. In den kleinen billigen Taschenkameras wie auch in den Höherwertigen. Wir teilen die Objektive in folgende Gruppen: Normal-, Weitwinkel- und Fernobjektiven. Zoomobjektiv/ Die oben genannten Kategorien gelten für Festbrennweiten-Objektive, im Gegensatz zu den in der Amateur- Festbrennweiten, fotografie heutzutage häufig gebrauchten Zoomobjektiven. Lässt sich die Brennweite des Objektivs ändern, spricht man von einem Zoomobjektiv, sonst von einer Festbrennweite. Weitere wichtige Unterscheidungsmerkmale sind die Anfangsöffnung, oder anders ausgedrückt: wie licht- stark ein Objektiv ist, und der Bildwinkel, in dem ein Objektiv ein scharfes Bild entwirft. Das Format der Objektive, auch der Digitalobjektive, ist heute immer noch bestimmt durch die ursprüngliche Spezifikation der 1. Leica, die das 35 mm Film-Format definierte. Grundkonstruktion eines Tessars. Der bekannteste Objektivtyp. Die Objektivarten Als Normalobjektive gelten in der Fotografie Objektive mit einer Brennweite, die etwa der Diagonalen des Aufnahme-Bildformats entspricht. Damit ergibt sich unabhängig vom Aufnahmeformat ein diagonaler Bild- winkel von etwa 46 Grad. Objektive mit einer kürzeren Brennweite (und größerem Bildwinkel) als Normal- objektive werden je nach Bauart als Weitwinkel- oder Retroobjektive bezeichnet. Objektive mit längerer Brennweite (und kleinerem Bildwinkel) als Fern- oder Teleobjektive. Man kann die Objektivarten anhand der Brennweite einteilen und/oder des Aufnahmewinkels. Ausgehend vom Bildwinkel des Normalobjektivs von ca 46° (50°) hat ein Teleobjektiv einen Bildwinkel von ca. 24°, und ein Weitwinkelobjektiv einen von ca. 90° Nach der Brennweite ausgehend hätte ausgehend vom Normalobjektiv von 50mm ein Teleobjektiv eine Brennweite von 100mm und ein Weitwinkelobjektiv eine Brennweite von 25mm Eine zusätzliche Orientierung wäre noch die Formatorientierung: Ausgehend vom Aufnahme-Format 24 x 36mm wäre die Unterscheidung die Kurze Seite ist das Weitwinkel = 24mm und 2mal die lange Seite bezeichnet den Beginn der Telebrennweiten 2x 36mm = 72 mm und die Diagonale bestimmt die Normalbrennweite. Warum ein Die Verwendung eines Normalobjektivs ergibt in vielen Aufnahmesituationen einen natürlichen perspekti- Normalobjektiv? vischen Eindruck beim Betrachten des fertigen Fotos. Vor der massenhaften Verbreitung der Zoomobjektive wurden Spiegelreflexkameras meist zusammen mit einem Normalobjektiv verkauft. Aufgrund der hohen Stückzahlen und der unkomplizierten, optisch oft nahezu symmetrischen Konstruktion sind Normalobjektive die preiswertesten lichtstarken Objektive mit meist ausgezeichneten Abbildungseigenschaften. Was ist ein Bei Kleinbildkameras hat sich eine Brennweite von 50 mm in der Praxis durchgesetzt, obwohl die Normalobjektiv? Diagonale des Aufnahmeformats (24 mm x 36 mm) 43,3 mm beträgt. Wenn man aber das Format quadratisch auffasst also 36 x 36 kommt als Diagonale 50,9 mm raus. 5
Einzelne Hersteller bezeichnen auch Objektive mit 55 mm bis 60 mm Brennweite noch als Norma- lobjektiv. Kompaktkameras mit fest montiertem Objektiv weisen dagegen häufig leichte Weitwin- kel mit Brennweiten zwischen etwa 35 mm und 45 mm auf. Bei Mittelformatkameras mit einem Aufnahmeformat von 6 cm x 6 cm ergibt sich entsprechend etwa 85 mm als Normalbrennweite. Das früher häufig verwendete Rollfilmformat 6x9 cm mit 105 mm Normalbrennweite gilt heute als Großformat. Wie bestimme ich Länge der Bilddigonale = Brennweite des Normalobjektives (Bildwinkel 46° /56°) ein Normalobjektiv? Bei Großformatkameras, die es von 6 cm x 9 cm bis 18 cm x 24 cm Bildformat, aber auch mit nicht- metrischen Abmessungen, z.B. 8x10” (inch), gibt, wird der Zusammenhang deutlich: ein Normalob- jektiv für das Bildformat 6 cm x 9 cm (Bilddiagonale = 10,8 cm) mit einer Brennweite von 105 mm wäre für das nächstgrößere Format 9 cm x 12 cm (Bilddiagonale = 15,0 cm) schon eher ein leichtes Weitwinkelobjektiv. Was ist anders bei Digitalka- Durch die gegenüber einer Kleinbildkamera kleinere Bildfläche des Sensors ergeben sich für glei- meras? che genutzte Bildwinkel scheinbar andere Brennweiten für die Objektive. Dies wird fälschlicher- weise als Brennweitenverlängerung bezeichnet, da die Brennweite des Objektives natürlich nicht geändert ist. Um die Objektive weiterhin auf einfache Weise mit dem herkömmlichen Kleinbildformat ver- gleichen zu können, geben viele Hersteller von kom- pakten Digitalkameras zusätzlich zur realen Brennwei- te ihre Objektive auch mit der Brennweite an, welche im Kleinbildformat den gleichen Bildwinkel erreichen würde. Bei den Objektiven haben wir ja gesehen wie man sowas berechnen kann.Es gibt viele Sensoren die kleiner als das Kleinbildformat sind zBsp der APS -C-Sensor 15 x 22,5 mm und trotzdem werden die Kleinbildformat-Angaben benutzt. Aufgrund des kleineren Ausschnitts und der daraus resultierenden größeren Abbildung spricht man vom Crop Faktor. Den errechnet man wenn man die große durch die kleinere Bild-Diagonale teilt Copfaktor Kleinbild/APS-C = 50,9 mm/30mm = 1,5/1,6 Dieser Wert sagt aus um wieviel sich die bildnerische Brennweite vergrößert. Was ist ein Fern- Ein Fernobjektiv ist in der Fotografie ein Objektiv langer Brennweite mit einfachem Linsensystem oder Teleobjektiv? (oft ein Triplet oder Achromat), das in der Baulänge ungefähr der Brennweite entspricht. Dagegen hat ein Teleobjektiv durch den Einsatz eines hinteren Zerstreuungsglieds, das wie ein integrierter Telekonverter wirkt, eine verkürzte Baulänge. Hier verringert sich der Bildwinkel und die Brennweite verlängert sich. Diagonale Bildwinkel ab 31° und Brennweiten ab 70mm bezeichnet man als Telebrennweiten 85 mm (diagonaler Bildwinkel 28° 30‘), 100 mm (diagonaler Bildwinkel 24°). 135 mm (diagonaler Bildwinkel 18°); 180 mm, wie das Carl Zeiss Sonnar 2,8/180 (erstmals zu den Olympischen Spielen 1936 vorgestellt); 200 mm (diagonaler Bildwinkel 12,3°). 300 mm (diagonaler Bildwinkel 8,2°) 400 mm (diagonaler Bildwinkel 6,2°) 500 mm (diagonaler Bildwinkel 5,0°) 600 mm (diagonaler Bildwinkel 4,1°) 800 mm (diagonaler Bildwinkel 3,1°) 1200 mm (diagonaler Bildwinkel 2,1°) Bildnerische Wirkung: • geringere Schärfentiefe • dadurch einHervorhebung des Objektes • enger Bildausschnitt • exakte Scharfeinstellung 6
Die bildnerische Wirkung bei Teleobjektiven abhängig von der Brennweite 70 mm 100 mm 135 mm 200 mm 300 mm 500 mm 1000 mm 2000 mm 7
Was ist ein Ein Weitwinkelobjektiv ist ein Objektiv mit einer gegenüber dem Normalobjektiv kürzeren Brennwei- Weitwinkelobjektiv? te und größerem Bildwinkel. Weitwinkelobjektive können als Wechselobjektiv an geeignete Kameras angeschlossen werden oder sind in diese fest integriert. Durch die - im Vergleich zum Normalobjektiv - kürzere Brennweite treten folgende Effekte auf: • größereSchärfentiefe bei vergleichbarer Blende • (dadurch) schlechtere Freistellungsmöglichkeit • weiterer Bildausschnitt • (wenn notwendig oder erwünscht) schlechtere manuelle Scharfeinstellung • (scheinbare) Übersteigerung der Perspektive (nur scheinbar, da die Perspektive allein durch den Aufnahmeabstand beeinflusst wird Reportageobjektive sind Weitwinkelobjektive mit einer leichten bis mittleren Weitwinkelwirkung, die sich bei einem diagonalen Bildwinkel zwischen 60° und 75° und einer auf Kleinbild bezogenen Brennweite zwischen etwa 28 mm und 38 mm einstellt. Sie werden auf Grund der höheren Schär- fentiefe und der noch relativ geringen Verzerrungen gerne für die Reportagefotografie verwendet. Typische Reportagebrennweiten werden auch von den meisten preiswerten Weitwinkelobjektiven Gemäßigte Weitwinkelobjek- und Universalzooms (oft als Kit-Objektiv bezeichnet) abgedeckt. In diesem Brennweitenbereich gibt tive es für analoge und digitale Spiegelreflexkameras auch Objektive mit sehr hohen Lichtstärken. (Reportageobjektive) Als gemäßigte Weitwinkelbrennweiten (auf Kleinbild bezogen) gelten: 35 mm (diagonaler Bildwinkel 63°) und 28 mm (diagonaler Bildwinkel 75°). Als Superweitwinkelobjektive werden Weitwinkelobjektive mit diagonalen Bildwinkeln über 80° an- Superweitwinkelobjektive gesehen. Superweitwinkelobjektive werden auch als Ultraweitwinkelobjektive bezeichnet, gängige Abkürzungen sind SWW und UWW. Solche Objektive werden gezielt beispielsweise in der künstle- rischen und Naturfotografie sorgen spektakuläre Effekte durch die für diese Brennweiten typischen Verzerrungen. Das Superweitwinkelobjektiv mit der kürzesten Brennweite, das noch relativ verzer- rungsfrei und scharf abbildet, ist das Goerz-Hypergon, das einen Bildwinkel von 130° abbilden kann. Typische Superweitwinkelbrennweiten für das Kleinbildformat sind: 24 mm (diagonaler Bildwinkel 84°), 20 mm (diagonaler Bildwinkel 94°), 17 mm (diagonaler Bildwinkel 104°) und 14 mm (diagonaler Bildwinkel 114°). Eine Sondergruppe unter den Objektiven. Das Fischaugen-Objektiv (engl. Fisheye) weist im Gegen- Fischaugen-Objektive satz zu Superweitwinkelobjektiven eine andere Art der Projektion auf. Damit verbunden sind fol- gende Unterschiede: Gerade Linien, die nicht durch den Bildmittelpunkt gehen, werden nach außen gebogen. Es sind Bildwinkel von bis zu 180°, teilweise auch darüber hinaus, möglich, die bei normalen Objek- tiven prinzipiell nicht möglich sind. Starke Verzeichnungen und Verzerrungen sind möglich. der von der Optik abgebildete Winkelbereich (typisch sind 150° bis 180°, Ausnahmen bis 220°) Je nach verwendetem Sensor bzw. lichtempfindliche Filmfläche können folgende Fälle der Abde- ckung zwischen Optik und Aufnahmefläche auftreten: der Sensor wird vollständig vom Objektiv belichtet (normales rechteckiges Bild). Bei Sensoren in Kleinbildgröße und 180° Bildwinkel ist das ab 14 mm Brennweite der Fall. der Sensor wird teilweise vom Objektiv belichtet, es geht gleichzeitig auch Licht am Sensor vorbei. Bei Sensoren in Kleinbildgröße und 180° Bildwinkel ist das zwischen 8 mm und 13,5 mm Brennweite der Fall. das gesamte von der Optik kommende Licht landet auf dem Sensor (rundes, zirkulares Bild). Bei Sensoren in Kleinbildgröße und 180° Bildwinkel ist das bis 7,5 mm Brennweite der Fall. 16 mm (diagonaler Bildwinkel 180°, Vollformat) 7,5 mm oder 8 mm (rundes Bild) Ein Exot ist das Nikkor mit 6 mm Brennweite und 220° Bildwinkel, seit den 1960er Jahren in unter- schiedlichen Versionen auf dem Markt, das ebenfalls ein rundes Bild erzeugt, aber dabei gewisser- maßen ein Stück weit “nach hinten” schauen kann. 8
Die bildnerische Wirkung bei Weitwinkelobjektiven abhängig von der Brenn- weite Digitalkamera Auch hier gibt es die Unterscheidung in Spiegelreflex, Kompaktkamera und Hand oder Pocketkame- ra. Nur steht anstelle des Filmes ein lichtempfindlicher Sensor-Chip. Ende des 20. Jahrhunderts: Einführung der Digitalfotografie. Die erste CCD (Charge-coupled Device) Still-Video-Kamera wurde 1970 von Bell konstruiert und 1972 melden Texas Instruments das erste Patent auf eine filmlose Kamera an, welche einen Fernsehbildschirm als Sucher verwendet. 1973 produzierte Fairchild Imaging das erste kommerzielle CCD mit einer Auflösung von 100 x 100 Pixel. Dieses CCD wurde 1975 in der ersten funktionstüchtigen digitalen Kamera von Kodak benutzt. Entwickelt hat sie der Erfinder Steven Sasson. Diese Kamera wog 3,6 Kilogramm, war größer als ein Toaster und benötigte noch 23 Sekunden, um ein Schwarzweiß-Bild mit 100x100 Pixeln Auflösung auf eine digitale Magnetbandkassette zu übertragen; um das Bild auf einem Bildschirm sichtbar zu machen, bedurfte es weiterer 23 Sekunden. 1986 stellte Canon mit der RC-701 die erste kommerziell erhältliche Still-Video-Kamera mit ma- gnetischer Aufzeichnung der Bilddaten vor, Minolta präsentierte den Still Video Back SVB-90 für die Minolta 9000; durch Austausch der Rückwand der Kleinbild-Spiegelreflexkamera wurde aus der Minolta 9000 eine digitale Spiegelreflexkamera; gespeichert wurden die Bilddaten auf 2-Zoll- Disketten. 1987 folgten weitere Modelle der RC-Serie von Canon sowie digitale Kameras von Fujifilm (ES-1), Konica (KC-400) und Sony (MVC-A7AF). 1988 folgte Nikon mit der QV-1000C und 1990 bzw. 1991 Kodak mit dem DCS-System (Digital Camera System) sowie Rollei mit dem Digital Scan Pack. Ab Anfang der 1990er Jahre kann die Digitalfotografie im kommerziellen Bildproduktionsbereich als eingeführt betrachtet werden. Die Technik der Digitalen Fotografie revolutionierte auch die Möglichkeiten der Digitalen Kunst, insbesondere durch die Technik der Fotomanipulation. Auf der Photokina 2006 scheint die Zeit der Analogkamera endgültig vorbei zu sein. 9
Wie bei einer Analogkamera wird das einfallende Licht mit einem Objektiv gesammelt und auf die Filmebene, in diesem Fall auf den Sensor, scharf gestellt (fokussiert). Der Sensor ist ein elektro- nisches Bauelement, das in der Regel eine deutlich kleinere Fläche hat als ein Bild auf analogem 35-mm-Film einer Kleinbildkamera; nur wenige höherwertige Digitalkameras verfügen über einen Sensor in Größe des APS-C-Negativs oder sogar über einen Vollformatsensor. Im professionellen Mittelformatbereich werden noch größere Sensoren eingesetzt. Der Sensor Es werden grundsätzlich zwei Sensortypen unterschieden: Flächensensor und Zeilensensor. Beim Flächensensor registriert der Bildwandler entweder gleichzeitig die drei Grundfarben (One- shot-Kameras) oder nacheinander (Three-Shot-Kameras, seltener). Es existieren im Wesentlichen zwei verschiedene marktgängige Flächensensor-Typen, der weit verbreitete CCD-Sensor (Canon, Hewlett-Packard, Kodak, Nikon, Olympus, Panasonic, Pentax, Samsung oder Sony) mit der Variante des Super-CCD-Sensor (nur Fujifilm) sowie der CMOS-Sensor (Canon, Leaf, Hasselblad, Kodak, Einsatzgebiete Nikon und viele Billig Cameras ind Handys) . Eine Sonderstellung nimmt der Foveon-Sensor ein, der in Sigma-Kameras zum Einsatz kommt. Dabei handelt es sich um einen dreischichtigen Sensor, der rotes, grünes und blaues Licht mit jedem Bildpunkt aufzeichnet. Vorteile CMOS gegenüber CCD Geringerer Stromverbrauch. Bei großen Stückzahlen billiger herzustellen. Es lassen sich mehrere Pixel gleichzeitig auslesen. Die Auslesesteuerung kann direkt auf dem Sensor integriert werden (System on Chip). Kaum Blooming. Flexibler auszulesen (schneller Preview, Video, Binning, mehrfaches Auslesen). Mit entsprechenden Pixel kann der Sensor gleichzeitig belichtet und ausgelesen werden. Nicht-rechteckige Pixel (Bienenwaben) möglich (Hinweis: auch Fujifilms Super-CCD-Sensor verwendet wabenförmige Pixel). Verschiedene Pixelarten (Größe, Empfindlichkeit) kombinierbar. Manche Verarbeitungsschritte können gleich im Pixel-Verstärker vorgenommen werden, z. B. Loga- rithmierung beim HDRC-Sensor (high dynamic range CMOS). Sehr hohe Bildraten im Vergleich zu einem CCD selber Größe. Nachteile CMOS gegenüber CCD geringerer Füllfaktor (Verhältnis der photoempfindlichen zur gesamten Pixelfläche) größere Empfindlichkeitsunterschiede zwischen den Pixeln, was bei Bayer-Sensoren zu einem stär- keren Farbrauschen führt. übliche CMOS-Sensoren sind weniger lichtempfindlich als CCD-Sensoren (Ausnahme: teure Spezialsensoren) Zeilensensoren werden in Scanner und in Scannerkameras eingesetzt, die nach dem Scannerprinzip funktionieren, das heißt, sie arbeiten ähnlich wie ein Flachbettscanner und tasten das Bild zeilen- weise ab. Auf dem CCD-Chip einer Digitalkamera hat es nicht etwa rote, grüne und blaue CCD-Elemente zu je einem Drittel Zeile für Zeile abwechselnd. Vielmehr sind rote, grüne und blaue Filterelemente karoartig angeordnet (zu sogenannten Quadru- peln), wobei die Anzahl der grünen Elemente 50% beträgt, während von den roten und blauen Elementen nur jeweils 25% vorhanden sind. Der Grund für diese ungleichmäßige Verteilung liegt im Farbwahrnehmungsvermögen des menschli- chen Auges. Wobei die Angabe zur Kameraauflö- sung die Gesamtanzahl der Pixel angibt, sind in Bayer-Matrix Qadrupeln immer 4 Pixel angeordnet. Die Kamera- so benannt nach einem Ingenieur logik errechnet dann wieder die Geamtauflösung. bei Kodak, der diese Anordnung auf dem CCD entwickelt hat Fazit: die nominelle Kamerauflösung entspricht nur zu einem Drittel der echten Auflösung. 10
Kamerainterne Das fotografische Bild entsteht in einer Digitalkamera in folgenden Schritten (am Beispiel einer Bildverarbeitung digitalen Spiegelreflexkamera): • Scharfstellung des Bildes entweder mit Autofokus, oder manuell, wobei Hilfen wie eine Einstell- scheibe (bei optischem Sucher) oder Softwarelupe und Kantenanhebung (bei digitalem Sucher- bild) möglich sinda • Abschätzen einer sinnvollen Belichtungszeit und Blende (Belichtungswert) • Optische Projektion durch das Objektiv auf den Bildsensor • Optische Filterung zum Beispiel durch Tiefpass-, Infrarot-, Farbfilter und Farbmosaiken (meist im Bildsensor integriert) • Wandlung der Lichtintensitäten in analoge elektrische Signale in diskreten Stufen (Diskretisierung) bzw. Digitalisierung der Si- gnale durch Analog-Digital-Wandlung (Quantisierung) • Bildverarbeitung der Bilddatei: • Umrechnung von Signalen in Helligkeiten • Farbrekonstruktion • Rauschunterdrückung • Entfernen bekannter korrigierbarer Fehler des Bildaufnahme- systems (defekte Pixel, Übersprechen, Nachschärfen, Randlicht- abfall, Verzeichnung, chromatische Aberration) • Komprimierung der Bilddatei • Speicherung der Bilddatei. Neben der CCD-Auflösung entscheiden aber auch das optische System und die Elektronik über das Gesamtergebnis. Die Grenze der Auflösung wird sowohl bei der analogen als auch digitalen Foto- grafie durch die Objektive bestimmt. Beispiel: Die besten zur Zeit auf dem Markt verfügbaren Objektive wie zum Beispiel das Leica Summilux-R 1:1,4/80 mm (2003: 3.000 Euro) haben das Auflösungsvermögen von vergleichbaren 20 Megapi- xeln. Ein sehr gutes Zoom-Objektiv wie das Canon 28–70mm f/2.8 (2003: 1.000 Euro) hat eine Auflösung von ca. 61 lp/mm (Linienpaaren/Millimeter), was etwa 13 Megapixeln entspricht. Bei billigen Digitalkameras wird hauptsächlich an der Optik gespart. Für verschiedene Zielgruppen und -einsätze reichen bestimmte Auflösungen aus: 2–3 Megapixel: Schnappschüsse, Urlaubsfotos, Kompaktkameraersatz, 3–4 Megapixel: Abzüge bis maximal DIN A4-Größe, > 5 Megapixel: professioneller Einsatz durch Designer und Grafiker. Die Pixelanzahl gibt auch nur näherungsweise die Auflösung feiner Strukturen wieder. Bei der Digitalisierung gilt das Nyquist-Shannon-Abtasttheorem. Danach darf die maximale im Bild auftre- tende Frequenz maximal halb so groß sein, wie die Abtastfrequenz, weil es sonst zu unerwünschten Bildverfälschungen, zum Beispiel zu Moiréerscheinungen, kommt und das Originalsignal nicht wie- der hergestellt werden kann. Jede Digitalkamera führt nach oder bereits während der Bildwandlung eine Reihe von Verarbei- tungsprozessen wie Weißabgleich, Erhöhung der Farbsättigung, Anheben des Kontrasts, Tonwert- korrektur, Filterung, Schärfen, verlustbehaftete Komprimierung usw. durch; Consumer-Kameras schärfen auch dann noch nach, wenn man diese Funktion abgeschaltet hat. Neue Kamerasysteme Im Zuge der Digitalisierung der Kameras wurden neue Kameragehäuse zunächst häufig den alten Kamerasystemen angepasst, indem trotz der Verkleinerung der effektiven Bildkreise die Objektiv- anschlüsse und Objektive beibehalten wurden. Olympus stellte 2005 mit der Olympus E-1 die erste Spiegelreflexkamera des Four-Thirds-Standards vor, der von Grund auf und eigens für digitale Fo- tografie entwickelt wurde. Dieser herstellerübergreifende Standard wurde 2008 mit dem ersten spiegellosen Kamerageäuse mit elektronischem Sucher, der Panasonic LUMIX DMC-G1, zum Micro- Four-Thirds-Standard weiterentwickelt. Viele andere Anbieter von Systemkameras haben mittler- weise proprietäre Kamerasysteme für solche spiegellosen Digitalkameras herausgebracht, wie zum Beispiel Sony NEX, Samsung NX, Pentax Q, Nikon 1 oder Canon EOS M. 11
Bildformate Bei den Kameradateiformaten haben wir momentan 3 Formate: • als verlustbehafteter Modus nach EXIF-Standard das JPEG-Format • als verlustfreier Modus TIFF . • Daneben gibt es bei höherwertigen Kameras das proprietäre Rohdatenformat (RAW). Das EXIF-Format Digitalkameras betten in die Bilddaten auch so genannte Metainformationen ein, die im EXIF-Standard spezifi- ziert sind. Diese EXIF-Metadaten finden sich im so genannten Header der Bilddatei. Viele Bildbearbeitungspro- gramme sowie spezielle Tools können diese Daten auslesen und anzeigen. Sie können auch Anwendung finden bei der Ausbelichtung des digitalen Bildes auf Fotopapier im Fotolabor. Das Exchangeable Image File Format (EXIF) ist ein Standard der Japan Electronic and Information Technology Industries Association (JEITA) für das Dateiformat, in dem moderne Digitalkameras ihre Daten speichern. Zu den via EXIF automatisch für jede Aufnahme gespeicherten Parametern gehören beispielsweise: • Datum und Uhrzeit • Orientierung (Bilddrehung um 90, 180 bzw. 270°) • Brennweite • Belichtungszeit • Blendeneinstellung • Belichtungsprogramm • ISO-Wert („Lichtempfindlichkeit“) • GPS-Koordinaten (siehe Fotoverortung Geo-Imaging) • Vorschaubild („Thumbnail“) Weitere nützliche Informationen können nachträglich in Form der sogenannten IPTC-Daten (In- ternational Press Telecommunications Council) hinzugefügt werden: • Kommentar (z. B. in Form einer Bildbeschreibung) • Künstlername • Hinweise zum Urheberrecht der Datei Exif-Daten werden direkt in die Datei von Bildern der Formate JFIF (JPEG) oder TIFF geschrieben – im soge- nannten Header (Bereich am Anfang der Bilddatei, noch vor den eigentlichen Bildinformationen). Mittlerweile legt so gut wie jede Digitalkamera diese zusätzlichen Informationen zu der Aufnahme im Bild ab, auch die Kameraapplikationen der meisten Mobiltelefone erstellen Bilder mit Exif-Daten. Zahlreiche Bildbearbeitungsprogramme sowie andere Software können auf diese Daten zugreifen und sie aus- geben. Auch bei Audiodateien kommen EXIF-Daten zum Einsatz. 12
Weitere nützliche Informationen können nachträglich in Form der sogenannten IPTC-Daten (Interna- tional Press Telecommunications Council) hinzugefügt werden. Der IPTC-Standard ist neben Exif ein weiterer Standard, der überwiegend im Fotojournalismus zum Einsatz kommt. Beispiele von typischen IPTC-Feldern sind: Kommentar (z. B. in Form einer Bildbeschreibung) Künstlername Hinweise zum Urheberrecht der Datei Die Farbtiefe Bezeichnet die Anzahl der Bits, die für die Speicherung der Farbinformation eines Pixels verwendet werden. Wenn jeder Pixel mit nur einem Bit dargestellt wird, sind nur 2 Farben möglich (Standard schwarz und weiß) Unter dem Begriff Farbtiefe versteht man also die Anzahl der pro Pixel zur Verfügung stehenden Bits zur Speicherung der Farbinformationen. Die Anzahl der möglichen Farbtöne berechnet sich wie folgt: NFarbtöne = 2Farbtiefe Professioneller Standard ist Truecolor mit einer Farbtiefe von 24 Bit, da mit 16,7 Mio. Farbnuancen weit mehr Farbnuancen darstellbar sind, als das menschliche Auge differenzieren kann. Daneben gibt es noch die Graustufenbilder mit 8 Bit Farbtiefe und die Gruppe der sogenannten Bitmaps mit 1 oder 4 Bit Farbtiefe. Die Farbtiefe bestimmt zusammen mit der gewählten Auflösung (Anzahl der Pixel in der Horizontalen mal Anzahl der Pixel in der Vertikalen) den Speicher- bedarf des Bildes in Bytes. Farbtiefe Modus Farbkanalbelegung Farbanzahl 1 Bit Monochrom Keine eindeutige Zuordnung 21 = 2 4 Bit Verwendet bei EGA-Grafikkarten Keine eindeutige Zuordnung 24 = 16 8 Bit Graustufenbilder Keine eindeutige Zuordnung 28 = 256 15 Bit Real Color Rot: 5 Bit Grün: 5 Bit Blau: 5 Bit 215 = 32.768 16 Bit High Color Rot: 5 Bit Grün: 6 Bit Blau: 5 Bit 216 = 65.536 24 Bit True Color Je ein Byte (8 Bit) für R, G und B 224 = 16.777.216 24 Bit Farbe + 8 Bit Alpha True Color Je ein Byte (8 Bit) für R, G und B 224 = 16.777.216 mit 8-Bit-Alphakanal und α 36 Bit hochwertige Fotografie Je 12 Bit für R, G und B 236 = 68.719.476.736 42 Bit hochwertige Flachbildfernseher Je 14 Bit für R, G und B 242 = 4.398.045.511.104 48 Bit hochwertige Flachbettscanner Je 16 Bit für R, G und B 248 = 281.474.976.710.656 13
Digitalfotos besitzen üblicherweise eine Farbtiefe von 24 bit. In der Praxis gibt es natürlich kein Foto, das wirk- lich alle Einzelfarben besitzt - der Durchschnitt liegt deutlich darunter. Der Vorteil der 24-bit Farbtiefe kommt dennoch bei fast jedem Foto deutlich zum Tragen, wie man anhand eines Vergleichs mit einer 16-bit-Version desselben Fotos feststellen kann. Das Foto mit 16-bit Farbtiefe zeigt erkennbare, oft sehr störende Treppchen- muster bei Farbübergängen, die bei 24-bit Farbtiefe nicht mehr sichtbar sind. Der Vorteil der höheren Farbtiefe liegt also weniger in der Maximalzahl der möglichen Farben, sondern vielmehr in der größeren Farbdifferen- zierung. Die meisten Computermonitore können nur 8 Bit pro Kanal darstellen. In der professionellen Fotografie und für medizinische Anwendungen werden auch 16 Bit pro Kanal benötigt. Extreme Helligkeitsbereiche (tiefschwarzer Schatten und gleißendes Licht) können mit 8 Bit nicht gespeichert werden. Hierzu ist eine drastische Reduzie- rung des Kontrastumfangs und der Kontrastdifferenzierung nötig. Um diese Veränderung des Dynamikumfangs optisch ansprechend zu gestalten, finden High Dynamic Range Image (Hochkontrastbilder) Anwendung, die per Tone-Mapping-Verfahren zur Darstellung auf 8 Bit heruntergerechnet werden. Dieses Verfahren ist eine spezielle Form der Bildoptimierung. Die Auflösung Es existieren zwei Angabemöglichkeiten: absolute und relative Auflösung. Absolute Auflösung Bei der absoluten Auflösung gibt es in zwei Varianten : Die erste Variante gibt einfach nur die Gesamtanzahl der Bildpunkte an; dies ist z.B. in der Digital- fotografie mit der Einheit Megapixel üblich. Die Zweite gibt die Anzahl Bildpunkte pro Spalte (vertikal) und Zeile oder Linie (horizontal) an, wie bei Grafikkarten und Bildschirmen üblich, z.B. 1024 × 768; ebenso in der Fernsehtechnik die Anzahl der Zeilen und die der Punkte pro Zeile. Die Zweite dieser beiden Möglichkeiten, absolute Bildauflösungen anzugeben, hat den Vorteil, dass sie auch das Verhältnis zwischen der Anzahl der Bildpunkte pro Spalte und Zeile angibt, man also eine Vorstellung vom Seitenverhältnis bekommt. Es kann aber auch vorkommen, dass die Bildpunkte unförmig und willkürlich angeordnet sind oder das Bild selbst gar keine Rechteckform besitzt. In diesem Fall ist eine Angabe der Form Breite × Höhe nicht sinnvoll und man begnügt sich mit der Angabe der Gesamtzahl der Bildpunkte wie in der ersten Variante. Relative Auflösung Die relative Auflösung gibt die Anzahl der Bildpunkte im Verhältnis zu einer physikalische Längeneinheit an (z.B. angegeben in dpi, dots per inch; ppi, pixel per inch; lpi, lines per inch). Sie heißt auch Punkt-, Pixel- bzw. Zeilendichte. Alternativ kann die Größe (Kantenlänge, Durchmesser oder Fläche) eines Bildpunktes angegeben werden (z.B. in Mikrometern). Als Pixel wird aber auch ein Farbpunkt eines Bildpunkts bezeichnet. Ein Bildpunkt hat 3 Farbpixel. Bei Digital- kameras werden die Farbbildpunkte als Pixel angegeben. Hat ein Chip je 33% rote , blaue und grüne Pixel, muss die Zahl der Pixel durch drei geteilt werden um die Bildpunkte zu errechnen. Ausnahme: Beim häufig anzutreffenden Bayer-Sensor wird ausgenutzt, dass das mensch- liche Auge auf grün empfindlicher reagiert als auf die anderen Farben. Aus 50% grü- nen und je 25% roten und blauen Farbpixeln werden die Bildpunkte berechnet (inter- poliert). Die so entstehenden Einheiten aus 4 Farbpixel nennt man auch Quadrupel! Bei Spitzenkameras werden so weniger als 50% der Farbpixel in Bildpunkte umgesetzt. Consumer Modelle berechnen dagegen mehr Bildpunkte unter höherem Verlust von Farbinformationen. Analoge Fotografie 35mm Kleinbildfilm hat eine Auflösung von rund 13 bis 200 Mega-Pixeln. Die besten Objektive erreichen aber (zum Vergleich) nur etwa 20 Millionen Pixel. Gute Zooms haben ca. 13 Millionen Pixel. Dias werden mit ca. 10 Millionen Pixeln (2700dpi) gescannt. Digitalfotografie In der Digitalfotografie wird meist nur die gerundete Gesamtzahl der Bildpunkte in Megapixeln (MP) angege- ben, was unter anderem darin begründet ist, dass es anfangs fast nur das Seitenverhältnis 4:3 gab. Zunehmend gibt es aber auch das Format 3:2 der klassischen, analogen Fotografie. 14
Typische Bildauflösungen in der Digitalfotografie Name Auflösung Verhältnis Pixel Druckgröße (c m) bei 150 dpi 300 dpi 600 dpi 0,3 MP 640 × 480 4:3 307 200 10 × 8 5×4 2×2 1 MP 1152 × 864 4:3 995 328 19 × 14 9×7 4×3 1,3 MP 1280 × 960 4:3 1 228 800 21 × 16 10 × 8 5×4 2 MP 1600 × 1200 4:3 1 920 000 27 × 20 13 × 10 6×5 2,1 MP 1720 × 1280 4:3 2 201 600 29 × 21 14 × 10 7×5 3 MP 1984 × 1488 4:3 2 952 192 33 × 25 16 × 12 8×6 3 MP 2016 × 1512 4:3 3 048 192 34 × 25 17 × 12 8×6 3,3 MP 2048 × 1536 4:3 3 145 728 34 × 26 17 × 13 8×6 3,3 MP 2080 × 1560 4:3 3 244 800 35 × 26 17 × 13 8×6 4 MP 2272 × 1704 4:3 3 871 488 38 × 28 19 × 14 9×7 4 MP 2304 × 1728 4:3 3 981 312 39 × 29 19 × 14 9×7 5 MP 2560 × 1920 4:3 4 915 200 43 × 32 21 × 16 10 × 8 5 MP 2576 × 1932 4:3 4 976 832 43 × 32 21 × 16 10 × 8 5 MP 2592 × 1944 4:3 5 038 848 43 × 32 21 × 16 10 × 8 5,6 MP 2720 × 2040 4:3 5 548 800 46 × 34 23 × 17 11 × 8 6,1 MP 2848 × 2136 4:3 6 083 328 48 × 36 24 × 18 12 × 9 6,3 MP 2880 × 2160 4:3 6 220 800 48 × 36 24 × 18 12 × 9 7,1 MP 3072 × 2304 4:3 7 077 888 52 × 39 26 × 19 13 × 9 8 MP 3264 × 2448 4:3 7 990 272 55 × 41 27 × 20 13 × 10 9 MP 3488 × 2616 4:3 9 124 608 59 × 44 29 × 22 14 × 11 12 MP 4048 × 3040 4:3 12 305 920 68 × 51 34 × 25 17 × 12 22 MP 5344 × 4008 4:3 21 418 752 90 × 67 45 × 34 23 × 17 0,9 MP 1134 × 756 3:2 857 304 19 × 12 9×6 4×3 1,4 MP 1440 × 960 3:2 1 382 400 24 × 16 12 × 8 6×4 1,5 MP 1504 × 1000 3:2 1 504 000 25 × 16 12 × 8 6×4 1,6 MP 1536 × 1024 3:2 1 572 864 26 × 17 13 × 8 6×4 2 MP 1752 × 1168 3:2 2 046 336 29 × 19 14 × 9 7×4 2,8 MP 2032 × 1352 3:2 2 747 264 34 × 22 17 × 11 8×5 2,8 MP 2048 × 1360 3:2 2 785 280 34 × 23 17 × 11 8×5 3,3 MP 2240 × 1448 3:2 3 243 520 37 × 24 18 × 12 9×6 3,5 MP 2268 × 1512 3:2 3 429 216 38 × 25 19 × 12 9×6 3,5 MP 2304 × 1536 3:2 3 538 944 39 × 26 19 × 13 9×6 3,8 MP 2400 × 1600 3:2 3 840 000 40 × 27 20 × 13 10 × 6 4,3 MP 2544 × 1696 3:2 4 314 624 43 × 28 21 × 14 10 × 7 4,5 MP 2592 × 1728 3:2 4 478 976 43 × 29 21 × 14 10 × 7 6 MP 3008 × 2000 3:2 6 016 000 50 × 33 25 × 16 12 × 8 6 MP 3008 × 2008 3:2 6 040 064 50 × 34 25 × 17 12 × 8 6,1 MP 3024 × 2016 3:2 6 096 384 51 × 34 25 × 17 12 × 8 6,3 MP 3072 × 2048 3:2 6 291 456 52 × 34 26 × 17 13 × 8 6,5 MP 3104 × 2072 3:2 6 431 488 52 × 35 26 × 17 13 × 8 7,1 MP 3264 × 2176 3:2 7 102 464 55 × 36 27 × 18 13 × 9 8,2 MP 3504 × 2336 3:2 8 185 344 59 × 39 29 × 19 14 × 9 12 MP 4256 × 2848 3:2 12 121 088 72 × 48 36 × 24 18 × 12 12,8 MP 4368 × 2912 3:2 12 719 616 74 × 49 37 × 24 18 × 12 14 MP 4536 × 3024 3:2 13 716 864 76 × 51 38 × 25 19 × 12 16,7 MP 4992 × 3328 3:2 16 613 376 84 × 56 42 × 28 21 × 14 15
Speicherbedarf Wie bestimmt man den Speicherbedarf eines Bildes bei einer zu erzeugenden Datei? Der Speicherbedarf hängt ab von: Farbtiefe und der Auflösung des Bildes. Farbtiefe mal Pixelanzahl Daneben ist noch wichtig die Größe. Aus der vorstehenden Tabelle kann man ersehen wie relative und absolute Angaben die Größe der Auflösung beeinflussen. Schauen wir uns zunächst die Farbtiefe an. Bei normalen Schwarz/Weissbildern haben 28 Grauabstufungen also 256 verschiedenen Graustufen (inclusive Weiss und Schwarz) oder 8 Bit Farbtiefe. Diese 8 Einzelinformationen (Bits) ergeben ein Byte. Bei einem Bild mit 1.000 x 1.000 Pixeln Auflösung ergibt sich also rechnerisch: 1.000 x 1.000 x 1 Byte = 1.000.000 Byte = 1 Mbyte. Dieses Bild hat also einen Speicherbedarf von 1 MB. Bei einem Farbbild mit 24 Bit Farbtiefe haben wir 3 Farbkanäle nebeneinander liegen, nämlich Rot, Grün, Blau (RGB): 1.000 x 1.000 x 3 Byte = 3.000.000 Byte = 3 MByte, jetzt sind es durch die Farbe schon 3 MB Speicherbedarf. Neben der elektronischen Größe haben die Bilder auch eine physikalische Größe sprich Abmessungen. Diese beeinflussen die Bildgröße ebenso. Um diese dann zu errechnen benötigen noch eine weitere Angabe die relative Auflösung oder Druckauflösung (Angaben in dpi, dots per inch; ppi, pixel per inch; lpi, lines per inch; umrechenbar in Zentimeter durch Division mit 2,54). Ein Bild mit einer Kantenlänge von 30 x 40 cm und 24 Bit Farbtiefe benötigt bei 150 dpi: 30 x ( 150 : 2,54 ) x 40 x ( 150 : 2,54 ) x 3 Byte = 12.555.025,11 Byte = 12,6 Mbyte Bei 200 dpi: 30 x ( 200 : 2,54 ) x 40 x ( 200 : 2,54 ) x 3 Byte = 22.320.044,6 Byte = 22,3 Mbyte Bei 300 dpi: 30 x ( 300 : 2,54 ) x 40 x ( 300 : 2,54 ) x 3 Byte = 50.220.100,4 Byte = 50,2 Mbyte 16
17
Sie können auch lesen