Short History of the Photographic Flashlight
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Short History of the Photographic Flashlight Das erste Blitzlicht wurde 1851 von William H. Fox Talbot der Royal Institution vorgeführt. Er benützte zu dessen Erzeugung Leidener Flaschen als Kondensatoren. Zur Präsentation fotografierte er eine Zeitungsseite auf einer sich drehenden Platte, welche er mit Hilfe des Blitzlichtes scharf abbilden konnte. Das war allerdings ein einmaliges Experiment, zu dieser Zeit wurden Fotografien noch nicht mit Blitz-, sondern mit konstantem Licht belichtet. Dieses wurde vor allem von Bogenlampen (Gasentladung) und Limelight Lamps (Rampenlicht, Erhitzung von Kalziumoxyden) erzeugt. Erst 1859 wurde zum ersten Mal Magnesium eingesetzt. Dies brannte mit durchdringendem weissem Licht ab, für längere Belichtungszeiten wurden Magnesiumbänder gefertigt, die an einem Stock befestigt wurden und bis ca. 40 Sekunden belichten konnten. Es gab aber auch Magnesiumlampen die per Uhrwerk Magnesiumnachschub erhielten, sodass längere Belichtungszeiten möglich waren. Diese besassen auch bereits konkave Reflektoren. Der Beginn der echten Blitzlichtfotografie datiert im Jahr 1880. Zwei Faktoren waren für diese Entwicklung entscheidend. Der eine war die stark gestiegene Empfindlichkeit fotografischer Materialien, der andere der starke Preisabfall in der Herstellung von Magnesium. So kamen viele Magnesiumpulver-Brenner in Umlauf, und auch entsprechend viele Patente. Diese bliesen mittels eines Gummiballs das Pulver durch eine offene Flamme, wo es umgehend zündete. Später wurde das Magnesium auch noch mit anderen Substanzen gemischt, wodurch man hochexplosive Substanzen bekam, die entweder mit einem Funken oder mit einem Zündhütchen durch mechanische Energie gezündet werden konnten. Im Jahre 1890 wurde das erste System patentiert, das den Blitzer mit dem Auslöser synchronisierte. Hier wurde über Luftdruck aus einem Gummiball sowohl der Auslöser betätigt als auch gleichzeitig der Blitz gezündet. Ende 19. Jahrhundert kamen auch Trockenbatterien auf, und elektrisch gezündete Blitze wurden eingeführt. Auch unter diesen gab es synchronisierbare Modelle. Das Problem aller dieser Blitzer war, dass das Verbrennen von Magnesiumpulver nicht unansehnliche Mengen an Rauch verursachte, wodurch im Anschluss erst einmal das Studio gelüftet werden musste. Da sich nur wenige Studios isolierte Räume für die zu fotografierenden Objekte/Personen leisteten, musste dieses Problem anders gelöst werden. Dazu wurde der Blitz in einem geschlossenen Glas gezündet. 1893 erfand Chauffour die erste „Blitz-Glühbirne“. Hier wurde eine Glasbirne mit Magnesiumdraht und Luft gefüllt. Das Magnesium wurde mit einem elektrisch geheizten Platinglühdrat gezündet. Später, in den 1920ern, wurden die Blitzbirnen mit Alufolie gefüllt. Von Philips wurden diese mit einer Alu-Magnesium-Folie weiterentwickelt. Bisher wurde die sogenannte „Open Flash“-Technik: Verschluss öffnen, blitzen, Verschluss schliessen. Neu wurde 1935 von Ihagee eine Kamera produziert, die über eine Blitzbuchse (Flash Socket) den Blitz mit dem Auslöser wirklich synchronisierte. Agfa und Kodak brachten in der Folge die ersten Billigkameras mit integriertem, synchronisiertem Blitz in Umlauf. Ab ca. 1955 hatten alle Kameras dieses System. Die Birnen wurden mit der Zeit immer kleiner, wodurch sie auch in die Kamera integriert werden konnten (statt aufgesetzt). Dieser Trend der Verkleinerung des Blitzes ging weiter, so wurde 1966 die Flashcube eingeführt, die auf der Kamera aufgesetzt und mit Batterien in der Kamera betrieben wurde. Sie enthielt vier Birnen, und nach jeder Zündung drehte sich der Innenteil um 90°, so dass ohne nachladen viermal geblitzt werden konnte. Weitere Systeme wurden entwickelt, etwa ohne Batterie, mit mechanischem Auslöser, oder es wurden bis zu zehn Blitze zusammengeschlossen. Heutzutage sind die Blitzbirnen vollständig von elektronischen Blitzen abgelöst worden. Der erste elektronische Blitz ist der oben erwähnte wohl erste Blitz für fotografische 1
Zwecke überhaupt, bei dem sich Talbot die Entladung von Leidener Lampen (einfachen Kondensatoren) zu Nutzen machte. 1873 experimentierte Crova mit Entladungsröhren, die mit Hilfe von Tiefdruck, Gas und elektrischen Funken Blitze erzeugen. So konnte er ein Stroboskop herstellen, um schnelle Bewegungen einzufrieren. Bereits 1917 entwickelte Oehmichen ein elektrisches Stroboskop, um Motoren in Bewegung zu fotografieren, mit welchem er 1935 1100 Aufnahmen in der Sekunde erreichte. Die Brüder Seguin wurden allerdings für die Erfindung des elektrischen Blitzes bekannt. Sie erreichten Blitzzeiten von 1/1'000'000 Sekunde. Die wohl wichtigste Person in der Entwicklung des elektrischen Blitzes, die das Stroboskop von einem Laborgerät zu einem gewöhnlichen Fotoaccessoire entwickelte, war Harold E. Edgerton, Professor am MIT. Auch er arbeitete mit Stroboskopen um irgendwelche Maschinen in Bewegung zu fotografieren um sie zu kontrollieren. Er benutzte aber keine normale Kamera, sondern hatte einen offenen Verschluss und einen durchgehenden Film, der während dem Blitzen des Stroboskops im dunklen Raum durchgeführt wurde. So konnte er bis zu 6000 Aufnahmen pro Sekunde auf 30m Film machen. Dieses Stroboskop, das nur für industrielle Zwecke genutzt werden konnte entwickelte er weiter, sodass es auch in Fotostudios und zur Sportfotografie genutzt werden konnte. 1939 ging Edgerton eine Zusammenarbeit mit Kodak ein, in deren Rahmen das Studio und das Portable Kodatron entstanden. Auch ein Studio-Blitzlicht- System wurde patentiert. 1945 trennte sich Edgerton von Kodak und gab alle Patentrechte frei, sodass jeder mit diesen produzieren konnte. Ein von Edgerton hergestelltes Blitzsystem bestand aus zwei Teilen: einem Blitz mit Reflektor und einer Stromversorgung. Die Blitzröhre bestand aus Quartzglas, hatte an beiden Enden Elektroden und war mit Xenon gefüllt. Energie aus der Stromeinheit wurde in einem Kondensator gespeichert, dann wurde ein kurzer starker Impuls auf ein feines Kabel gegeben, welches um die Blitzröhre gewickelt war. Das Gas im Innern ionisierte, und der Kondensator konnte sich in der Blitzröhre entladen, was einen kurzen, intensiven Blitz verursachte. So war die Grösse des Kondensators letztendlich für die Stärke des Blitzes massgebend. Ausgelöst wurde der Impuls durch den Auslöser der Kamera, so war das System synchronisiert. Dieses System produzierte tageslichtähnliches Licht, was per Mischung mit anderen Gasen und Färbung des Glases noch weiterentwickelt wurde. Weiter entwickelte Edgerton mit Farber portable Blitze, die allerdings erst noch 11kg wogen, das Gewicht konnte jedoch im weiteren Verlauf der Entwicklungen reduziert werden. Erst nach dem 2. WK wurde mit der Produktion von Blitzen in Europa ernsthaft begonnen. Hier wurde v.a. Rebikoff bekannt. In den 1950ern wurden vermehrt Blitze für den Amateur gebaut, die nur noch wenige kg wogen. Zu dieser Zeit kam auch die Automatisierung der Blitze auf, bei der der Blitz selbst mass, wie viel Licht für eine optimale Belichtung notwendig ist. Die Blitze wurden nun immer kleiner, automatischer, konnten über den „hot shoe“ synchronisiert werden und erfüllten mehrere Funktionen. Auch Kameras mit integriertem Blitz für den Amateur kamen auf den Markt. Für die automatische Lichtkontrolle wurde zuerst ein System verwendet, welches mit einem Sensor am Blitz mass, wann genügend Licht für eine ansprechende Belichtung vorhanden war, aufgrund der Lichtmenge, die reflektiert wurde. Das war allerdings unbefriedigend, da der Sensor nicht exakt den Winkel berücksichtigte, auf den die Kamera eingestellt war. Hier wurde das TTL System eingeführt, bei welchem sich der Sensor im Boden des Kameragehäuses befand und die vom Film reflektierte Lichtmenge mass zur Berechnung der notwendigen Lichtmenge. Da die digitalen RGB Sensoren zu wenig Licht reflektieren, wurde das TTL System weiterentwickelt, und es werden heute Vorblitze gebraucht, deren Reflexion vom Verschluss gemessen wird. 2
Short History of Digital Photography Die Vorläufer der Digitalfotografie waren erste Systeme zur Aufnahme und Übermittlung von Bildern. Bain erfand 1843 ein System, das geschriebene Texte automatisch als Telegraphnachrichten versenden und empfangen konnte. Dazu wurden Pendel und Magnet verwendet, die auf leitende und nicht leitende Flächen eines auf Metallplatten geschriebenen Textes reagierten und so Nachrichten versenden konnten. Als Weiterentwicklung wurde der Text auf einen Zylinder, der mit Folie bespannen war, geschrieben, und dieser von einer Nadel kontinuierlich abgelesen. 1920 führte Belin die Kabellose Übermittlung von Bildern ein. Das Bild musste zuerst in ein Relief gewandelt werden, das nach Farbunterschieden Höhenunterschiede hatte. Dieses Relief wurde dann versendet und wieder „gescannt“. Zur selben Zeit wurde das Bartlane Übermittlungssystem eingeführt. Mit diesem System wurden die digitalen Informationen über ein subatlantisches Kabel von Europa in die Staaten gesendet, was die Übermittlungszeit von über einer Woche auf weniger als drei Stunden reduzierte. Dazu wurde ein Lochstreifen verwendet. Je eine Gruppe von fünf Löchern bildete sozusagen ein „Pixel“, denn die unterschiedliche Anzahl Löcher gab den Farbton wieder, und so wurde über diese „Fünflochgruppen“ das Bild übermittelt. Bis 1929 wurden die 5 Level, die möglich waren, auf 15 ausgeweitet, was die Detailgetreue der Abschrift erhöhte. Bereits 1884 entwickelte Nipkow das erste elektromechanische Fernsehsystem (Television). Dazu drehte sich zwischen einem Selenium“sensor“ und dem Objekt eine Lochplatte, deren Löcher Spiralförmig nach innen angeordnet waren. Der Widerstand des Selenium“sensors“ variierte je nach Licht, das vom Objekt durch das Loch auf ihn fiel. Dies liess mehr oder weniger Strom durch das Kabel fliessen, über das er mit einer Lampe verbunden war, und diese entsprechend flackern. Vor ihr befand sich wiederum solch eine Lochplatte, mit der das Bild wiedergegeben wurde. Da dieses Bild jedoch immer sehr klein ausfiel, konnte das System, das 1907 erstmals funktionstüchtig hergestellt wurde, keine grossen Erfolge verzeichnen. 1897 erfand Braun die Kathodenstrahlröhre, mit der später der Russe Rosing das erste Hybrid Televisionssystem herstellte, indem er Nipkows Scheibe als Kamera und Brauns Kathodenstrahlröhre als Empfänger benutzte. 1908 wurde der erste wirklich funktionsfähige Vorschlag für ein System mit elektronischen Bildern von Campbell-Swinton gemacht, der die Kathodenstrahlröhre zum Aufnehmen, Übermitteln und Empfangen verwendete, indem ein Elektronenstrahl die Vorderseite „absannte“, und das Bild entsprechend wieder produzierte. Später wurde die Entwicklung im Bereich der digitalen Fotografie massgeblich vom amerikanischen Militär und von den amerikanischen Raumfahrtprogrammen beeinflusst. Zur Spionage im Kalten Krieg wurden zuerst Flugzeuge eingesetzt, die dann von Satelliten ersetzt wurden, die ihre Filmkapseln abwarfen. In diesen Satelliten wurden dann aber zunehmend digitale Fotosysteme eingesetzt, die ihre Bilder (sowohl Spionagebilder als auch Weltraumbilder) per Funk übermittelten. 1963 wurde der erste Fotoscanner erfunden. 1969 wurde die Basis für einen CCD (Charge Couple Device) Sensor geschaffen, der als neue Speichereinheit gedacht war, die Erwartungen aber nicht erfüllen konnte; aber bald als potenzieller Kandidat für elektronische Fotografie entdeckt wurde. 1970 wurde die erste mit einem CCD betriebene Videokamera vorgestellt, welche bereits 1975 ein genug scharfes Bild für Fernsehsendungen lieferte. 1973 wurde der erste kommerzielle CCD Sensor von der amerikanischen Firma Fairchild Imaging hergestellt. Dieser hatte 100x100 Pixel. Bereits 1979 wurden erstmals auch CCD in der Astronomie eingesetzt, der erste war ein 320x512 Pixel Sensor. Ab ca. 1983 wurden zunehmend Teleskope mit CCD ausgestattet, da diese Technik sehr komfortabel, sehr effektiv und auch sehr schnell war. 1972 wurde das erste Patent für ein elektronisches Fotografie-System vergeben. Dieses System zeichnete das Bild auf einem Magnetband auf, und es konnte z.B. auf Fernsehern 3
wiedergegeben werden. Diese Kamera wurde jedoch beinahe nicht hergestellt. Den Durchbruch brachte 1981 Sonys Mavica, eine Spiegelreflex, die mit einem CCD analoge Daten auf eine Diskette speicherte, welche mit dem Videorekorder wiedergegeben werden konnte. Es war das erste (beinahe) digitale Kameramodell, welches wirklich erfolgreich war, und schon damals machte man sich erstmals Sorgen um die traditionelle Silber Halogenid Fotografie. 1981 entwickelte Canon eine Kamera, die Farbbilder aufnehmen konnte. 1986 entwickelte Kodak den ersten Megapixel Sensor mit 1.4 MP. Alle diese Kameras hatten jedoch ein grosses Problem, durch das sie nie wirklich erfolgreich werden konnten: sie waren sogenannte „Still Video Systems“, was heisst, dass im Endeffekt ein kurzes Video aufgezeichnet wurde, aus dem dann ein Bild herausgenommen wurde als Foto. So blieb die Qualität immer sehr schlecht. Erst im Jahr 1990 wurde die erste echte Digitalkamera eingeführt. Sie hatte 1MB Speicher, Blitz und eine fixe Linse, 376x240 Pixel und einen niedrigen Preis, wodurch sie kommerziell erfolgreich wurde. Weil die IBM Computer Bilddarstellung nicht unterstützten, wurden Kameras verkauft, welche keinen Speicher hatten, dafür aber Bilder gleich drucken konnten auf sogenanntes Thermalpapier. Apple liess sich dann von Kodak 1994 die erste Farbdigitalkamera bauen, die wirklich in Massen verkauft wurde. Von Olympus wurde eine Kamera entwickelt, die über ein Modem direkt ans Telefon angehängt und deren Bilder dann auf diesem Wege versendet werden konnten.1995 wurde von Casio eine Kamera eingeführt, die nicht unbedingt mit ihren qualitativ hochstehenden Bildern überzeugen konnte, die aber als erstes Modell überhaupt in ihrer Rückwand ein LCD integriert hatte, auf dem Bilder betrachtet werden konnten und der auch als Live View diente. In den 90er Jahren wurden nun auch qualitativ immer hochwertigere DSLR entwickelt, um die Jahrtausendgrenze waren diese bei ca. 3MP angelangt, bereits 2002 wurde dann eine Kamera mit Vollformatsensor eingeführt, der 6MP erreichte und 2004 war Kodak dann bei 14MP. Nun wurden v.a. auch Fortschritte beim Preis gemacht, erste DSLR unter 1000$ kamen auf den Markt. Da nun Pixelzahlen kein Problem mehr darstellten, haben sich die Produzenten weitgehend auf andere Merkmale (Image quality, high ISO performance, speed of focus, elimination of digital noise, price) konzentriert. Sensoren In modernen Kameras hat es hauptsächlich zwei verschiedene Sensoren, CCD (Charge- coupled device) und CMOS (Complementary metal oxide semiconductor). CMOS wird bei ca. 90% aller Halbleiter (z.B. Memory devices, microprocessors) verwendet, und findet bei immer mehr neueren Kameras Verwendung. CCD wird nach Full Frame und Interline unterschieden, wobei ersteres den einfacheren Aufbau hat, aber teurer ist. Full Frame: Interline: Die Interline Technologie wurde hauptsächlich für Videokameras entwickelt, da diese 25 Bilder pro Sekunde aufnehmen müssen und den Verschluss nicht schliessen. Durch die überdeckten Gates kann, während ein Bild ausgelesen wird, bereits das nächste aufgenommen werden. Allerdings geht natürlich Sensorfläche verloren, was durch Mikrolinsen zu kompensieren versucht wird. 4
Beim CMOS ist nur die Herstellung, der Aufbau unterschiedlich, der Mechanismus, mit dem Licht aufgezeichnet wird, ist bei beiden Systemen derselbe. Die Idee des CMOS wurde bereits 1970 entwickelt, er wurde aber weitestgehend ignoriert, weil er eine äusserst schlechte Performance hatte. CMOS Sensoren vereinen Fotodiode und Transistor in jedem einzelnen Pixel. Ihr Hauptvorteil ist ein geringerer Energieverbrauch, aber es kann z.B. auch schon im Sensor Rauschminderung eingebaut werden. Farbgebende Systeme für digitale Kameras gibt es verschiedene, die jedoch vom Film abweichen, weil die empfindlichen Bauteile in der Digitalkamera nicht mehr durchsichtig sind. Es wurden z.B. Farbfilterräder eingesetzt (3 Bilder nötig!) und drei einzelne Sensoren, die über ein Prisma mit Licht bedient wurden. Durchgesetzt hat sich jedoch die Bayer Matrix (Color Filter Array CFA), bei der über einzelne Pixel rote, grüne oder blaue Filter gelegt werden, sodass jeder Pixel nur noch für eine Farbe empfindlich ist, und die anderen Farben für diesen Pixel interpoliert werden müssen. So funktioniert denn ein digitaler Bildsensor beinahe wie unser Auge. Dateiformate Zur Speicherung der Bilder gibt es viele verschiedene Dateiformate, die bekanntesten sind JPEG, RAW, TIFF, GIF und PNG. JPEG (Joint Photographic Experts Group) entstand aus dem Bemühen dreier weltweiter Standardisierungsorganisationen (ISO, Telefonie und Telegrafie, Elektrotechnik), eine möglichst weit benutzte Bildkompression zu erstellen, die so die Benutzerfreundlichkeit aller Geräte steigert. JPEG ist eine lossy compression, wobei der Grad des Verlusts gewählt werden kann. TIFF (Tagged Image File Format) wurde mit dem Gedanken entwickelt, ein einheitliches Format für gescannte Dateien zu haben, nicht für jeden Geräteanbieter ein eigenes. TIFF wurde entsprechend der steigenden Leistungen der Geräte weiterentwickelt, wobei erst TIFF 4.0, welches unkompressierte RGB-Bilder unterstützte, weiter verbreitet wurde. Heute gehören die Rechte an TIFF Adobe, es ist ein weit verbreitetes, lossy oder lossless Dateiformat. RAW Formate wurden nicht standardisiert, weshalb verschiedene Kamerahersteller verschiedene Formate verwenden. Es ist lossless. Es enthält die Rohdaten des Bayer pattern image, wie sie vom CCD oder CMOS Sensor aufgezeichnet wurden, es ist also noch nichts interpoliert, geschärft oder sonst wie verändert. Mit diesem Format können mit entsprechenden Computerprogrammen die meisten Funktionen, die auf der Kamera eingestellt werden können, noch verändert werden. Es können unter anderem auch bessere Algorithmen zur Interpolation verwendet werden, die wegen ihres erhöhten Zeitbedarfs in der Kamera nicht angewendet werden können. Dann können die Bilder nach Belieben in andere Formate umgewandelt werden, die breiter unterstützt werden. Das GIF Format konnte ohne die visuelle Qualität zu beeinträchtigen (lossless) komprimieren, da es aber einen beschränkten Farbraum von 256 Farben hatte, wurden höherwertige Farbbilder sehr wohl beeinträchtigt beim Komprimieren. Das Format reduzierte die Dateigrösse auf zwei Arten: Einerseits wurde bei farbreichen Bilden die Farben gekürzt (auf die 256 möglichen), wodurch jedes Pixel weniger bits benötigte. Andererseits wurden häufig auftretende Muster, v.a. grosse Flächen derselben Farbe, abgekürzt (Bsp: „weiss, weiss, weiss,weiss“ wird zu „4 weiss“). Auch gibt es noch das Portable Network Graphics (PNG) Format. Es komprimiert lossless. Speichermedien Im Gegensatz zur analogen Fotografie, bei der das lichtsensible Medium auch Speichermedium ist, braucht der Sensor einer digitalen Kamera ein externes Speichermedium. In der Ära der Still Video Cameras wurde hierzu eine Floppy Disc verwendet. In der Folge wurde mit internen Speichern gearbeitet, die aber im Zuge der Entwicklung der Kameras mit zunehmend höheren Auflösungen unzureichend wurden. Sogenannte Flash Memory Cards wurden eingeführt, die in einen Slot eingesetzt werden und einiges mehr an Bildern speichern können. Auch die meisten Computer unterstützen diese mit einem praktischen Card Reader. Es gab dann auch die sehr kleine Multi Media 5
Card, später die Secure Digital Card und die xD Picture Card. Sie alle hatten gemeinsam, dass sie immer mehr Speicher hatten und immer schneller wurden. Handykameras Ab 2000 wurden auch Telefone (vornehmlich Handys) mit Kameras ausgestattet. Dies begann mit einem 0.1MP Sensor, heute gibt es von Samsung Handykameras mit 10MP, manuellem Fokus, Verschlusspriorität und optischem Zoom. Die Verkaufszahlen von in Handys integrierten Kameras überholten bereits 2003 die Zahl der „echten“ Digitalkameras. Scanner Bereits 1930 wurde in den Kodak Laboratorien der erste Scanner entwickelt. In den 80er Jahren führte Apple den ThunderScan ein, der drucken und scannen konnte, indem er anstatt der Tintenpatrone ein rotes LED und einen Sensor verwendete. 1987 wurde der erste Desktop-Farbscanner entwickelt. Der Trend ging auch hier Richtung höher auflösend und grössere Farbräume. Digitales Drucken 1960 wurde der erste Laserprinter eingeführt, der unter Verwendung eines elektrostatischen Prozesses druckt. Laserprinter drucken schwarz/weiss oder farbig. Bei den Inkjet Druckern gibt es verschiedene Technologien. Beim „continuous liquid ink jet process“ wird konstant Tinte ausgegeben, die durch elektrostatische Ablenkung in Druck- und Nichtdruck-Tropfen getrennt wir. Letztere werden recycled, erstere formen auf dem Papier einen Farbtupfer. Dies ist eine der ältesten Inkjet Technologien. Eine andere Variante ist „Drop on Demand“ (DOD). Wie bereits der Name sagt, werden hier nur Tintentropfen ausgelöst, wenn sie auch nötig sind. Um die Tropfen aufs Papier zu bringen können entweder die piezoelektrische Kristall Technologie oder thermale Druckköpfe verwendet werden (über Hitze Blasen generieren, welche dann platzen). Mit guten DOD- Druckern kann man echte Silberhalogenid Fotografie täuschend echt imitieren. Weiter gibt es Grossformat DOD, um grossflächige Materialien, dann sehr grob, zu bedrucken. Beim thermischen Prozess (auch Bubble Jet) wird die Farbe aufgetragen und nicht „eingetragen“, sie bildet also eine glänzende Schicht auf dem Material, ein gut erkennbares Firnis. Der piezoelektronische Kristall wiederum öffnet sich je nach Spannung, und lässt so Tinte raus. Es gibt ausserdem noch vier verschiedene Thermaltransferprozesse. Auch wurden Prozesse entwickelt, bei denen Silberhalogen Papier gezielt Licht ausgesetzt wird, Linie für Linie, wie in einem anderen Drucker Farbe aufgetragen wird. Entwickelt und fixiert wird es ganz traditionelll. 6
Sie können auch lesen