Short History of the Photographic Flashlight

 
WEITER LESEN
Short History of the Photographic Flashlight
Short History of the Photographic Flashlight
Das erste Blitzlicht wurde 1851 von William H. Fox Talbot der Royal Institution vorgeführt.
Er benützte zu dessen Erzeugung Leidener Flaschen als Kondensatoren. Zur Präsentation
fotografierte er eine Zeitungsseite auf einer sich drehenden Platte, welche er mit Hilfe des
Blitzlichtes scharf abbilden konnte.
Das war allerdings ein einmaliges Experiment, zu dieser Zeit wurden Fotografien noch
nicht mit Blitz-, sondern mit konstantem Licht belichtet. Dieses wurde vor allem von
Bogenlampen (Gasentladung) und Limelight Lamps (Rampenlicht, Erhitzung von
Kalziumoxyden) erzeugt. Erst 1859 wurde zum ersten Mal Magnesium eingesetzt. Dies
brannte mit durchdringendem weissem Licht ab, für längere Belichtungszeiten wurden
Magnesiumbänder gefertigt, die an einem Stock befestigt wurden und bis ca. 40 Sekunden
belichten konnten. Es gab aber auch Magnesiumlampen die per Uhrwerk
Magnesiumnachschub erhielten, sodass längere Belichtungszeiten möglich waren. Diese
besassen auch bereits konkave Reflektoren.
Der Beginn der echten Blitzlichtfotografie datiert im Jahr 1880. Zwei Faktoren waren für
diese Entwicklung entscheidend. Der eine war die stark gestiegene Empfindlichkeit
fotografischer Materialien, der andere der starke Preisabfall in der Herstellung von
Magnesium. So kamen viele Magnesiumpulver-Brenner in Umlauf, und auch entsprechend
viele Patente. Diese bliesen mittels eines Gummiballs das Pulver durch eine offene
Flamme, wo es umgehend zündete. Später wurde das Magnesium auch noch mit anderen
Substanzen gemischt, wodurch man hochexplosive Substanzen bekam, die entweder mit
einem Funken oder mit einem Zündhütchen durch mechanische Energie gezündet werden
konnten.
Im Jahre 1890 wurde das erste System patentiert, das den Blitzer mit dem Auslöser
synchronisierte. Hier wurde über Luftdruck aus einem Gummiball sowohl der Auslöser
betätigt als auch gleichzeitig der Blitz gezündet.
Ende 19. Jahrhundert kamen auch Trockenbatterien auf, und elektrisch gezündete Blitze
wurden eingeführt. Auch unter diesen gab es synchronisierbare Modelle.
Das Problem aller dieser Blitzer war, dass das Verbrennen von Magnesiumpulver nicht
unansehnliche Mengen an Rauch verursachte, wodurch im Anschluss erst einmal das
Studio gelüftet werden musste. Da sich nur wenige Studios isolierte Räume für die zu
fotografierenden Objekte/Personen leisteten, musste dieses Problem anders gelöst
werden. Dazu wurde der Blitz in einem geschlossenen Glas gezündet. 1893 erfand
Chauffour die erste „Blitz-Glühbirne“. Hier wurde eine Glasbirne mit Magnesiumdraht und
Luft gefüllt. Das Magnesium wurde mit einem elektrisch geheizten Platinglühdrat
gezündet. Später, in den 1920ern, wurden die Blitzbirnen mit Alufolie gefüllt. Von Philips
wurden diese mit einer Alu-Magnesium-Folie weiterentwickelt.
Bisher wurde die sogenannte „Open Flash“-Technik: Verschluss öffnen, blitzen, Verschluss
schliessen. Neu wurde 1935 von Ihagee eine Kamera produziert, die über eine
Blitzbuchse (Flash Socket) den Blitz mit dem Auslöser wirklich synchronisierte. Agfa und
Kodak brachten in der Folge die ersten Billigkameras mit integriertem, synchronisiertem
Blitz in Umlauf. Ab ca. 1955 hatten alle Kameras dieses System. Die Birnen wurden mit
der Zeit immer kleiner, wodurch sie auch in die Kamera integriert werden konnten (statt
aufgesetzt). Dieser Trend der Verkleinerung des Blitzes ging weiter, so wurde 1966 die
Flashcube eingeführt, die auf der Kamera aufgesetzt und mit Batterien in der Kamera
betrieben wurde. Sie enthielt vier Birnen, und nach jeder Zündung drehte sich der Innenteil
um 90°, so dass ohne nachladen viermal geblitzt werden konnte. Weitere Systeme wurden
entwickelt, etwa ohne Batterie, mit mechanischem Auslöser, oder es wurden bis zu zehn
Blitze zusammengeschlossen.
Heutzutage sind die Blitzbirnen vollständig von elektronischen Blitzen abgelöst worden.
Der erste elektronische Blitz ist der oben erwähnte wohl erste Blitz für fotografische

                                             1
Short History of the Photographic Flashlight
Zwecke überhaupt, bei dem sich Talbot die Entladung von Leidener Lampen (einfachen
Kondensatoren) zu Nutzen machte. 1873 experimentierte Crova mit Entladungsröhren, die
mit Hilfe von Tiefdruck, Gas und elektrischen Funken Blitze erzeugen. So konnte er ein
Stroboskop herstellen, um schnelle Bewegungen einzufrieren. Bereits 1917 entwickelte
Oehmichen ein elektrisches Stroboskop, um Motoren in Bewegung zu fotografieren, mit
welchem er 1935 1100 Aufnahmen in der Sekunde erreichte. Die Brüder Seguin wurden
allerdings für die Erfindung des elektrischen Blitzes bekannt. Sie erreichten Blitzzeiten von
1/1'000'000 Sekunde.
Die wohl wichtigste Person in der Entwicklung des elektrischen Blitzes, die das
Stroboskop von einem Laborgerät zu einem gewöhnlichen Fotoaccessoire entwickelte,
war Harold E. Edgerton, Professor am MIT. Auch er arbeitete mit Stroboskopen um
irgendwelche Maschinen in Bewegung zu fotografieren um sie zu kontrollieren. Er
benutzte aber keine normale Kamera, sondern hatte einen offenen Verschluss und einen
durchgehenden Film, der während dem Blitzen des Stroboskops im dunklen Raum
durchgeführt wurde. So konnte er bis zu 6000 Aufnahmen pro Sekunde auf 30m Film
machen. Dieses Stroboskop, das nur für industrielle Zwecke genutzt werden konnte
entwickelte er weiter, sodass es auch in Fotostudios und zur Sportfotografie genutzt
werden konnte. 1939 ging Edgerton eine Zusammenarbeit mit Kodak ein, in deren
Rahmen das Studio und das Portable Kodatron entstanden. Auch ein Studio-Blitzlicht-
System wurde patentiert. 1945 trennte sich Edgerton von Kodak und gab alle Patentrechte
frei, sodass jeder mit diesen produzieren konnte.
Ein von Edgerton hergestelltes Blitzsystem bestand aus zwei Teilen: einem Blitz mit
Reflektor und einer Stromversorgung. Die Blitzröhre bestand aus Quartzglas, hatte an
beiden Enden Elektroden und war mit Xenon gefüllt. Energie aus der Stromeinheit wurde
in einem Kondensator gespeichert, dann wurde ein kurzer starker Impuls auf ein feines
Kabel gegeben, welches um die Blitzröhre gewickelt war. Das Gas im Innern ionisierte,
und der Kondensator konnte sich in der Blitzröhre entladen, was einen kurzen, intensiven
Blitz verursachte. So war die Grösse des Kondensators letztendlich für die Stärke des
Blitzes massgebend. Ausgelöst wurde der Impuls durch den Auslöser der Kamera, so war
das System synchronisiert. Dieses System produzierte tageslichtähnliches Licht, was per
Mischung mit anderen Gasen und Färbung des Glases noch weiterentwickelt wurde.
Weiter entwickelte Edgerton mit Farber portable Blitze, die allerdings erst noch 11kg
wogen, das Gewicht konnte jedoch im weiteren Verlauf der Entwicklungen reduziert
werden. Erst nach dem 2. WK wurde mit der Produktion von Blitzen in Europa ernsthaft
begonnen. Hier wurde v.a. Rebikoff bekannt. In den 1950ern wurden vermehrt Blitze für
den Amateur gebaut, die nur noch wenige kg wogen. Zu dieser Zeit kam auch die
Automatisierung der Blitze auf, bei der der Blitz selbst mass, wie viel Licht für eine
optimale Belichtung notwendig ist. Die Blitze wurden nun immer kleiner, automatischer,
konnten über den „hot shoe“ synchronisiert werden und erfüllten mehrere Funktionen.
Auch Kameras mit integriertem Blitz für den Amateur kamen auf den Markt. Für die
automatische Lichtkontrolle wurde zuerst ein System verwendet, welches mit einem
Sensor am Blitz mass, wann genügend Licht für eine ansprechende Belichtung vorhanden
war, aufgrund der Lichtmenge, die reflektiert wurde. Das war allerdings unbefriedigend, da
der Sensor nicht exakt den Winkel berücksichtigte, auf den die Kamera eingestellt war.
Hier wurde das TTL System eingeführt, bei welchem sich der Sensor im Boden des
Kameragehäuses befand und die vom Film reflektierte Lichtmenge mass zur Berechnung
der notwendigen Lichtmenge. Da die digitalen RGB Sensoren zu wenig Licht reflektieren,
wurde das TTL System weiterentwickelt, und es werden heute Vorblitze gebraucht, deren
Reflexion vom Verschluss gemessen wird.

                                              2
Short History of Digital Photography
Die Vorläufer der Digitalfotografie waren erste Systeme zur Aufnahme und Übermittlung
von Bildern. Bain erfand 1843 ein System, das geschriebene Texte automatisch als
Telegraphnachrichten versenden und empfangen konnte. Dazu wurden Pendel und
Magnet verwendet, die auf leitende und nicht leitende Flächen eines auf Metallplatten
geschriebenen Textes reagierten und so Nachrichten versenden konnten. Als
Weiterentwicklung wurde der Text auf einen Zylinder, der mit Folie bespannen war,
geschrieben, und dieser von einer Nadel kontinuierlich abgelesen. 1920 führte Belin die
Kabellose Übermittlung von Bildern ein. Das Bild musste zuerst in ein Relief gewandelt
werden, das nach Farbunterschieden Höhenunterschiede hatte. Dieses Relief wurde dann
versendet und wieder „gescannt“. Zur selben Zeit wurde das Bartlane
Übermittlungssystem eingeführt. Mit diesem System wurden die digitalen Informationen
über ein subatlantisches Kabel von Europa in die Staaten gesendet, was die
Übermittlungszeit von über einer Woche auf weniger als drei Stunden reduzierte. Dazu
wurde ein Lochstreifen verwendet. Je eine Gruppe von fünf Löchern bildete sozusagen ein
„Pixel“, denn die unterschiedliche Anzahl Löcher gab den Farbton wieder, und so wurde
über diese „Fünflochgruppen“ das Bild übermittelt. Bis 1929 wurden die 5 Level, die
möglich waren, auf 15 ausgeweitet, was die Detailgetreue der Abschrift erhöhte.
Bereits 1884 entwickelte Nipkow das erste elektromechanische Fernsehsystem
(Television). Dazu drehte sich zwischen einem Selenium“sensor“ und dem Objekt eine
Lochplatte, deren Löcher Spiralförmig nach innen angeordnet waren. Der Widerstand des
Selenium“sensors“ variierte je nach Licht, das vom Objekt durch das Loch auf ihn fiel. Dies
liess mehr oder weniger Strom durch das Kabel fliessen, über das er mit einer Lampe
verbunden war, und diese entsprechend flackern. Vor ihr befand sich wiederum solch eine
Lochplatte, mit der das Bild wiedergegeben wurde. Da dieses Bild jedoch immer sehr klein
ausfiel, konnte das System, das 1907 erstmals funktionstüchtig hergestellt wurde, keine
grossen Erfolge verzeichnen. 1897 erfand Braun die Kathodenstrahlröhre, mit der später
der Russe Rosing das erste Hybrid Televisionssystem herstellte, indem er Nipkows
Scheibe als Kamera und Brauns Kathodenstrahlröhre als Empfänger benutzte. 1908
wurde der erste wirklich funktionsfähige Vorschlag für ein System mit elektronischen
Bildern von Campbell-Swinton gemacht, der die Kathodenstrahlröhre zum Aufnehmen,
Übermitteln und Empfangen verwendete, indem ein Elektronenstrahl die Vorderseite
„absannte“, und das Bild entsprechend wieder produzierte.
Später wurde die Entwicklung im Bereich der digitalen Fotografie massgeblich vom
amerikanischen Militär und von den amerikanischen Raumfahrtprogrammen beeinflusst.
Zur Spionage im Kalten Krieg wurden zuerst Flugzeuge eingesetzt, die dann von Satelliten
ersetzt wurden, die ihre Filmkapseln abwarfen. In diesen Satelliten wurden dann aber
zunehmend digitale Fotosysteme eingesetzt, die ihre Bilder (sowohl Spionagebilder als
auch Weltraumbilder) per Funk übermittelten.
1963 wurde der erste Fotoscanner erfunden. 1969 wurde die Basis für einen CCD (Charge
Couple Device) Sensor geschaffen, der als neue Speichereinheit gedacht war, die
Erwartungen aber nicht erfüllen konnte; aber bald als potenzieller Kandidat für
elektronische Fotografie entdeckt wurde. 1970 wurde die erste mit einem CCD betriebene
Videokamera vorgestellt, welche bereits 1975 ein genug scharfes Bild für
Fernsehsendungen lieferte. 1973 wurde der erste kommerzielle CCD Sensor von der
amerikanischen Firma Fairchild Imaging hergestellt. Dieser hatte 100x100 Pixel. Bereits
1979 wurden erstmals auch CCD in der Astronomie eingesetzt, der erste war ein 320x512
Pixel Sensor. Ab ca. 1983 wurden zunehmend Teleskope mit CCD ausgestattet, da diese
Technik sehr komfortabel, sehr effektiv und auch sehr schnell war.
1972 wurde das erste Patent für ein elektronisches Fotografie-System vergeben. Dieses
System zeichnete das Bild auf einem Magnetband auf, und es konnte z.B. auf Fernsehern

                                             3
wiedergegeben werden. Diese Kamera wurde jedoch beinahe nicht hergestellt. Den
Durchbruch brachte 1981 Sonys Mavica, eine Spiegelreflex, die mit einem CCD analoge
Daten auf eine Diskette speicherte, welche mit dem Videorekorder wiedergegeben werden
konnte. Es war das erste (beinahe) digitale Kameramodell, welches wirklich erfolgreich
war, und schon damals machte man sich erstmals Sorgen um die traditionelle Silber
Halogenid Fotografie. 1981 entwickelte Canon eine Kamera, die Farbbilder aufnehmen
konnte. 1986 entwickelte Kodak den ersten Megapixel Sensor mit 1.4 MP. Alle diese
Kameras hatten jedoch ein grosses Problem, durch das sie nie wirklich erfolgreich werden
konnten: sie waren sogenannte „Still Video Systems“, was heisst, dass im Endeffekt ein
kurzes Video aufgezeichnet wurde, aus dem dann ein Bild herausgenommen wurde als
Foto. So blieb die Qualität immer sehr schlecht.
Erst im Jahr 1990 wurde die erste echte Digitalkamera eingeführt. Sie hatte 1MB Speicher,
Blitz und eine fixe Linse, 376x240 Pixel und einen niedrigen Preis, wodurch sie
kommerziell erfolgreich wurde. Weil die IBM Computer Bilddarstellung nicht unterstützten,
wurden Kameras verkauft, welche keinen Speicher hatten, dafür aber Bilder gleich
drucken konnten auf sogenanntes Thermalpapier. Apple liess sich dann von Kodak 1994
die erste Farbdigitalkamera bauen, die wirklich in Massen verkauft wurde. Von Olympus
wurde eine Kamera entwickelt, die über ein Modem direkt ans Telefon angehängt und
deren Bilder dann auf diesem Wege versendet werden konnten.1995 wurde von Casio
eine Kamera eingeführt, die nicht unbedingt mit ihren qualitativ hochstehenden Bildern
überzeugen konnte, die aber als erstes Modell überhaupt in ihrer Rückwand ein LCD
integriert hatte, auf dem Bilder betrachtet werden konnten und der auch als Live View
diente. In den 90er Jahren wurden nun auch qualitativ immer hochwertigere DSLR
entwickelt, um die Jahrtausendgrenze waren diese bei ca. 3MP angelangt, bereits 2002
wurde dann eine Kamera mit Vollformatsensor eingeführt, der 6MP erreichte und 2004 war
Kodak dann bei 14MP. Nun wurden v.a. auch Fortschritte beim Preis gemacht, erste DSLR
unter 1000$ kamen auf den Markt. Da nun Pixelzahlen kein Problem mehr darstellten,
haben sich die Produzenten weitgehend auf andere Merkmale (Image quality, high ISO
performance, speed of focus, elimination of digital noise, price) konzentriert.
Sensoren
In modernen Kameras hat es hauptsächlich zwei verschiedene Sensoren, CCD (Charge-
coupled device) und CMOS (Complementary metal oxide semiconductor). CMOS wird bei
ca. 90% aller Halbleiter (z.B. Memory devices, microprocessors) verwendet, und findet bei
immer mehr neueren Kameras Verwendung. CCD wird nach Full Frame und Interline
unterschieden, wobei ersteres den einfacheren Aufbau hat, aber teurer ist.
Full Frame:                                    Interline:

Die Interline Technologie wurde hauptsächlich für Videokameras entwickelt, da diese 25
Bilder pro Sekunde aufnehmen müssen und den Verschluss nicht schliessen. Durch die
überdeckten Gates kann, während ein Bild ausgelesen wird, bereits das nächste
aufgenommen werden. Allerdings geht natürlich Sensorfläche verloren, was durch
Mikrolinsen zu kompensieren versucht wird.

                                            4
Beim CMOS ist nur die Herstellung, der Aufbau unterschiedlich, der Mechanismus, mit
dem Licht aufgezeichnet wird, ist bei beiden Systemen derselbe. Die Idee des CMOS
wurde bereits 1970 entwickelt, er wurde aber weitestgehend ignoriert, weil er eine
äusserst schlechte Performance hatte. CMOS Sensoren vereinen Fotodiode und
Transistor in jedem einzelnen Pixel. Ihr Hauptvorteil ist ein geringerer Energieverbrauch,
aber es kann z.B. auch schon im Sensor Rauschminderung eingebaut werden.
Farbgebende Systeme für digitale Kameras gibt es verschiedene, die jedoch vom Film
abweichen, weil die empfindlichen Bauteile in der Digitalkamera nicht mehr durchsichtig
sind. Es wurden z.B. Farbfilterräder eingesetzt (3 Bilder nötig!) und drei einzelne
Sensoren, die über ein Prisma mit Licht bedient wurden. Durchgesetzt hat sich jedoch die
Bayer Matrix (Color Filter Array CFA), bei der über einzelne Pixel rote, grüne oder blaue
Filter gelegt werden, sodass jeder Pixel nur noch für eine Farbe empfindlich ist, und die
anderen Farben für diesen Pixel interpoliert werden müssen. So funktioniert denn ein
digitaler Bildsensor beinahe wie unser Auge.
Dateiformate
Zur Speicherung der Bilder gibt es viele verschiedene Dateiformate, die bekanntesten sind
JPEG, RAW, TIFF, GIF und PNG. JPEG (Joint Photographic Experts Group) entstand aus
dem Bemühen dreier weltweiter Standardisierungsorganisationen (ISO, Telefonie und
Telegrafie, Elektrotechnik), eine möglichst weit benutzte Bildkompression zu erstellen, die
so die Benutzerfreundlichkeit aller Geräte steigert. JPEG ist eine lossy compression,
wobei der Grad des Verlusts gewählt werden kann. TIFF (Tagged Image File Format)
wurde mit dem Gedanken entwickelt, ein einheitliches Format für gescannte Dateien zu
haben, nicht für jeden Geräteanbieter ein eigenes. TIFF wurde entsprechend der
steigenden Leistungen der Geräte weiterentwickelt, wobei erst TIFF 4.0, welches
unkompressierte RGB-Bilder unterstützte, weiter verbreitet wurde. Heute gehören die
Rechte an TIFF Adobe, es ist ein weit verbreitetes, lossy oder lossless Dateiformat.
RAW Formate wurden nicht standardisiert, weshalb verschiedene Kamerahersteller
verschiedene Formate verwenden. Es ist lossless. Es enthält die Rohdaten des Bayer
pattern image, wie sie vom CCD oder CMOS Sensor aufgezeichnet wurden, es ist also
noch nichts interpoliert, geschärft oder sonst wie verändert. Mit diesem Format können mit
entsprechenden Computerprogrammen die meisten Funktionen, die auf der Kamera
eingestellt werden können, noch verändert werden. Es können unter anderem auch
bessere Algorithmen zur Interpolation verwendet werden, die wegen ihres erhöhten
Zeitbedarfs in der Kamera nicht angewendet werden können. Dann können die Bilder
nach Belieben in andere Formate umgewandelt werden, die breiter unterstützt werden.
Das GIF Format konnte ohne die visuelle Qualität zu beeinträchtigen (lossless)
komprimieren, da es aber einen beschränkten Farbraum von 256 Farben hatte, wurden
höherwertige Farbbilder sehr wohl beeinträchtigt beim Komprimieren. Das Format
reduzierte die Dateigrösse auf zwei Arten: Einerseits wurde bei farbreichen Bilden die
Farben gekürzt (auf die 256 möglichen), wodurch jedes Pixel weniger bits benötigte.
Andererseits wurden häufig auftretende Muster, v.a. grosse Flächen derselben Farbe,
abgekürzt (Bsp: „weiss, weiss, weiss,weiss“ wird zu „4 weiss“). Auch gibt es noch das
Portable Network Graphics (PNG) Format. Es komprimiert lossless.
Speichermedien
Im Gegensatz zur analogen Fotografie, bei der das lichtsensible Medium auch
Speichermedium ist, braucht der Sensor einer digitalen Kamera ein externes
Speichermedium. In der Ära der Still Video Cameras wurde hierzu eine Floppy Disc
verwendet. In der Folge wurde mit internen Speichern gearbeitet, die aber im Zuge der
Entwicklung der Kameras mit zunehmend höheren Auflösungen unzureichend wurden.
Sogenannte Flash Memory Cards wurden eingeführt, die in einen Slot eingesetzt werden
und einiges mehr an Bildern speichern können. Auch die meisten Computer unterstützen
diese mit einem praktischen Card Reader. Es gab dann auch die sehr kleine Multi Media

                                             5
Card, später die Secure Digital Card und die xD Picture Card. Sie alle hatten gemeinsam,
dass sie immer mehr Speicher hatten und immer schneller wurden.
Handykameras
Ab 2000 wurden auch Telefone (vornehmlich Handys) mit Kameras ausgestattet. Dies
begann mit einem 0.1MP Sensor, heute gibt es von Samsung Handykameras mit 10MP,
manuellem Fokus, Verschlusspriorität und optischem Zoom. Die Verkaufszahlen von in
Handys integrierten Kameras überholten bereits 2003 die Zahl der „echten“
Digitalkameras.
Scanner
Bereits 1930 wurde in den Kodak Laboratorien der erste Scanner entwickelt. In den 80er
Jahren führte Apple den ThunderScan ein, der drucken und scannen konnte, indem er
anstatt der Tintenpatrone ein rotes LED und einen Sensor verwendete. 1987 wurde der
erste Desktop-Farbscanner entwickelt. Der Trend ging auch hier Richtung höher auflösend
und grössere Farbräume.
Digitales Drucken
1960 wurde der erste Laserprinter eingeführt, der unter Verwendung eines
elektrostatischen Prozesses druckt. Laserprinter drucken schwarz/weiss oder farbig. Bei
den Inkjet Druckern gibt es verschiedene Technologien. Beim „continuous liquid ink jet
process“ wird konstant Tinte ausgegeben, die durch elektrostatische Ablenkung in Druck-
und Nichtdruck-Tropfen getrennt wir. Letztere werden recycled, erstere formen auf dem
Papier einen Farbtupfer. Dies ist eine der ältesten Inkjet Technologien. Eine andere
Variante ist „Drop on Demand“ (DOD). Wie bereits der Name sagt, werden hier nur
Tintentropfen ausgelöst, wenn sie auch nötig sind. Um die Tropfen aufs Papier zu bringen
können entweder die piezoelektrische Kristall Technologie oder thermale Druckköpfe
verwendet werden (über Hitze Blasen generieren, welche dann platzen). Mit guten DOD-
Druckern kann man echte Silberhalogenid Fotografie täuschend echt imitieren. Weiter gibt
es Grossformat DOD, um grossflächige Materialien, dann sehr grob, zu bedrucken. Beim
thermischen Prozess (auch Bubble Jet) wird die Farbe aufgetragen und nicht
„eingetragen“, sie bildet also eine glänzende Schicht auf dem Material, ein gut
erkennbares Firnis. Der piezoelektronische Kristall wiederum öffnet sich je nach
Spannung, und lässt so Tinte raus.
Es gibt ausserdem noch vier verschiedene Thermaltransferprozesse. Auch wurden
Prozesse entwickelt, bei denen Silberhalogen Papier gezielt Licht ausgesetzt wird, Linie
für Linie, wie in einem anderen Drucker Farbe aufgetragen wird. Entwickelt und fixiert wird
es ganz traditionelll.

                                             6
Sie können auch lesen