Lade Inhalte...

Digitale Bildsensoren Wie das menschliche Auge

Forscher entwickeln digitale Bildsensoren, die sich nicht blenden lassen. Von Christian Meier

31.07.2009 00:07
Christian Meier
Ein verschattetes Motiv kann auch mal erwünscht sein. Foto: ddp

"Schatz, schau mal was für ein herrlicher Sonnenuntergang", sagt die junge Frau am Strand. Ihr Freund fotografiert sie mit dem Sonnenball im Hintergrund. Doch er steht vor einem Dilemma: Stellt er die Belichtungszeit so ein, dass das satte Sonnenrot aus dem Foto leuchtet, erscheint das Gesicht der Freundin als ein dunkler Fleck. Verlängert er die Belichtungszeit, zeigen sich zwar die Züge der Liebsten detailgenau auf dem Bild, aber die Sonne wirkt viel zu hell.

Der Grund für die Diskrepanz: Das menschliche Auge nimmt fast alle Helligkeitsunterschiede einer natürlichen Szene wahr, die Kamera hingegen nur einen Bruchteil davon. In Zahlen: Etwa hunderttausend mal mehr Licht kommt von einer sonnenbeschienenen Wasseroberfläche als von einem im Schatten liegenden Gesicht. Das Auge kann Details auf beiden Objekten mühelos erkennen. Bei einer Digitalkamera hingegen darf das Helligkeitsverhältnis zwischen der hellsten und der dunkelsten Stelle maximal eins zu dreitausend sein. Liegt es darüber, gibt es über- oder unterbelichtete Flächen im Bild.

Experten bezeichnen den Helligkeitsunterschied, den eine Kamera erfassen kann als Dynamikumfang. Zwar verwendet die Industrie bereits Bildsensoren mit großen Dynamikumfang, für die die eingangs erwähnte Sonnenuntergangsszene kein Problem wäre, so genannte HDR-Sensoren (HDR: High Dynamic Range). Doch es wird noch Jahre dauern, bis es auch Digitalkameras mit HDR-Bildsensoren zu kaufen gibt.

Trotzdem sind HDR-Fotografien schon längst im Internet zu sehen. Um sie herzustellen, greifen Fotografen in die Trickkiste. Sie fotografieren das Motiv mehrmals mit ansteigender Belichtungszeit. So entsteht eine Serie immer heller werdender Bilder. Jedes von ihnen zeigt unterschiedliche Details des Motivs, je nachdem wie viel Licht diese reflektieren. So lassen sich etwa auf dem ersten Bild deutlich Muster in einem hell von der Sonne beschienenen weißen Wandputz erkennen. Im letzten Bild erkennt man das Fell einer im Schatten liegenden Tigerkatze perfekt. Die Bilderserie als Ganzes enthält alle Details der Szene.

Es gibt Software, die die Einzelaufnahmen der Serie so zu einem HDR-Bild verschmilzt, dass alle Details des Motivs gleich gut erkennbar sind. Inzwischen gibt es auch Digitalkameras, die die Einzelbilder intern zu einem HDR-Bild verschmelzen.

Abhilfe durch Bilderserie

Allerdings haben die Belichtungsserien Nachteile: Das Motiv darf sich nicht bewegen. Außerdem muss der Fotograf ein Stativ verwenden. Sonst unterscheiden sich die Bildausschnitte und die Software produziert ein verwaschenes Bild.

Daher wünschen sich viele Digitalfotografen Kameras mit Bildsensoren, die einen ebenso großen Dynamikumfang wie das menschliche Auge haben.

Tatsächlich gibt es längst Bildsensoren, deren Dynamikumfang sogar größer ist als der des Auges. Die Industrie setzt sie zum Überwachen von Schweißmaschinen ein. "Obwohl der blendende Schweißlichtbogen alles überstrahlt, erkennt die Kamera Fehler in der Schweißnaht", sagt Markus Strobel vom Institut für Mikroelektronik Stuttgart (IMS Chips), das den HDR-Bildsensor entwickelt hat. Der Fehler kann dann sofort behoben werden.

Einsatz in der Medizin

Auch im menschlichen Körper sollen HDR-Sensoren von IMS Chips eingesetzt werden. Endoskope sollen damit ausgerüstet werden, um Nachteile herkömmlicher Bildsensoren zu überwinden. Diese liefern oft überbelichtete Bilder von den Organen, weil deren feuchte Oberfläche Licht stark reflektiert. Das rötliche Gewebe erscheint dann weiß. "Deshalb können farbliche Veränderungen übersehen werden, die auf Krankheiten hinweisen", sagt Strobel. Der HDR-Sensor hingegen könne nicht überbelichtet werden und gebe die Farben korrekt wieder, erläutert der Ingenieur.

Um die Sensoren vor Überbelichtung zu schützen, haben Strobel und seine Kollegen herkömmliche Bildsensoren modifiziert. Dadurch reagieren die HDR-Sensoren nicht mehr linear auf einen Anstieg der Lichtintensität, sondern logarithmisch (siehe Kasten).

Mit der logarithmischen Reaktion ahmt der Sensor das menschliche Auge nach. Er hält sogar mehr aus als das Sehorgan: "Er lässt sich nicht einmal durch direktes Sonnenlicht überbelichten", sagt Strobel.

Allerdings ist die Auflösung des HDR-Sensors mit 768 x 510 Pixeln zu gering für Digitalfotoapparate. Ein neues Forschungsprojekt namens Hidralon (High Dynamic Range and Low Noise CMOS Image Sensors) entwickelt nun immerhin HDR-Sensoren mit zwei Megapixeln für industrielle Anwendungen und Fernsehübertragungskameras.

Neben IMS Chips sind die Firma Deutsche Thomson, das Fraunhofer-Institut für Mikroelektronische Schaltungen und Systeme sowie die Forschungslaboratorien der Firma Philips Technologie beteiligt. In zwei bis drei Jahren sollen die Sensoren anwendungstauglich sein. "Für Digitalkameras müssen dann aber noch höher auflösende Sensoren entwickelt werden", sagt Strobel.

Um die hochauflösenden HDR-Sensoren alltagsfit zu machen, müssen die Hidralon-Forscher noch ein wesentliches Problem lösen: Die Sensoren erzeugen in dunkleren Bildteilen ein so genanntes Bildrauschen. Das heißt, dass viele Pixel eine geringfügig falsche Helligkeit oder Farbe anzeigen. Das Bild wirkt daher unregelmäßig und körnig.

Alle, die ihre Freunde mit realistisch wirkenden Urlaubsbildern neidisch machen wollen, müssen sich also noch gedulden.

Die Zeitung für Menschen mit starken Überzeugungen.

Multimedia App E-Paper
App
Online Kundenservice Abo-Shop
Ok

Um Ihnen ein besseres Nutzererlebnis zu bieten, verwenden wir Cookies. Durch Nutzung unserer Dienste stimmen Sie unserer Verwendung von Cookies zu. Weitere Informationen