Forschung: Die schnellste Kamera macht 156 Billionen Bilder pro Sekunde
Manche Vorgänge lassen sich am besten optisch untersuchen. Eine neue Optik sorgt nicht nur für höhere Geschwindigkeit, sondern auch für bessere Bilder.
Eine Reihe chemischer und physischer Prozesse läuft extrem schnell ab, lässt sich aber am besten optisch beobachten. Nur leider lassen sich Kamerasensoren nicht beliebig schnell machen. Das liegt einerseits an Physik – das Material hat eine gewisse Reaktionszeit, Analog-Digital-Wandler ebenso – andererseits an der schieren Datenmenge. Extrem hohe Bildraten lassen sich aber über Umwege erreichen, Wissenschaftler des Institut National de Recherche et de Sécurité (INRS) in Frankreich haben dabei mit einer Bildrate von bis zu 156,3 Teraframes per Second (TFPS) einen neuen Rekord aufgestellt.
Die Forscher haben dabei bestehende Ideen neu kombiniert. Um mit einer normalen CCD-Kamera extrem schnelle Bildfolgen aufzunehmen, bedienen Forscher sich eines Tricks: Sie nutzen eine zeitliche Codierung der einzelnen Bilder, die durch die im Verhältnis lange Belichtungszeit der Kamera überlagert werden. Wie in anderen Arbeiten zuvor setzen die INRS-Forscher auf eine Frequenzmodulation der Beleuchtung (auf Englisch als "chirp" bezeichnet). Das untersuchte Objekt wird in kurzer Folge mit verschiedenfarbigem Licht beleuchtet, verschiedene Farben stellen jeweils ein Einzelbild dar.
Jedes von der Kamera aufgenommene Bild ist also eine Art Film, aus dem die Einzelbilder wieder herausgerechnet werden. Das allein genügt aber nicht: Um die extrem hohen Bildraten zu erreichen, braucht es eine weitere räumliche Codierung. Die ermöglicht eine feinere Unterscheidung, als es allein anhand der unterscheidbaren Farben möglich wäre. Auch das ist keine neue Idee.
Das Licht bewegen, nicht die Maske
Wie die Forscher in einer Veröffentlichung im Fachmagazin Nature Communications schreiben, ist die Grundlage des neuen Rekords eine deutlich einfachere Anordnung der Komponenten.
Sie nutzen eine Codiermaske, die gewisse Pixel ausblendet. Die wird nicht bewegt, stattdessen wird das einfallende Licht mittels eines optischen Gitters in seine Spektralkomponenten aufgespalten. Entsprechend bewegt sich das Bild schnell über das Gitter, das damit ein zeitlich variables Muster hinterlässt.
Das Prinzip findet sich im Namen des Aufbaus wieder: Swept Coded Apterture Real-Time Femtography, kurz Scarf. Um keinen Farbmatsch zu erhalten, wird der räumlich aufgespaltene Lichtstrahl über ein zweites Gitter wieder zusammengeführt. Damit sind die Einzelbilder wieder genau überlagert, was ihre spätere Trennung vereinfacht. Das erfolgt durch einen Algorithmus anhand des bekannten Musters des Gitters sowie der Frequenzfolge der Beleuchtung. Die Digitalisierung erfolgt mit einem normalen CCD-Bildsensor.
Da das System ohne mechanische Komponenten auskommt, ist es nicht nur wesentlich einfacher und günstiger im Aufbau. Die räumliche Codierung kann, abhängig von der verwendeten Lichtquelle, den optischen Komponenten sowie der Pixelgröße der Kamera, zudem mit deutlich höherer Frequenz erfolgen. Und das wiederum erlaubt es, mehr Einzelbilder zu unterscheiden. Da das optische System symmetrisch ist, vermeidet es zudem Verzerrungen, die bei anderen Aufbauten prinzipbedingt auftreten.
Ich hatte einmal ein Video gesehen, bei dem man Dank High-Speed-Kamera sehen konnte, wie...
Wenn die z.B. 2 Milliarden Kameras mit je 78000fps alle an der gleichen Position stehen...
Sind bei 24 FPS immer noch 5 Sekunden
ja den Speicher parallel ansteuern, also für jedes Bild schon im vorhinein einen eigenen...
Kommentieren