Gestapelte Sensoren ermöglichen dünne Smartphones mit großartigen Kameras, aber es war ein langer Weg, sie für den täglichen Gebrauch gut genug zu machen
Die meisten Smartphones verfügen über eine Kamerainsel, die dicker ist als der Rest ihres Gehäuses. Aber selbst mit dieser zusätzlichen Beule sind sie dünner und machen Fotos und Videos, die besser aussehen als ihre Gegenstücke vor ein paar Jahren.
In den ersten Jahren der mobilen Fotografie brauchte man noch dickere Geräte: Erinnern Sie sich an die Kompaktkameras aus den 2000er-Jahren? Heutzutage ist alles in Geräten verpackt, die einen halben Zoll dünn sind, manchmal sogar noch weniger. Möglich machen dies gestapelte Bildsensoren.
Digitale Fotografie verstehen
Der Unterschied zwischen analogen und digitalen Kameras besteht darin, dass ersteres einen Film aus lichtempfindlichem Material zur Aufnahme von Bildern verwendet, während letzteres über einen elektronischen Sensor verfügt. Bei diesem Sensor handelt es sich bei jedem Pixel (einzelne Punkte, die ein digitales Bild bilden) um Beleuchtungsinformationen, die von einem sehr kleinen Teil des Sensors erfasst werden (einer für jedes Pixel im Foto).
Es gibt zwei Arten von Digitalkamerasensoren, CCD (Abkürzung für Charge-Coupled Device) und CMOS (Complementary Metal-Oxide Semiconductor). Alle modernen Smartphone-Kameras nutzen Letzteres, daher erklären wir Ihnen diese Technologie weiter unten.
Ein CMOS-Sensor besteht aus wenigen Elementen. Die Fotodiode ist die wichtigste: Sie erzeugt ein elektrisches Signal, wenn sie Licht empfängt. Dieses Signal wird von a gespeichert Transistor direkt neben der Fotodiode, die das Signal in digitale Informationen umwandelt und an eine elektronische Schaltung sendet.
Dieser Schaltkreis ist dafür verantwortlich, diese Daten zu interpretieren und sie zusammen mit den Milliarden anderer Pixel an den Bildsignalprozessor (ISP) weiterzuleiten, der das endgültige Bild erstellt.
Die Anfänge der Telefonkameras
Bis 2008 hatten CMOS-Sensoren ein ernstes Problem: Die zum Senden von Pixelinformationen an den ISP erforderliche Verkabelung verlief zwischen der Fotodiode und dem Objektiv und blockierte einen Teil des Lichts. Die gleiche Struktur wurde für CCD-Sensoren verwendet, die lichtempfindlicher waren, aber für CMOS bedeutete dies dunklere, verrauschtere und unschärfere Fotos.
Das wurde mit einer einfachen Idee gelöst: Die Fotodiode über den Drähten zu bewegen, damit sie mehr Licht empfängt und so die Bildqualität verbessert. Dies wird als rückseitig beleuchteter (BSI) Sensor bezeichnet, im Gegensatz zu früheren Sensoren, die von vorne beleuchtet waren.
Um die Dinge in einen Zusammenhang zu bringen: Das iPhone 4, mit dem Apples Ruf in der Smartphone-Fotografie begründet wurde, gehörte zu den ersten Telefonen, die diesen Sensortyp verwendeten. Heutzutage verwenden praktisch alle Smartphone-Kameras BSI-Sensoren.
Gestapelte Sensoren verbessern die Fotoqualität und reduzieren die Größe
Auch nach dem Entfernen des Kabels gab es bei CMOS-Sensoren noch Verbesserungspunkte. Einer davon war der Schaltkreis, der für die Verarbeitung der Transistorinformationen verantwortlich war. Es wickelte sich um die Fotodiode. Aus diesem Grund landete etwa die Hälfte des Lichts, das jedes Pixel erreichte, in einem Teil des Sensors, der kein Licht einfing.
Im Jahr 2012 wurde der erste gestapelte CMOS-Sensor entwickelt. Anstatt die Fotodiode zu umwickeln, wird die Schaltung darunter platziert. Da es (teilweise) ein Substrat ersetzt, das für die strukturelle Steifigkeit verwendet wird, gibt es keine zusätzliche Dicke. Tatsächlich führten seitdem Verbesserungen im Stapelprozess, sowohl von Sony als auch von anderen Herstellern, die die Technologie übernommen haben, zu dünneren Sensoren, die dünnere Telefone ermöglichten.
Wie wäre es mit noch mehr Stapeln?
Wenn man die Schaltung unter die Fotodiode verschiebt, könnte man meinen, dass die oberste Schicht ausschließlich vom lichteinfangenden Teil belegt wäre, oder? Falsch.
Erinnern Sie sich an den Transistor? Es befindet sich direkt neben der Fotodiode und nimmt so noch mehr wertvollen Platz zum Einfangen von Licht ein. Die Lösung? Mehr Stapeln!
Ingenieure hatten es schon früher getan. Im Jahr 2017 kündigte Sony einen Kamerasensor mit RAM zwischen Fotodiode und Schaltkreis an, der Superzeitlupenvideos mit 960 Bildern pro Sekunde ermöglicht. Es ging darum, die gleiche Idee auf einen Teil des vorhandenen Sensors anzuwenden.
Jetzt befindet sich die Fotodiode endlich im obersten Teil des Sensors, und zwar nur noch die Fotodiode. Dadurch wird effektiv das Signal verdoppelt, das die Fotodiode erfassen und der Transistor speichern kann.
Der unmittelbarste Effekt ist die Verdoppelung der Lichtinformationen, die jedes Pixel verarbeiten muss. Und wie bei allem in der Fotografie bedeutet mehr Licht detailliertere Bilder.
Da der Transistor jedoch auch seine Kapazität verdoppelt, kann er die elektrischen Signale der Fotodiode besser in digitale Informationen umwandeln. Eine der möglichen Anwendungen hierfür ist die Reduzierung des Bildrauschens, wodurch das Erscheinungsbild von Fotos weiter verbessert wird.
Gestapelte Sensoren für eine bessere Zukunft
Während es einfach gestapelte Sensoren – Fotodiode und Transistor in einer Schicht, Schaltkreis darunter – schon seit einiger Zeit gibt, sind doppelt gestapelte Sensoren (eine Schicht für jedes Teil) noch etwas neu. Sie kommen vor allem in professionellen Kameras zum Einsatz. Das erste Mobiltelefon mit einem solchen Sensor, das Sony Xperia 1 V, kam im Mai 2023 auf den Markt.
Das heißt, die Technologie steckt noch in den Kinderschuhen. Zusammen mit mehreren anderen Verbesserungen, die bisher in der mobilen Fotografie vorgenommen wurden, gestapelt Sensoren bedeuten, dass Smartphone-Kameras auf dem Weg in eine bessere Zukunft sind – oder sollten wir besser sagen: eine hellere Bild?