Smartphone-Kamera

Smartphone-Kamera: Megapixel sind nicht alles

Eine als gut bewor­bene Kamera ist mitt­ler­weile ein Stan­dard-Feature von Smart­phones. Wir zeigen Ihnen, was moderne Handy-Kameras in puncto Mega­pixel, Zoom und mehr zu bieten haben und wie sie funk­tio­nieren.
Vom vyus.de-Team zusammengestellt

Ein üppig ausge­stat­tete Kamera ist heut­zutage ein Stan­dard-Feature von Smart­phones. Das gilt mitt­ler­weile auch für güns­tigere Modelle, die Quad­kamera-Module vorweisen können und mit beson­derer Flexi­bilität, scharfen Aufnahmen und einer tollen Low-Light-Perfor­mance - also der Leis­tung bei schlechtem Licht - werben.

Doch auch mehr Mega­pixel bedeuten nicht auto­matisch bessere Qualität – wie unser großer Kame­raver­gleich beweist. Im Folgenden beschreiben wir, welchen Einfluss verschie­dene Bestand­teile einer Digital-Kamera, wie Sensor, Objektiv und Blitz, auf das Bild und seine Qualität haben.

Mehr Pixel: Nicht auto­matisch mehr Qualität

Geräte, wie das Samsung Galaxy S21 Ultra verfügen über Sensoren mit gigan­tischen Auflö­sungen. So buhlen die Smart­phones mit 108 Mega­pixel, 64 Mega­pixel und in güns­tigeren Mittel­klasse-Modellen vermehrt mit 48-Mega­pixel-Sensoren um Aufmerk­sam­keit. Die hohen Auflö­sungen sollen für mehr Details auch in entfern­teren Bild­berei­chen sorgen. Baustein ist "Pixel-Binning", wodurch mehrere Bild­punkte des Sensors zu einem zusam­menge­fasst werden. Die üppige Quadkamera des Samsung Galaxy S21 Ultra Die üppige Quadkamera des Samsung Galaxy S21 Ultra
Bild: Samsung
Zwar können die aktu­ellen Handys mit ihrer größeren Auflö­sung deut­lich mehr Details aufzeichnen als bishe­rige Kameras mit weniger Mega­pixel. Doch das bedeutet noch nicht, dass man auto­matisch auch gute Bilder erhält.

Die Anzahl der Bild­punkte allein lässt noch keinen Schluss auf die Bild­qua­lität insge­samt zu. Wenn schon die Linse ein unscharfes Bild liefert, dann vergrö­ßert etwa ein Mega­pixel-Sensor im Vergleich zu einem VGA-Sensor einfach nur die Unschärfe. Hinzu kommt, dass viele Kamera-Handys vergleichs­weise kleine Objek­tive und einen einfa­chen LED-Blitz haben. Hier zeigen sich schnell die Grenzen von Handy-Kameras.

Hard­ware ist aber nicht das Einzige, das hinter guten Bildern von Smart­phone-Kameras stecken soll. Die Soft­ware ist mitt­ler­weile ein wesent­licher Teil vom Ergebnis. KI, also künst­liche Intel­ligenz, nimmt verstärkt Einfluss auf das Endergebnis. Das ist beispiels­weise bei Aufnahmen der Fall, die unter schlechten Licht­bedin­gungen gemacht werden. Eigene Modi in der Kamera-App sollen so für eine Nach­bes­serung sorgen. Das gelingt aller­dings nicht immer.

Die Zoom-Quali­täten von modernen Smart­phones tummeln sich genauso in der Werbe­schale wie hohe Auflö­sungen. So soll man sich den Mond "heran­holen" können und auch noch Details sehen. Bis zu 100-fach Zoom bieten Modelle wie das S21 Ultra von Samsung. Um bei diesen Stufen etwas Brauch­bares auf dem Display erkennen zu können, benö­tigt der Smart­phone-Foto­graf in der Regel aber eine ruhige Hand oder ein Stativ.

Bild­sen­soren und Farb­rekon­struk­tion: CCD oder CMOS

Früher wurden als Bild­sen­soren vor allem CCD-Chips verwendet. Mitt­ler­weile wurden sie jedoch bei Kamera-Handys weit­gehend durch aktive Pixel­sen­soren (APS) abge­löst, die auf CMOS-Technik basieren und häufig auch als CMOS-Sensoren bezeichnet werden. Die üppige Quadkamera des Samsung Galaxy S21 Ultra Schema CCD/CMOS
Quelle: Kodak
Die Foto-Sensoren nutzen den soge­nannten foto­elek­tri­schen Effekt. Umso mehr Licht auf den Sensor fällt, desto größer ist die Ladung, bzw. der Strom, der damit ausge­löst wird. Daher werden so nur unter­schied­liche Maße von Hellig­keit ermit­telt wie bei einem Schwarz-Weiß-Bild. Damit Farbe ins Spiel kommt, wird vor jeden Pixel-Sensor ein Farb­filter gesetzt.

So "sieht" das eine Pixel dann rot, das andere grün und das dritte blau. In der Regel benutzt man dabei doppelt so viele grüne wie blaue und rote Filter, weil das mensch­liche Auge im Grün­bereich weitaus empfind­licher ist als im übrigen Farb­spek­trum. Um ein voll­far­biges Bild zu erzeugen wird die soge­nannte Farb­inter­pola­tion einge­setzt. Dabei werden für jeden Sensor die beiden Farben, die für diesen wegge­fil­tert wurden, aufgrund der Mess­werte der umlie­genden Pixel rekon­stru­iert. Die üppige Quadkamera des Samsung Galaxy S21 Ultra Unrealistischer Weißabgleich CMOS-Sensoren haben sich bei Handy-Kameras weit­gehend durch­gesetzt. Bei ihnen kann jedes Pixel einzeln über seine XY-Koor­dinaten ausge­lesen werden. Das verein­facht die Signal­ver­arbei­tung. Dafür schneiden CMOS-Sensoren im Mittel etwas schlechter ab, was Licht­emp­find­lich­keit und Rausch­anteil angeht. Ihre Haupt­vor­teile: CMOS-Chips können kleiner gebaut werden, verbrau­chen weniger Strom und sind in der Herstel­lung billiger als CCD-Chips. Es ist sogar möglich, CMOS-Bild­sensor und komplexe Auswer­teelek­tronik auf einen Chip zu inte­grieren.