Wie viele Pixel sieht unser Auge?

8 min

ires.jpg

Vor einer Weile war man cool, wenn man ein FullHD-Display besaß. Mittlerweile wird schon 4K oder gar 8K gefordert, doch würde es dem menschlichen Auge genügen – wo ist die Grenze?

Aus verschiedenen Blickwinkeln möchte ich mich daher dem Auge nähern und über den idealen Bildschirm fantasieren – auch in Bezug auf die Framerate, diesmal inklusive konkreter Zahlen. Deshalb empfiehlt sich das Wissen aus meinem ersten Serienteil, ebenso ist der Anfang wieder mehr an Neulinge gerichtet.

Was sind Pixel?

Beginnen wir mit der Grundeinheit der digitalen Darstellung: dem Pixel.

Diese Worte hier werden beispielsweise durch ein paar Pixel angezeigt, davon besitzen 1920×1080-Bildschirme rund 2 Millionen Stück. Je nach Monitor-Typ werden die Pixel unterschiedlich erzeugt, meistens besteht jedoch einer wiederum aus mindestens 3 Subpixeln der Farben Rot, Grün und Blau.

Free-TV und Film-DVDs sind überwiegend 480, HD 720 Bildpunkte hoch. Full HD (FHD) ist aktuell noch angesagter, besonders bei der Auflösung von Monitoren, manche werden aber schon bei WQHD (2560 x 1440), UHD (3840 x 2160) oder irgend etwas dazwischen angekommen sein, alle anderen Träumen davon. Dabei wird noch vergleichsweise wenig Bildmaterial in digitalem 4K veröffentlicht (»K« für hier ca. Tausend Pixel in der Breite), schärferes Material ist in Arbeit und rohe Fotos werden schon längst nochmals deutlich hochauflösender geschossen.

pixels.jpg
LCD von nahem – ganz schön unschön.

Wie viele Pixel sind jetzt genug?

Steht man auf einfarbige Quadrate, wird das Erhöhen der Bildpunkte keine weitere Befriedigung bringen, da theoretisch ein einzelner perfekter Pixel genügen würde. Weil in der Welt aber nichts genau einfarbig und exakt eckig ist, räumen wir diese Idee lieber unverzüglich vom Tisch.

Es bleibt trotzdem möglich, dass eine handvoll Pixel genügen. Wie auch Zeit ist die Displayschärfe relativ für den Betrachter. Wippt man mit Blick zum Monitor vor und zurück, schaut man nicht nur bescheuert aus, sondern merkt darüber hinaus, wie sich erst die Pixel einzeln vor einem auftürmen und danach selbst in Grüppchen unkenntlich werden. Aus dem gleichen Grund wirken auch die ersten Generationon der VR-Headsets so pixelig; setzt man sich so nahe vor ein HD-Panel, dass ein großer Teil unseres Sichtfeldes eingenommen wird, sind 2 MP (Megapixel) eben nicht ausreichend (wobei der Abstand zwischen den Pixeln nochmals den negativen Eindruck verstärken kann).

Auf welche Entfernung einigen wir uns dann?

Entscheidend bleibt die Größe, die der Monitor in unserem Sichtbereich einnimmt. Deshalb sollten wir uns auf »Pixel pro Grad« fokussieren. Nimmt ein Bild in Full HD beispielhaft 40° unseres Blickfeldes ein, ist es ungefähr genauso akkurat, wie UHD 4K und 80° (sofern die Monitore passend gekrümmt sind).

Nun denn, damit können wir die Bildpunkte für ein ganzes Grad anhand der Pixeldichte des Auges berechnen. Einfach kurz nach Fovea Centralis suchen und man findet heraus, solche Zellen für je einen Pixel haben in unserem Sehorgan Dimensionen von 31,46 Winkelsekunden (ein Grad besteht aus 60 * 60 Winkelsekunden, somit ein Pixel alle 0,00873888…°).

Wie viel Grad sieht ein Auge?

Praxisnäher wäre die Suchen nach dem sogenannten »Field of View« beider Augen kombiniert oder gar dem Bereich zweier schwenkender Augäpfel, da sich die beiden ständig bewegen und alles abscannen. Hierbei gibt es Unterschiede von Mensch zu Mensch – dass genau Du besonders bist und weitaus Größeres als der Durchschnitt erblicken kannst, überlasse ich hier mal den Werbeleuten der Zukunft. Werte zu letzterem liegen jedoch bei mindestens 270° horizontal und 135° vertikal. Daraus ergeben sich also 270 / (31,46 / 60 / 60) Pixel in der Breite und 135 / 0,00873888 für die Höhe. Dies wäre eine Auflösung von 30K15K (30896 x 15448 um genau zu sein) und damit fast ein halbes Gigapixel an dauerhaften Informationen! Gleich als gültig annehmen wollen wir das aber noch nicht.

Okay, bloß wie hilft das bei der Suche nach der Bildrate?

Wir sollten uns zuerst etwas warmmachen, motivieren. Dazu packt man mit der Hand nach seinem kleinen Freund und holt ihn heraus. Darauf konzentrieren und kräftig schütteln. Solange ihr ordentlich wedelt, sollte die Anzeige des Smartphones nun verwaschen. Ist das Hintergrundbild noch deutlich zu sehen, muss stärker geschüttelt werden… aber das ist ja dann Motion Blur!? Und dies direkt vom Auge?

Gehen wir einen Schritt zurück und erinnern uns, dass das menschliche Auge nicht auf einzelne Bilder beschränkt ist und einen (meist) kontinuierlichen Eindruck der Umgebung einfängt, daher kein »FPS-Cap« besitzt. Das wird erreicht, indem sich die zwei Augen auf einen Punkt fixieren, bewegt sich dieser nun, müssen im die beiden folgen um ihn klar zu erkennen. Will man nun aber auf etwas Neues blicken, machen die Augen einen schnellen, scheinbar sofortigen Sprung (Sakkade genannt).

Bitte nochmals mitmachen: Schaut links neben euren Monitor und schwenkt direkt rechts neben ihn. Erledigt? Und, was genau war auf dem Monitor zu sehen? … Wie bitte? Ihr habt es nicht erkannt? Dann blickt ein weiteres Mal zügig hin und her, irgendwas ist ja immer direkt mittig in der Linse, das kann man doch nicht einfach verpassen! Oder vielleicht doch… ist der Sehapparat eben lediglich zu faul oder überfordert und uns entgehen wertvolle Augenblicke unseres Lebens?

Die traurige Wahrheit lautet: ja. Alles zwischen dem Start- und Endpunkt jener dieser Blickzielbewegung sollte normal unwichtig sein und ist bei solch rasanter Fahrt zu viel Information auf einmal, als dass wir eine scharfe Bewegung stemmen könnten. Doch ein kurzer »Blackscreen« währe noch unsinniger, so wird der Zielpunkt unserer Bewegung im Hirn länger angezeigt. Dies ist jedoch so gut wie unmöglich zu erkennen, außer es hängt eine Analoguhr an der Wand. Schaut man im richtigen Moment auf die Uhr (der Sekundenzeiger hatte gerade gestoppt), kommt einem die erste Sekunde leicht länger vor als eine echte Sekunde, denn der erste Zustand des Zeigers wird einem eben direkt nach dem Abwenden von der vorherigen Szene angezeigt.

Moment, unsere Augen sehen in die Zukunft?

Schön wär’s, leider gerade umgekehrt. Nicht, dass der Monitor lange genug verzögert, das Licht davon ewig zu unserer Netzhaut benötigt, nein, jetzt trödelt noch das Gehirn. Hin oder her, dass es diese Sakkaden gibt genügt uns vorerst für unsere Bildschirmwahl. Okay, wenn es euch doch interessiert und ihr euch fragt, wieso gerade der visuelle Eindruck so »laggt«, sei hiermit gesagt, dass auch eure Kopf-, bzw. Augenschwenks sich früher ereignen als ihr unwillkürlich merkt. Dadurch werden beide Signale synchronisiert. Gleiches passiert auch, wenn man mit seinem geliebten großen (spielt nicht gleich wieder mit der Hose und lest zunächst weiter!) Zeh die Stirn berührt. Die Nerven an der Stirn senden durch örtliche Nähe schnell ihre Signale ans Hirn, etwas verzögert kommt die Nachricht der Fußspitze an und erst dann bearbeitet das Gehirn beides weiter, um aus den Reizen eine Information für unsere Wahrnehmung zu machen. Deshalb dieser Lag. So können wir uns also nicht selbst durch eine Berührung erschrecken. Ob dies jedoch auch für den Schwanz (hihi, jetzt hat er endlich »Schwanz« geschrieben) einer Katze gilt, wage ich zu bezweifeln.

Nun denn, Smooth Pursuit nennt sich das geschmeidige Verfolgen eines Objektes, welches man scharf sieht. Bewegt es sich zu schnell, muss das Auge nun über kurze Distanzen flink zucken, um noch Details zu erkennen, hier hat man dann kleinere Sakkaden nacheinander. Bei noch rascherem Vorbeihuschen oder generell starken Beschleunigungen wie in unserem ersten Experiment mit Handy (oder was auch immer ihr gerade zur Hand hattet), kommen selbst die schnellen Augenbewegungen an ihre Grenze und reichen nicht mehr aus, worauf nun ein unscharfes Bild entsteht.

Mit der Geschwindigkeit findet sich also die Hertz-Zahl?

Korrekt, wer sich noch an Snake aus dem vorherigen Blog erinnert (nicht der aus Metal Gear) wird wissen, dass sich der winzige Wurm definitionsgemäß in Ein-Pixel-Schritten bewegt. Auf unserem 30K-Monster wäre die kleinste erkennbare Regung damit 31,46 Winkelsekunden eines Bildpunktes. Ein entsprechendes Display dieser Dimension müsste zusätzlich wie eine Kugel gekrümmt sein, also senkrecht und waagerecht »curved«, damit jeder Bewegungsschritt auch fast gleich groß für uns erscheint. Die Ecken eine glatten Monitors sind nämlich weiter von unserem Kopf entfernt als die Mitte, je mehr das Bild unsere Sicht ausfüllt, desto eher entstehen Verzerrungen.

Wird Snake klassischerweise mit zunehmendem Schwierigkeitsgrad immer zügiger, kann er stetig mehr Pixel pro Sekunde zurücklegen und profitiert folglich von mehr Frames, um Standortsänderungen komplett flüssig zu sehen. Hat unser Auge nun solch ein Speedlimit für akkurates Sehen, könnte man sich mit einem technisch möglichen Display zufriedenstellen.

Wenn wir jetzt noch wüssten, dass Smooth Pursuit – einem gut sichtbaren, horizontal fliegenden Ding folgend (was der Idealfall wäre), und ohne unterstützendem Drehen des Kopfes – maximal bei 100 Grad pro Sekunde liegt, könnte uns das helfen. Denn auf 100° liegen rund 11444 Pixel, 11444 Hz dürften damit genügen (ein Einzelbild geht je leicht über 87µs). Bei noch eiligere Schwenks à la Michael Bay lässt sie unser Schädel sowieso verwaschen. So gäbe es endlich konkrete Werte, die man sich auf den Wunschzettel schreiben könnte.

Das kann doch unmöglich ohne Haken auskommen?

Meh, widmen wir uns vorerst den 30K. Selbst wenn überall in unserem Auge diese »Pixelzellen« 0,0087° belegen, heißt es nicht, dass man beim Rotieren jenes nicht noch feiere Details erkennen kann, besonders beim Zusammenspiel beider Äpfel. Andererseits erreichen nur sehr wenige Menschen diesen hohen Wert. Realistischer ist da der rund doppelte Wert von 60 Winkelsekunden pro Grad, auf den auch beim Sehtest abgeziehlt wird.

Die folgende Grafik könnt ihr beim Monitorkauf als Orientierung nehmen, die untere Farbe geht von 120, die obere Farbe von 60 Winkelsekunden pro Grad aus. Beide jeweils für UHD-2 (8K, gepunktet), UHD-1 (4K, kurz gestrichelt), FHD (lang gestrichelt) und HD (durchgezogen).

18 20 22 24 26 28 30 32 34 36 25 50 75 100 125 150 175 200 Diagonale (Zoll) Abstand (cm)
Welche Bild-Diagonale (bei 16:9) sollte das Display etwa haben, wenn man x Meter entfernt sitzt?

Außerdem könne man bei Bewegungen weniger Kleinigkeiten feststellen, da unser Sehorgan – wie schon so oft gesagt – keine ganzen Bilder schießt, sondern eher benachbarte Zellen nacheinander verwendet, vergleichbar mit manchen Highspeed-Kameras. Zudem behauptete ich einfach, die hohe Auflösung der Fovea centralis herrsche überall auf der Netzhaut, diese Sehgrube macht aber nur rund 5 Grad aus, je weiter man sich davon entfernt, desto gröber wird die Wahrnehmung. Erst erkennt man nur vage Formen, später fehlen noch Farbinformationen.

Übrigens ist das Sichtfeld rundlich, die Ränder des Mega-Monitors wären somit bei starrem Hals nicht möglich zu Gesicht zu bekommen. Hier benötigt unser Monstrum also keinerlei Pixel. Apropos keinerlei Pixel, streckt einen Arm und erhebt den Daumen vor euch. Das Auge gegenüber der gehobenen Hand wird geschlossen, das offene fokussiert sich zunächst auf etwas direkt neben und leicht unter eurem Nagel. Fährt man mit der Hand nun bei starrem Blick nach außen, und wurde alles richtig beachtet, verschwindet plötzlich die Fingerspitze. Hier liegt der Blinde Fleck.

Somit könnten wir unsere Anzeige etwas demontieren; Ränder abrunden, Kanten nur mit Schwarz-Weiß-Pixeln füllen und generell gröbere Pixel in Richtung der Ecken verwenden. Mit Eye-Tracking kann der Bereich der maximalen Detailschärfe nochmals zusätzlich begrenzt werden und gleichzeitig der Blinde Fleck jedes Auges für die Bilddarstellung ausgeklammert werden. Bei guter Implementierung würde das die Grafikkarte deutlich entlasten, aber bis dahin läuft hoffentlich eh alles in absolutem Fotorealismus.

Bezüglich der Displayfrequenz sollte man erwähnen, dass Snake wohl doch keinen einwandfreien Benchmark für unseren Wunschbildschirm hergibt. Würden wir Supersampling oder ähnliche Kantenglättungsmethoden verwenden, könnte man Snakes Positionsänderungen nochmals verfeinern, da der vorerst schwarze Pixels vor seinem Kopf zum Beispiel erst 50 Shades of gray anzeigt, bevor er von pitch black zu blank weiß wird. Gleiches gelte für Realfilme, falls die Anspielungen darauf nicht deutlich genug waren.

Fraglich bleibt hingegen, ob der Unterschied an so mickrigen Bildpunkten wahrnehmbar bleibt, besonders bei hohem Tempo und Verschiebungen für die perfekte Illusion wirklich Pixel um Pixel erfolgen müssen. Ebenso nutzt das Gehirn eine Art Motion Interpolation und »rät« nächste Bewegungen, gut erkennbar am Flash-Lag Effekt.

Bedeutet das denn jetzt Gutes oder Schlechtes?

Es gibt kein… den blöden Spruch kann ich nicht schon wieder bringen. Jedenfalls, mit meiner letzten Schätzung liege ich in der Refreshrate über 64 Mal höher als beim aktuell kaufbaren Limit (240Hz) und bei der Auflösung pro Grad im aktuell machbaren und teils verwendeten (8K auf 50° des Sichtfeldes), einzig in diesen Ausmaßen ungewöhnlich. Trotz den Einschränkungen unseres Sehsinns muss danach noch nicht Schluss sein, die Bildrate hängt aktuell bloß merklich hinterher. Die milde Schärfe aktueller Virtual Reality Peripherie sticht uns nur so ins Auge, da wir mehr Pixel pro Grad gewohnt sind, warum sollte das nicht zudem für höhere Hertz-Werte gelten? Zudem lohnt sich das reine erhöhen der Auflösung nicht immer, ein Mad Max: Fury Road in 4K bekommt bei lediglich 24 Bildern pro Sekunde nahezu durchgehend Bewegungsunschärfe, da hier selbst eine an den Autos befestigte Kamera leicht wackelt. Mehr fps würden in diesen Fällen die hohe Auflösung nochmals merklich schärfer als Full HD machen. Anders als bei vorgefertigtem Filmmaterial, kann man bei Computerspielen immerhin zwischen 720p und 60fps oder 1080p und 30fps wählen und hat keine Probleme mit Blur… quatsch, das ist ein PC der kann 16K @240fps (wo wir wieder beim Träumen wären).