www.brix.de - Hauptseite,  Computer Stand: 2002-06-10

Digitale Bilder für den Kopf

Vom Bus des Computers über Grafikkarte (Videoteil) und Monitor zum für den Benutzer sichtbarem Bild auf dem Monitor.

Das Bild in unserem Beispiel besteht aus einer Matrix von 1024 x 768 Punkten, das sinnvollerweise auf einem Monitor von mindestens 17 Zoll (ca. 42 cm) Bilddiagonale angezeigt werden sollte. Die Größe des Monitors spielt jedoch für die im folgenden beschriebenen Abläufe keine Rolle. Eine Grafikkarte bildet zusammen mit dem Monitor eine Schnittstelle zum Menschen. Auf der Karte wird das dort digital gespeicherte Bild in analoge elektrische Signale für einen Monitor umgewandelt. Dieser wandelt schließlich die analogen elektrische Signale in ein (analoges) im Bereich des sichtbaren Lichts selbstleuchtendes Bild auf der Mattscheibe um.

Was geschieht im Monitor?

Die Anzeige auf dem Schirm (Mattscheibe) wird durch einen (oder mehrere parallele) Elektronenstrahl(en) erzeugt, der darüber läuft und währenddessen an- und ausgeschaltet (oder in der Intensität gesteuert) wird, um schwarze, weiße, graue oder auch farbige "Pixel" (Kunstwort aus engl. "picture element" dt. etwa Bildpunkt) zu erzeugen. Jedes Pixel ist ein kleines Quadrat oder auch Rechteck, dessen Abmessungen von der Monitorgröße abhängen, auf der das Bild dargestellt wird.

Um ein Bild zu aufzubauen, startet der Elektronenstrahl in der oberen linken Ecke des Schirms (siehe Abb. 1). Der Strahl bewegt sich horizontal von links nach rechts über das Bild und erzeugt so die erste Zeile des Bildes. Hat er den letzten (1024.) Bildpunkt rechts erreicht, wird er ausgeschaltet ("dunkel getastet") und fährt dann unsichtbar bis zum Rand des Schirms fort. Anschließend springt der Strahl zurück zur linken Seite, wobei er sich eine Zeile herunter bewegt. Nachdem er den linken schwarzen Bildrand überschritten hat, werden die Bilddaten der zweiten Zeile angezeigt.

Die Zeit zwischen dem Anzeigen des letzten Pixels ganz rechts der einen Zeile und des ersten Pixels ganz links der nächsten, heißt Horizontale Austastlücke (horizontal blanking interval).

Wenn der Elektronenstrahl das letzte Pixel in der letzten (untersten) Zeile (Nr. 768) erreicht hat, fährt er noch unsichtbar bis zum Schirmende und bewegt sich dann immer noch unsichtbar zurück zur oberen linken Ecke des Schirms (dabei läuft er einige Male weiter horizontal hin und her, weil diese Bewegung nicht extra angehalten wird, da der Strahl ja ohnehin unsichtbar ist). Nachdem der Strahl über den schwarzen Rand gelaufen ist beginnt er wieder mit der Anzeige der ersten Zeile, die inzwischen natürlich auch anders aussehen kann.

Die Zeit zwischen dem letzten Pixel am unteren Bildrand und dem ersten Pixel oben heißt Vertikale Austastlücke (vertical blanking interval).

 

Weg und Zeiten eines Elektronenstrahles auf der Mattscheibe

Abbildung 1: Weg des Elektronenstrahls auf der Mattscheibe

 

Entscheidend für das Empfinden der Qualität des Bildes ist, die kompletten Einzelbilder so schnell hintereinander anzuzeigen, dass das menschliche Augen kein "Flimmern" wahrnimmt. Die Anzahl der Bilder pro Sekunde heißt Bildfrequenz oder auch Vertikalfrequenz, weil das Bild ja von oben nach unten aufgebaut wird. Eine Bildfrequenz von mindestens 75 Hz wird derzeit als ergonomisch (arbeitsmedizinisch sinnvoll) angesehen. Gehen wir also von einer Bildfrequenz von 75 Hz aus, bleibt für eine kompletten Bildaufbau die Zeit von 13,33 ms (1/75 s). In dieser Zeit müssen also alle Zeile einmal geschrieben werden, für jede Zeile ist natürlich auch ein "Rückweg" zum Anfang der nächsten Zeile nötig und am Ende des Bildes ist der "Rückweg" zum Anfang der obersten Zeile notwendig. So ergibt sich überschlägig aus der Bildfrequenz und der Anzahl der Zeilen sowie einem Faktor für die Rücklaufzeiten (horizontale und vertikale Austastlücken) die Frequenz für eine einzige sichtbare Zeile. Diese wird Horizontalfrequenz genannt und ist heutzutage das wichtigste Datum eines Monitors.

Die Tabellen zeigen die Zahlenwerte für unser Beispiel und die allgemeine Formel sowie die zugehörigen Maßeinheiten. Das Ergebnis wird in der dafür üblicherweise verwendeten Zehnerpotenz der jeweiligen Maßeinheit dargestellt.

 

63,36 = 75 * 768 * 1,1 / 1000
Horizontalfrequenz = Bildfrequenz * Anzahl Zeilen * Faktor für Rücklaufzeiten / "kilo"
[kHz] = [Hz] * [1] * [1] / [1000]

Tabelle 1: Formel zur Berechnung der Horizontalfrequenz

 

Bei einer Horizontalfrequenz von 63,36 kHz bleiben also für den sichtbaren Teil einer Zeile nur rund 15,8 µs Zeit. In diesen 15,8 µs müssen aber 1024 Punkte dargestellt werden können. Die minimale Zeit für einen Punkt oder anders gesagt die maximale Anzahl der Punkte pro Sekunde ist das weitere wichtige Datum eines Monitors. Es ist die Punktfrequenz oder der Pixeltakt; manchmal hört man auch den Begriff "Videobandbreite".

 

71,4 = 63,36 * 1024 * 1,1 / 1000
Pixeltakt = Horizontalfrequenz * Anzahl Punkte einer Zeile * Sicherheitsfaktor / "kilo"
[MHz] = [kHz] * [1] * [1] / [1000]

Tabelle 2: Formel zur Berechnung des Pixeltaktes (der Videobandbreite)

 

Der Pixeltakt ist also die Frequenz mit der aufeinanderfolgende Pixel angezeigt werden können. Von ihm ist die Schärfe eines Monitors wesentlich abhängig. In unserem Beispiel beträgt der Pixeltakt rund 71,4 MHz, die Zeit für die Darstellung eines Pixels ist also 0,014 µs. In dieser Zeit muss also ein Elektronenstrahl ein- und ausgeschaltet oder in der Intensität variiert werden können und seinen Zustand noch hinreichend lange beibehalten können, dass auch ein Pixel auf der Mattscheibe sichtbar wird.

Welches ist der passende Monitor?

Für 1024 x 768 Punkte bei 75 Hz Bildwiederholfrequenz ist also ein Monitor nötig, der eine Horizontalfrequenz von mindestens 64 kHz und einen Pixeltakt von wenigstens 72 MHz beherrscht. Außerdem sollte er nicht zu klein sein, damit für ein Pixel auch noch ein angemessener Teil Bildschirmfläche zu Verfügung steht. Farbmonitore haben hier das besondere Handicap, dass bei ihnen die Größe der Pixel nach unten begrenzt ist, da sie hinter der Mattscheibe eine Lochblende haben, durch die die Elektronenstrahlen auf die Bildpunkte treffen. Es ist also keineswegs empfehlenswert auf einem Monitor von 15" Größe eine Bild wie im Beispiel darstellen zu wollen, auch wenn es die elektrischen Daten des Monitor erlauben sollten.

Monitore, die über ihre zulässige Horizontalfrequenz hinaus betrieben werden, können Schaden nehmen, da in ihnen dann Verstärkerstufen überlastet werden. Einige Monitore verweigern daher bei Eingangssignalen außerhalb der Spezifikation bewusst den Betrieb, um sich vor Beschädigung zu schützen (meist durch einen Signalton angezeigt). Andere Monitor zeigen ein verzerrtes oder gar durchlaufendes Bild. Ein kurzer Test (wie mit der Systemsoftware möglich) sollte jedoch nicht schaden.

Leider ist wenn über die Bildgröße geredet oder geschrieben wird, die Begrifflichkeit nicht sonderlich genau. Oft wird im Zusammenhang mit der Anzahl der angezeigten Pixel von einer "Auflösung" gesprochen. Dieser Begriff ist aber falsch und irreführend, da Auflösungen immer das Verhältnis von Pixelanzahlen zu einer Fläche bedeuten, aber um die Verwirrung komplett zu machen, in der Einheit Punkte pro Länge angegeben werden. Diese Angaben sind von Druckern beispielsweise wohlbekannt: Ein Drucker mit einer Auflösung von 300 dpi (dots per inch, Punkte pro Zoll) kann auf einer Strichlänge von 2,54 cm 300 Punkte oder auf einer Fläche von 6,45 cm2 90.000 Punkte einzeln ansprechen.

Das, was gewöhnlich mit "Punkte pro Zeile mal Anzahl der Zeilen" unter dem Begriff "Auflösung" angegeben wird, ist die pixelbezogene Bildgröße. Abhängig von der Größe in der dieses Bild angezeigt wird ergibt sich die tatsächliche Auflösung auf dem Monitor. Das Hintergrundwissen um diesen Umstand ist insbesondere für eine sinnvolle Bearbeitung von Fotos und anderen pixelbasiert gespeicherten Grafiken in der Druckvorlagenherstellung unerlässlich.

Die Tabelle gibt einen Überblick über häufig verwendete Kombinationen aus Monitor und Bildgröße sowie der daraus resultierenden effektiven Auflösung (Näherungswerte).

 

Monitorgröße

(Röhrendiagonale)

Bildgröße

[cm x cm]

Bildgröße

(Pixelanzahl)

Bildauflösung

(Punkte pro Fläche)

9"

18 x 13,5

512 x 384 (s/w)

72 dpi

12"

21,3 x 16

640 x 480 (Graustufen)

76 dpi

13", 14"

22,6 x 17

640 x 480

72 dpi

15" A4 (hochkant)

n.n.

n.n.

n.n.

15"

26,5 x 19,5

640 x 480
800 x 600

61 dpi

77 dpi

17"

31,2 x 23,4

800 x 600
832 x 624
1024 x 768

65 dpi
68 dpi
81 dpi

19"

 

1024 x 768

72 dpi

20", 21"

38 x 28,5

1152 x 870
1280 x 1024
1600 x 1200

77 dpi
86 / 90 dpi
107 dpi

24" ("breitwand")

n.n.

n.n.

n.n.

Tabelle 3: Monitorgrößen und sinnvolle Bildgrößen

 

Wie kommt das Bild aus dem Rechner?

Die Bilddaten sind auf der Grafikkarte gespeichert, wo es einen speziellen Speicherbereich gibt, der vom System zur Verwaltung des Bildes benutzt wird. Von der Größe dieses Speichers ist abhängig, wie groß das Bild sein kann und wieviel Informationen pro Bildpunkt (Pixel) gespeichert werden können.

Ein Bild von der Größe 1024 x 768 Punkten braucht natürlich mindestens 786.432 Bit, um überhaupt repräsentiert werden zu können. Dann bedeutet ein Bit ein Punkt und da ein Bit nur zwei Zustände unterscheidet, kann der Punkt nur an oder aus, also schwarz oder weiß sein. Heutzutage jedoch sind Bildpunkte mindestens in verschiedenen Graustufen oder aber sogar in vielen verschiedenen Farben möglich. Für eine solche Informationsmenge wird erheblich mehr Speicher gebraucht. Will man 256 Farben oder Graustufen speichern, muss man pro Pixel acht Bit (weil 2 ˆ 8 = 256) aufwenden, also ein Byte. Entsprechend obiger Rechnung braucht man 786.432 Byte oder rund 768 kB. Da Speicherbausteine nicht in beliebiger Stückelung eingesetzt werden können, wird meist ein ganzes MB eingebaut. Grafikkarten mit 1 MB Speicher können also 1024 x 768 Bildpunkten in 256 Farben oder Graustufen darstellen. Meist können sie außerdem auch 1152 x 870 Punkte anzeigen, da der dafür nötige Speicher immer noch unter 1 MB liegt. Sollen mehr Farben möglich sein, so wird auch mehr Speicher nötig. Viele Programme sind auf 32.768 Farben optimiert, da diese Anzahl schon fast die Grenze des vom menschlichen Auge unterscheidbaren erreicht und lange Zeit einen guten Kompromiss in Sachen technischer Realisierbarkeit darstellte. Farbmonitore setzen alle Farben aus den drei Grundfarben rot, grün und blau additiv zusammen, so dass bei 15 Bit (32768 Zustände) drei Analog-Digital-Umsetzer je fünf Bit umzuwandeln hatten und ein entsprechendes Bild erzeugt werden konnte. Gleiches gilt für die 16,7 Millionen Farben, die mit 24 Bit Speicherkapazität pro Pixel möglich werden. Jeder Analog-Digital-Umsetzer hat dann acht Bit zu wandeln. Farbanzahlen deren Bitanzahl nicht durch drei teilbar sind, brauchen eine Farbumsetztabelle (color look-up table, CLUT), um die Farben gleichmäßig aufzuteilen. Da Zugriffe auf eine Tabelle Zeit kosten, ist die Einstellung 65.536 Farben lange nicht möglich gewesen, da die Speicherbausteine nicht schnell genug waren.

16,7 Millionen Farben gelten als für das Auge völlig angemessene Art und Weise der Digitalisierung. Die einzelnen Farbwerte können so dicht aufeinander folgen, dass das menschliche Auge sie nicht mehr unterscheiden kann. Daher spricht man gelegentlich auch von einer "True-Color-Einstellung" (engl. wirklichkeitsgetreue Farbe).

Der benötigte Speicher steigt bei diesen Anforderungen auf 4 MB, da 1600 x 1200 Punkte x 24 Bit = 23.961.600 Bit oder rund 3 MB. Heutzutage ist es einfacher auf 32 Bit gemeinsam zuzugreifen, außerdem ist Speicher preiswert geworden, so dass er zu Gunsten der Geschwindigkeit relativ verschwenderisch eingebaut wird.

Noch mehr Speicher wird benötigt, wenn auch Teile der Bildberechnung auf der Grafikkarte selbst mit der Hilfe spezieller Grafikprozessoren stattfinden sollen (3D-Effekte und Texturen beispielsweise). So sind durchaus 12 - 16 MB auf Grafikkarten möglich.

Früher bedeutete eine größere Anzahl der Farben eine geringere Geschwindigkeit der bildrelevanten Teile von Programmen. Das ist nicht mehr so, da heutige Prozessoren ohnehin eine Mindestanzahl von Bits pro Zugriff verarbeiten, die größer ist als 24 (meist 32 oder 64). Dennoch sollte nicht vergessen werden, dass die Operationen mit dem Speicher einer Grafikkarten auch für Computer-Verhältnisse ausgesprochen schnell sind. Sollen 1600 x 1200 Punkte x 24 Bit bei 80 Hz Bildfrequenz angezeigt werden, müssen pro Sekunde rund 4GBit oder 500 MB aus dem Speicher der Grafikkarte gelesen und in analoge Signale umgewandelt werden. Dies muss übrigens völlig unabhängig davon geschehen, ob sich das Bild ändert oder nicht und ist allein aufgrund der Darstellung des Bildes per Elektronenstrahl notwendig. Außerdem müssen während die Daten mit 500 MB/s zum Monitor fließen, noch alle Veränderungen des Bildes vom Bus des Rechners in die Grafikkarte übertragen werden. Es ist einsichtig, dass für diese Einzeloperationen nur wenige Nanosekunden übrigbleiben und es auf lange Sicht nicht wirtschaftlich sein wird, diese Technik weiter zu betreiben.

Was ändert sich in der Zukunft?

Es deutet sich immer stärker an, dass Monitore in Zukunft das Bild per Flüssigkristallanzeige (LCD, liquid crystal display) darstellen werden. LCDs benötigen keinen ständig neuen Bildaufbau und kennen keine Bildwiederholfrequenz. Sie sind echte digitale Anzeigen und brauchen keine Digital-Analog-Umsetzung der Information, da dies erst unmittelbar im Display selbst geschieht. Auch wenn derzeit die Ansteuerung noch analog erfolgt, um signalkompatibel zu gewöhnlichen Monitoren zu sein, wird die Monitorschnittstelle der Zukunft eine schnelle, netzwerkähnliche digitale Verbindung sein. - Vielleicht könnte man sogar die komplette Grafikkarte in das LCD verlegen.

Übrigens: Hätten Monitore eine Entwicklung wie Mikroprozessoren durchgemacht, was ihren Preis und ihre Leistungsfähigkeit angeht, säßen wir bereits heute vor Quadratmeter großen Schirmen für wenige hundert Mark ...


Stefan Brix
sx@brix.de

Was macht
fuxia?

www.brix.de