Was ist denn nun XGA?

Wann immer ich auf den Begriff XGA stoĂźe, erfahre ich in diesem Zusammenhang etwas Neues oder gar WidersprĂĽchliches. Kann mir wenigstens jemand die ganz konkrete Frage beantworten, ob man einen XGA-Monitor an einer VGA-Karte betreiben kann?

vorlesen Druckansicht
Lesezeit: 2 Min.
Von
  • Detlef Grell

Wann immer ich auf den Begriff XGA stoĂźe, erfahre ich in diesem Zusammenhang etwas Neues oder gar WidersprĂĽchliches. Kann mir wenigstens jemand die ganz konkrete Frage beantworten, ob man einen XGA-Monitor an einer VGA-Karte betreiben kann?

Man kann. XGA war zuerst die Bezeichnung für eine Grafikkarte, die IBM als Nachfolger für ihren Grafikadapter 8514/A entwickelt hatte. Die technischen Daten hinsichtlich Auflösung und Bildwiederholfrequenz übertrafen beim XGA-1 nicht die Fähigkeiten seines Vorgängers: Karte und zugehöriger 17"-Monitor, obwohl preislich auf den Profibereich gezielt, stellten selbst 1024 × 768 nur interlaced dar, also letztlich unprofessionell flimmerig. Konkurrenten wie ATI, die das Konzept des 8514/A aufgegriffen und zum heute üblichen `Windows-Beschleuniger´ weiterentwickelt hatten, boten seinerzeit schon mehr. IBM legte mit XGA-2 dann eine verbesserte Kombination aus Grafikkarte und Monitor nach, die 1024 × 768 auch im heute allgemein üblichen Verfahren ohne Zeilensprung darstellte. Es hängt nun davon ab, ob man einen Monitor nach XGA-1 oder XGA-2 hat, wenn es um hohe Auflösungen und Bildwiederholraten geht. Die Standard-VGA-Formate (Grafik bis 640 × 480 bei 60 Hz beziehungsweise Text mit 720 × 400 bei 70 Hz) können die Monitore in jedem Fall. Bei Super-VGA-Auflösungen muß man experimentieren. Da die Monitore nicht als echte MultiScan-Monitore im Prospekt standen, ist ungewiß, ob sie stufenlos über alle Auflösungen synchronisieren. Heute taucht der Begriff XGA eigentlich nur noch bei Notebooks auf und besagt ohne tiefergehende Spezifikation lediglich, daß eine Auflösung von 1024 × 768 möglich ist. (gr) (gr)