FernseherEdit
Fernseher haben die folgenden Auflösungen:
- Standard Definition TV (SDTV):
- 480i (NTSC-kompatibler digitaler Standard mit zwei Interlaced-Feldern mit jeweils 243 Zeilen)
- 576i (PAL-kompatibler Digitalstandard mit zwei Interlaced-Feldern von Jeweils 288 Zeilen)
- Fernsehen mit verbesserter Auflösung (EDTV):
- 480p (720 × 480 progressiver Scan)
- 576p ( 720 × 576 Progressive Scan)
- 720p (1280 × 720 Progressive Scan)
- 1080i (1920 × 1080, aufgeteilt in zwei verschachtelte Felder mit 540 Zeilen)
- 1080p (progressiver Scan 1920 × 1080)
- 4K UHD (progressiver Scan 3840 × 2160)
- 8K UHD (progressiver Scan 7680 × 4320)
ComputermonitoreEdit
Computermonitore haben traditionell höhere Auflösungen als die meisten Fernseher.
2000sEdit
Im Jahr 2002 1024 × 768 eXtended Graphics Array war die häufigste Bildschirmauflösung. Viele Websites und Multimedia-Produkte wurden vom vorherigen 800 × 600-Format auf die für 1024 × 768 optimierten Layouts umgestaltet.
Die Verfügbarkeit kostengünstiger LCD-Monitore führte zu einer Auflösung des Seitenverhältnisses von 5: 4 von 1280 × 1024 populärer für die Desktop-Nutzung im ersten Jahrzehnt des 21. Jahrhunderts. Viele Computerbenutzer, einschließlich CAD-Benutzer, Grafiker und Videospielspieler, haben ihre Computer mit einer Auflösung von 1600 × 1200 (UXGA) oder höher betrieben, z. B. 2048 × 1536 QXGA, wenn sie über die erforderliche Ausrüstung verfügten. Andere verfügbare Auflösungen umfassten übergroße Aspekte wie 1400 × 1050 SXGA + und breite Aspekte wie 1280 × 800 WXGA, 1440 × 900 WXGA +, 1680 × 1050 WSXGA + und 1920 × 1200 WUXGA; Monitore, die nach dem 720p- und 1080p-Standard gebaut wurden, waren aufgrund der perfekten Bildschirmkompatibilität mit Film- und Videospielversionen auch bei Heimmedien- und Videospielern nicht ungewöhnlich. Eine neue Auflösung von mehr als HD von 2560 × 1600 WQXGA wurde 2007 auf 30-Zoll-LCD-Monitoren veröffentlicht.
2010sEdit
Ab März 2012 war 1366 × 768 die höchste Gemeinsame Bildschirmauflösung.
Im Jahr 2010 wurden 27-Zoll-LCD-Monitore mit einer Auflösung von 2560 × 1440 Pixel von mehreren Herstellern, einschließlich Apple, veröffentlicht. Im Jahr 2012 führte Apple ein 2880 × 1800-Display auf dem MacBook Pro ein . Panels für professionelle Umgebungen wie medizinische Zwecke und Flugsicherung unterstützen Auflösungen von bis zu 4096 × 2160 Pixel.
Allgemeine BildschirmauflösungenEdit
In der folgenden Tabelle ist der Nutzungsanteil der Anzeige aufgeführt Auflösungen aus zwei Quellen, Stand Juni 2020. Die Zahlen sind nicht repräsentativ für Computerbenutzer im Allgemeinen.
Wenn eine Computerbildschirmauflösung höher als die physische Bildschirmauflösung (native Auflösung) eingestellt ist, machen einige Grafiktreiber Der virtuelle Bildschirm kann über den physischen Bildschirm gescrollt werden, wodurch ein zweidimensionaler virtueller Desktop mit seinem Ansichtsfenster realisiert wird. Die meisten LCD-Hersteller beachten die native Auflösung des Panels, da die Arbeit mit einer nicht nativen Auflösung auf LCDs zu einem schlechteren Bild führt, da Pixel fallen gelassen werden, um das Bild anzupassen (bei Verwendung von DVI), oder wenn die Abtastung des Panels unzureichend ist Analoges Signal (bei Verwendung eines VGA-Anschlusses) Nur wenige CRT-Hersteller geben die wahre native Auflösung an, da CRTs analoger Natur sind und ihre Anzeige von nur 320 × 200 (Emulation älterer Computer oder Spielekonsolen) bis zu hoch variieren können Die interne Platine ermöglicht dies, oder das Bild wird zu detailliert, als dass die Vakuumröhre es wiederherstellen könnte (dh analoge Unschärfe). Daher bieten CRTs eine Variabilität in der Auflösung, die LCDs mit fester Auflösung nicht bieten können.
In den letzten Jahren Das Seitenverhältnis von 16: 9 ist bei Notebook-Displays immer häufiger geworden. 1366 × 768 (HD) ist bei den meisten kostengünstigen Notebooks beliebt geworden, während 1920 × 1080 (FHD) und höhere Auflösungen für Premium-Notebooks verfügbar sind.
In Bezug auf die digitale Kinematographie v Ideo-Auflösungsstandards hängen zuerst von der Anzahl der Bilder im Bildmaterial (das normalerweise für die digitale Zwischenproduktion gescannt wird) und dann von der tatsächlichen Punktzahl ab. Obwohl es keinen eindeutigen Satz standardisierter Größen gibt, ist es in der Filmindustrie üblich, sich auf die „nK“ -Bildqualität zu beziehen, wobei n eine (kleine, normalerweise gerade) Ganzzahl ist, die sich in einem Satz tatsächlicher Auflösungen niederschlägt , je nach Filmformat. Als Referenz sei angenommen, dass für ein Seitenverhältnis von 4: 3 (ungefähr 1,33: 1), in das ein Filmbild (unabhängig von seinem Format) horizontal passen soll, n der Multiplikator von 1024 ist, so dass die horizontale Auflösung ist genau 1024 • n Punkte. Beispielsweise beträgt die 2K-Referenzauflösung 2048 × 1536 Pixel, während die 4K-Referenzauflösung 4096 × 3072 Pixel beträgt.2K kann sich jedoch auch auf Auflösungen wie 2048 × 1556 (volle Apertur), 2048 × 1152 (HDTV, Seitenverhältnis 16: 9) oder 2048 × 872 Pixel (Cinemascope, Seitenverhältnis 2,35: 1) beziehen. Es ist auch erwähnenswert, dass eine Bildauflösung beispielsweise 3: 2 (720 × 480 NTSC) sein kann, dies jedoch nicht auf dem Bildschirm angezeigt wird (dh 4: 3 oder 16: 9, abhängig von der Ausrichtung von die rechteckigen Pixel).
Entwicklung der StandardsEdit
Viele in den späten 1970er und 1980er Jahren eingeführte PCs wurden entwickelt, um Fernsehempfänger als Anzeigegeräte zu verwenden, wodurch die Auflösungen von der abhängig wurden Verwendete Fernsehstandards, einschließlich PAL und NTSC. Die Bildgrößen waren normalerweise begrenzt, um die Sichtbarkeit aller Pixel in den wichtigsten Fernsehstandards und der breiten Palette von Fernsehgeräten mit unterschiedlichem Over-Scan zu gewährleisten. Der tatsächlich zeichnbare Bildbereich war daher etwas kleiner als der gesamte Bildschirm und war normalerweise von einem statisch gefärbten Rand umgeben (siehe Bild rechts). Außerdem wurde das Interlace-Scannen normalerweise weggelassen, um dem Bild mehr Stabilität zu verleihen und die laufende vertikale Auflösung effektiv zu halbieren. 160 × 200, 320 × 200 und 640 × 200 auf NTSC waren zu dieser Zeit relativ häufige Auflösungen (224, 240 oder 256 Scanlinien waren ebenfalls üblich). In der IBM PC-Welt wurden diese Auflösungen von 16-Farben-EGA-Grafikkarten verwendet.
Einer der Nachteile bei der Verwendung eines klassischen Fernsehgeräts besteht darin, dass die Auflösung des Computerbildschirms höher ist, als das Fernsehgerät dekodieren könnte. Die Chroma-Auflösung für NTSC / PAL-Fernseher ist bandbreitenbegrenzt auf maximal 1,5 Megahertz oder ungefähr 160 Pixel Breite, was zu einer Unschärfe der Farbe für 320- oder 640-breite Signale führte und das Lesen von Text erschwerte (siehe Beispielbild unten) ). Viele Benutzer haben auf höherwertige Fernseher mit S-Video- oder RGBI-Eingängen umgerüstet, um Chroma-Unschärfe zu vermeiden und besser lesbare Displays zu erzeugen. Die früheste und kostengünstigste Lösung für das Chroma-Problem wurde im Atari 2600 Video Computer System und im Apple II + angeboten, die beide die Option boten, die Farbe zu deaktivieren und ein altes Schwarzweißsignal anzuzeigen. Auf dem Commodore 64 spiegelte das GEOS die Mac OS-Methode zur Verwendung von Schwarzweiß zur Verbesserung der Lesbarkeit wider.
Die Auflösung von 640 × 400i (720 × 480i mit deaktivierten Rändern) wurde erstmals von Heimcomputern wie z als Commodore Amiga und später als Atari Falcon. Diese Computer verwendeten Interlace, um die maximale vertikale Auflösung zu erhöhen. Diese Modi waren nur für Grafiken oder Spiele geeignet, da das flackernde Interlace das Lesen von Text in Textverarbeitungs-, Datenbank- oder Tabellenkalkulationssoftware erschwerte. (Moderne Spielekonsolen lösen dieses Problem, indem sie das 480i-Video auf eine niedrigere Auflösung vorfiltern. Beispielsweise flackert Final Fantasy XII beim Ausschalten des Filters, stabilisiert sich jedoch nach Wiederherstellung der Filterung. Den Computern der 1980er Jahre fehlte ausreichend Strom ähnliche Filtersoftware auszuführen.)
Der Vorteil eines überscannten 720 × 480i-Computers war eine einfache Schnittstelle zur Interlaced-TV-Produktion, die zur Entwicklung von Newteks Video Toaster führte. Mit diesem Gerät konnte Amigas verwendet werden Für die CGI-Erstellung in verschiedenen Nachrichtenabteilungen (Beispiel: Wetterüberlagerungen), Drama-Programme wie NBCs seaQuest, The WBs Babylon 5.
In der PC-Welt das IBM PS / 2 VGA (Multi On-Board-Grafikchips in Farbe verwendeten eine nicht verschachtelte (progressive) Farbauflösung von 640 × 480 × 16, die leichter zu lesen und damit für Büroarbeiten nützlicher war. Dies war die Standardauflösung von 1990 bis etwa 1996. Die Standardauflösung war 800 × 600 bis ungefähr 2000. Microsoft Windows XP, veröffentlicht i n 2001 wurde für eine Ausführung von mindestens 800 × 600 entwickelt, obwohl es möglich ist, die ursprüngliche Größe von 640 × 480 im Fenster Erweiterte Einstellungen auszuwählen.
Programme, die ältere Hardware wie Atari, Sega oder nachahmen Nintendo-Spielekonsolen (Emulatoren) verwenden, wenn sie an Multiscan-CRTs angeschlossen sind, routinemäßig viel niedrigere Auflösungen wie 160 × 200 oder 320 × 400 für eine höhere Authentizität, obwohl andere Emulatoren die Pixelerkennung auf Kreisen, Quadraten, Dreiecken und anderen geometrischen Merkmalen genutzt haben auf eine geringere Auflösung für ein skalierteres Vektor-Rendering. Einige Emulatoren können bei höheren Auflösungen sogar das Aperturgitter und die Schattenmasken von CRT-Monitoren nachahmen.
-
In diesem Bild eines Commodore 64-Startbildschirms wäre der Overscan-Bereich (der hellere Rand) bei Anzeige auf einem normalen Fernseher kaum sichtbar gewesen.
-
Eine 640 × 200-Anzeige, wie sie von einem Monitor (links) und einem Fernseher erzeugt wird
-
16-farbig ( oben) und progressive 256-Farben-Bilder (unten) von einer VGA-Karte aus den 1980er Jahren. Dithering wird verwendet, um Farbbeschränkungen zu überwinden.
Häufig verwendete Bearbeitung
In der Liste der häufig verwendeten Auflösungen sind die am häufigsten verwendeten Anzeigeauflösungen für Computergrafik und Fernsehen aufgeführt , Filme und Videokonferenzen.