Sie verfügen über eine Full-HD-Bildauflösung von 1.920 x 1.080 Pixeln, eine Leuchtdichte von 250 Candela pro Quadratmetern, einen typischen Kontrast von 1.000:1 und einen dynamischen Kontrast von 50.000.000:1 sowie über WLED-Hintergrundbeleuchtung. Die Reaktionszeit beträgt fünf Millisekunden und der Blickwinkel 178 Grad horizontal wie vertikal. Die Neigefunktion erlaubt eine Einstellung von 15 bis 57 Grad.
In beiden All-in-Modellen arbeiten ein Nvidia Tegra T33 Quad Core Prozessor mit 1,6 Gigahertz schneller Taktrate, ein zwei Gigabyte großer DDR3-Arbeitsspeicher und das Betriebssystem Google Android 4.2. Der acht GB große eMMC-Flashspeicher ist über den SDHC-Kartenslot (Secure Digital High Capacity) erweiterbar.
Die Ausstattung beider Geräte runden unter anderem eine HD-Webcam, Anschlüsse für USB 2.0, Micro-USB, VGA, HDMI, RJ45 und WLAN sowie zwei Zwei-Watt-Lautsprecher ab. Durch den direkten Zugang zu allen möglichen Anwendungen via Internet sieht der Hersteller die Geräte genauso für Otto Normalverbraucher geeignet wie auch für den B2B-Einsatz in Hotellobbys, Gaststätten, Flughäfen, Banken und Bildungseinrichtungen.
Die Geschichte der Monitore
Sie würden das hier nicht lesen, wenn es keinen Monitor gäbe. Egal, ob LCD, CRT oder Lochstreifenpapier - seit dem Beginn der IT-Geschichte suchen wir eine Möglichkeit, die Ergebnisse digitaler Berechnungen visuell aufzubereiten. Die Art und Weise der Darstellung hat sich dabei enorm gewandelt...
Blinkende Lampen
So gut wie jeder frühe Großrechner stellte eine Art Ausdruck zur Verfügung, bevor die ersten digitalen Anzeigen aus blinkenden Lampen entstanden. Glühbirne an = Rechenoperation und Speicherzugriff wird vollzogen. Glühbirne aus = Operation beendet.<br /><br />(Bildquelle: Computer History Museum, Deutsches Museum)
Lochkarten
Der erste rein elektronische Universalrechner der US-Armee hieß ENIAC <a href="http://de.wikipedia.org/wiki/Eniac" target="_blank">(Electronic Numerical Integrator and Computer)</a> und nutzte Hollerith-Lochkarten sowohl für die Eingabe als auch für die Ausgabe. Um ein Programm zu starten, wurden die nötigen Operationen mit einer Schreibmaschinen-ähnlichen Vorrichtung in eine Pappkarte gestanzt und diese stapelweise in den Computer eingegeben. Der Rechner stanzte seinerseits die Ergebnisse der Berechnungen in neue Lochkarten und händigte sie an den Bedienenden aus, der die Ergebnisse mit Rechenmaschinen wie der IBM 405, die die Lochkarten in numerische Werte umwandelte, weiterverarbeiten konnte. (Auf dem kleinen Foto ist eine IBM 405 zu sehen.)<br /><br />(Bildquellen: Deutsches Museum, IBM, Benj Edwards)
Lochstreifenpapier
Als Alternative zum Lochkartensystem nutzten viele Rechner Lochstreifenpapier. Auf langen Rollen waren die Rechenbefehle einzelner Programme vermerkt. Wer die Maschine bediente, erhielt die Berechnungen in lesbarer Form (Nummern und Buchstaben) auf dem gleichen Weg auf langen Papierrollen zurück.<br /><br /> (Bildquelle: Ed Bilodeau, Creed & Company)
Anfänge der CRT-Technik
Die ersten Kathodenstrahlröhren (CRT) tauchten in Form von Speicher auf, nicht als Displays. Schnell bemerkte man, dass dieses CRT-Memory mit der gleichen Technik auch visualisiert werden konnte (wie auf den beiden Rechnern links im Bild zu sehen). Die auf Vektorendarstellungen basierenden Radar- und Oszilloskop-Technologien fanden hier ihren Anfang.<br /><br /> (Bildquellen: Computer History Museum, MITRE, DEC, Onno Zweers)
Fernschreiber als Displays
Bevor der Computer erfunden wurde, kommunizierten die Menschen seit dem Jahr 1902 mit Fernschreibern (Teleprintern) über das Telegrafennetz. Ein Fernschreiber ist eine elektrische Schreibmaschine, die per Kabel (und später per Radio) mit einem anderen Fernschreiber mit Hilfe eines speziellen Codes kommuniziert. In den Fünfziger Jahren schlossen Ingenieure die Fernschreiber direkt an Computer an und funktionierten sie zu Displays um, die ununterbrochen die Rechenoperationen mitschrieben. Bis Mitte der Siebziger war dies die kostengünstigste Methode, digitale Berechnungen zu visualisieren.<br /><br />(Bildquelle: Systems Engineering Laboratories)
Video-Displays
Irgendwann in den frühen Sechzigern stellten Computer-Ingenieure fest, dass sie Kathodenstrahlröhren (CRT) als virtuelles Papier in einem virtuellen Fernschreiber/Teleprinter nutzen konnten - diese Geräte hießen auch "Glas-Teleprinter" und später Video-Displays. Die Video-Displays waren schneller und flexibler als Papier und wurden wurden die wichtigste Anzeigetechnologie Anfang bis Mitte der Siebziger Jahre. Mittels eines Kabels wurden sie an den Rechner angeschlossen und empfingen den Code für die Darstellung von Text. Bis in die 1980er konnten sie keine grafischen Elemente darstellen und nur wenige unterstützten überhaupt die Wiedergabe von Farbe.<br /><br /> (Bildquelle: UNIVAC, Grant Stockly, DEC)
Composite Video Out
Teleprinter (selbst die papier-basierenden) kosteten 1974 ein Vermögen. An eine Nutzung im privaten Rahmen war nicht zu denken. Auf der Suche nach günstigen Alternativen, hatten drei Menschen (Don Lancaster, Lee Felsenstein und Steve Wozniak) zur gleichen Zeit die gleiche Idee. Wie wäre es mit einem Terminal-Gerät, das einen günstigen CCTV-Videobildschirm als Display verwendete? Schon kurze Zeit später bauten Wozniak und Felsenstein solche Video-Terminals in Computer ein (Apple I und Sol-20) - 1976 waren es die ersten Computer fabrikgefertigten Displays.<br /><br />(Bildquellen: Steven Stengel, Michael Holley)
Composite-Monitore
Einige der ersten Heim-PCs unterstützten Composite-Video-Monitore für ein besseres Bild. Unter anderem bot der Commodore 1702 eine einzigartige S-Video-Verbindung an. Als die PC-Revolution Fahrt aufnahm, begannen die Hersteller (Apple, Commodore, Radio Shack, TI) mit der Produktion eigener Videomonitore für die Heim-Computersysteme - sowohl in Monochrom- als auch in Farbvarianten. Der große Vorteil: Die meisten Modelle waren universell einsetzbar und funktionierten mit allen Rechnern.<br /><br />(Bildquellen: Radio Shack, Shane Doucette)
Das TV als Monitor daheim
Dank Videoanschluss konnte nun auch jeder gewöhnliche Fernseher als Computermonitor eingesetzt werden. Findige Geschäftsleute bauten einen "RF Modulator" für den Apple II, der Composite Video in ein simuliertes Broadcast-Signal umwandelte und dem TV so einen Sender vorgaukelte, den das Gerät ausstrahlen konnte. Der Atari 800 aus dem Jahr 1979 hatte den Modulator bereits fest integriert - viele andere Geräte folgten. Wegen der geringen Übertragungsgeschwindigkeiten blieb die Darstellung jedoch auf niedrige Auflösungen und den privaten Gebrauch beschränkt.<br /><br /> (Bildquelle: Apple)
Erste Plasma-Displays
Bereits in den Sechzigern kam eine alternative Monitor-Technologie auf, bei der Leuchtstoffe mittels durch Gasentladungen zwischen zwei Glasplatten erzeugte Plasma bewegt werden. Einer der ersten Computer mit Plasmabildschrim war der PLATO IV. Später experimentierten Unternehmen wie IBM und GRiD mit den dünnen und leichten Plasma-Displays in tragbaren Computern. Die Technologie hob im Computer-Umfeld jedoch nie ab. Im Bereich der Flachbild-TVs erlebte sie Jahrzehnte später hingegen ein Combeback.<br /><br />(Bildquellen: Simon Bisson, Corestore, Steven Stengel)
Die Anfänge von LCD
Auch die Flüssigkristalle erschienen bereits in den Sechzigern auf der Bildfläche. Sie feierten ihr Debüt in Taschenrechnern und Armbandhuhren. Die ersten tragbaren Computer in den 1980er Jahren perfektionierten die LCD-Technik, die für sehr sparsame, leichte und dünne Displays sorgt. Zunächst gab es sie nur mit Monochrom-Darstellung und niedrigem Kontrastverhalten - zusätzlich war noch ein separates Rücklicht nötig (Anzeigenhintergrundbeleuchtung/Backlight), damit auf ihnen - gerade im Dunkeln - überhaupt etwas zu erkennen war.<br /><br /> (Bildquellen: PC-Museum.com, Old-Computers.com, Steven Stengel)
Der IBM-PC kommt auf
Im Jahr 1981 erschien der IBM-PC mit einem eigenen Monochrome-Video-Display-Standard (MDA), der jedes bekannte Video-Display in den Schatten stellte. Für Farbdarstellungen brachte Big Blue den CGA-Adapter heraus, der an einen Composite-Video-Monitor oder den IBM-5153-Monitor (mit spezieller RGB-Verbindung) angeschlossen werden konnte. 1984 kam dann IMBs EGA-Standard auf den Markt, der eine höhere Auflösung und mehr Farben versprach. Der Kampf um den besten Monitor brach los - und IBM gewann erneut.<br /><br />(Bildquellen: IBM, Steven Stengel)
Macintosh-Monitore
Der erste Mac aus dem Jahr 1984 brachte einen 9-Zoll-Monochrom-Monitor mit, der die 512*342 Pixel großen Bitmap-Grafiken entweder schwarz oder weiß rendern konnte (grau ging nicht). Drei Jahre später kam der Macintosh II heraus, der sowohl Farbvideo als auch externe Monitore unterstützte. Der Mac-II-Video-Standard war vergleichbar mit dem VGA-Standard, der zu dieser Zeit auf den IBM-PCs Einzug hielt.<br /><br /> (Bildquelle: Apple)
RGB - eine neue Ära
Die Achtziger Jahre waren geprägt vom Markteintritt neuer Gerätehersteller, die Apple und IBM Paroli bieten wollten - inbesondere auch im Kampf um das beste Display für den heimischen Spielespaß an der Konsole. Die Atari-ST-Serie und die Commodore-Amiga-Serie brachten Monochrom- und RGB-Monitore hervor, die für höchsten Grafikgenuss standen.<br /><br />(Bildquellen: Bill Bertram, Steven Stengel)
Wichtige Neuerungen
In den Anfangstagen des IBM-PCs war für jede Art der Darstellung ein anderer Monitor nötig - sei es MDA, CGA oder EGA. NEC schaffte Abhilfe und entwickelte den ersten Multisync-Monitor, der eine ganze Reihe von Auflösungen unterstützte und im Livebetrieb umschalten konnte. Multisync wurde schnell zum industriellen Standard.<br />1987 führte IBM dann VGA ein und brachte zeitgleich zum PS/2 neue Monitore auf den Markt. Fast jeder analoge Video-Standard basiert seither auf VGA und seinem bekannten 15-Pin-Adapter.<br /><br />(Bildquellen: NEC, IBM)
Laptop-LCDs werden besser
Als LCD-Monitore erstmals aufkamen, waren sie zu schlecht aufgelöst und boten zu niedrige Bildwiederholungsraten. In den 1980er und 1990er Jahren wurde die Flüssigkristall-Technologie jedoch besser - ausgelöst durch den Notebook-Boom. Die Displays erreichten höhere Kontraste und eine deutlich verbesserte Farbdarstellung. Die früher noch separat notwendigen Backlights wurden standardmäßig eingebaut. Bald waren LCDs nicht mehr nur etwas für unterwegs, sondern auch für den Desktop.<br /><br />(Bildquellen: Altima, Texas Instruments)
Die beige Box
Mitte der Neunziger waren alle Röhrenmonitore beige. Kostengünstig in der Herstellung, Darstellung in Farbe, mit VGA-Standard und Multisync-fähig: das war massentauglich. Die Hersteller begannen, mit der Monitorgröße zu experimentieren - zwischen 14 und 21 Zoll war fast alles zu haben - ob nun in 4:3 oder Breitbild. Ende der Neunziger wurden dann einige der Röhrengeräte bereits flach.<br /><br />(Bildquellen: Radius, ViewSonic)
Desktop-LCDs
Desktop-LCDs kosteten noch viel und boten wenig, als einige Hersteller (ViewSonic, IBM, Apple) um das Jahr 1997 herum leistungsfähige Farb-LCD-Monitore zu moderaten Preisen auf den Markt brachten. Vorteile: Weniger Platzverbrauch auf dem Schreibtisch, weniger Energieverbrauch und wesentlich weniger Hitzeentwicklung als die Röhrengeräte.<br /><br />(Bildquellen: ViewSonic, IBM, Apple)
Und heute?
Heute sind LCD-Monitore (darunter viele Breitbildgeräte) Standard in der IT-Industrie. Da die LCD-Geräte im Preis dermaßen schnell gefallen sind, fällt es vielen Anwendern längst nicht mehr schwer, mit Doppel-Monitoren zu arbeiten. Neueste Errungenschaft der Branche: 3D-Varianten mit speziellem Glas und ultrahohen Bildwiederholungsraten.<br /><br /> (Bildquellen: Asus, Go.Video, Samsung)