Mythos 6: Tintenstrahldrucker sind im Unterhalt wesentlich teurer als Laserdrucker
Um herauszufinden, wie viel ein Drucker im Verbrauch wirklich kostet, sollten Sie die Kosten pro gedruckter Seite errechnen. Das funktioniert nach einer einfachen Formel: Nehmen Sie den Preis einer normalen Druckerpatrone oder eines Toners, der für das Gerät geeignet ist, und teilen Sie ihn durch die angegebene Zahl der Seiten, die damit laut Hersteller gedruckt werden können. Bisher war es so, dass Laserdrucker zwar im Anschaffungspreis teurer waren, mit ihren niedrigen Kosten pro gedruckter Seite die weiteren Ausgaben jedoch gering hielten.
Doch seitdem Tintenstrahl-Hersteller immer effizientere Modelle auf den Markt bringen (zum Beispiel Geräte mit Einzeltanks für jede Farbe oder Kartuschen mit mehr Inhalt) haben sich die Kosten pro gedruckter Seite dramatisch verringert. Unternehmen, die zum Beispiel billige, schnelle Drucker benötigen, könnten sowohl auf Tintenstrahldrucker zurückgreifen als auch auf Laserdrucker-Modelle. Privatnutzer und Studenten haben da schon weniger Auswahlmöglichkeiten – hier ist ein billiger Drucker oft gleichbedeutend mit teurerer Tinte.
Tatsache ist, dass Drucker in Kombinationsangeboten, bei denen zum Beispiel ein Drucker kostenlos beim Kauf eines PCs oder Notebooks angeboten wird, meist nicht mit der Schnelligkeit, Ökonomie und Qualität eines Laserdruckers mithalten können. Bei solchen Geräten zahlt man auf lange Sicht höchstwahrscheinlich mehr und bekommt für sein Geld lediglich minderwertige, mit wenig Tinte gefüllte Kartuschen. Bei manchen Geräten zahlen man am Ende sogar weniger, wenn man sich einen neuen Drucker zulegt, als wenn man neue Tintenpatronen für den alten Drucker kauft – verkehrte Welt.
Mythos 7: Mehrere Monitore bedeuten mehr Produktivität
Arbeitsplätze mit zwei Monitoren gehören heutzutage schon fast zum Standard. Es wird argumentiert, dass ein weiterer Bildschirm die Produktivität um 30 bis 50 Prozent steigert.
Viele Hersteller sahen die Verkäufe ihrer LCD-Bildschirme in die Höhe schnellen. Doch eine Studie fand noch etwas anderes heraus: Die Produktivität mit mehreren Bildschirmen nimmt ebenso schnell wieder ab, wenn eine bestimmte Display-Größe überschritten wird. Mit einem einzelnen Monitor sind bereits 26 Zoll zu groß und mindern die Produktivität des Nutzers; bei zwei Bildschirmen sollte keiner größer als 22 Zoll sein.
Zusätzlich stellte sich heraus, dass ein zweiter Monitor zwar zu verbesserter Leistung führen kann, ein dritter im Bunde das Ergebnis aber wieder ruinierte. Und je nach Testperson war nicht immer die bevorzugte Bildschirm-Zusammenstellung auch die, mit der der Proband am effektivsten arbeitete.
Die besagte Studie fand in kontrollierter Umgebung statt, wo die Probanden die ganze Zeit über nichts weiter taten, als mit Text- und Tabellendokumenten zu arbeiten. Wenn das einer alltäglichen Arbeitssituation eines Ihrer Kunden entspricht, hilft ihm ein zweites Display wahrscheinlich wirklich. Wer den zusätzlichen Bildschirm hingegen für E-Mails, Twitter oder andere, Internet-basierte Arbeiten benutzen will, ist am Ende womöglich deutlich weniger produktiv als mit einem einzigen Monitor.
Mythos 8: Nachgefüllte Druckerpatrone ruinieren den Drucker
Da die meisten Kartuschen nicht darauf ausgelegt sind, wiederverwendet zu werden, hält das Nachfüllen aber einige Risiken bereit: Die Tintendüsen könnten zum Beispiel verstopfen oder die Patrone läuft aus. Eine gute Faustregel hierbei ist es, die Patrone beim Druckvorgang ständig im Auge zu behalten, um zur Not direkt eingreifen zu können.
Nachfüll-Betriebe weisen oft und gerne darauf hin, dass es nicht rechtens ist, wenn der Druckerhersteller Garantieansprüche verwehrt, nur weil man Patronen eines Drittanbieters verwendet hat. Schön und gut. Doch wenn eine wiederbefüllte Patrone einen Drucker beschädigt, sollte man eher nicht mit kostenlosen Ersatzansprüchen rechnen. Die Garantiebestimmungen von HP geben beispielsweise deutlich zu erkennen:
"Der Gebrauch einer Dritthersteller-Tintenpatrone oder das Verwenden einer wiederbefüllten Kartusche verletzen nicht die Garantiebestimmungen oder etwaige Service-Verträge zwischen HP und dem Kunden. Wenn das Versagen des Druckers oder der Schaden jedoch eindeutig auf den Gebrauch einer Fremd- oder wiederbefüllten Patrone zurückzuführen ist, wird HP die Kosten für Material und Service dem Kunden in Rechnung stellen."
Wenn Sie oder der Kunde sich also Sorgen um eventuelle Lecks in der Kartusche machen, entfernt man sie von Zeit zu Zeit aus dem Drucker und kontrolliert sie.
Mythos 9: Der Internet Explorer ist unsicherer als andere Browser
Jeder weiß doch, dass Chrome, Firefox, Opera und Safari alle viel sicherer sind, als Microsofts Internet Explorer – aber ist das wirklich so? Um das herauszufinden, werfen wir zunächst einen Blick in den zwei Mal jährlich erscheinenden Internet Security Threat Report von Symantec, der sämtliche gemeldeten Schwachstellen aller gängigen Browser listet. Demnach hat Firefox die meisten gemeldeten Schwachstellen, gefolgt von Safari, dem Internet Explorer und Google Chrome.
Eine andere Erhebung, vom United States Computer Emergency Readiness Team (US-CERT) – das die National Vulnerability Database führt – ergibt die meisten Schwachstellen bei Safari, dann bei Chrome, dann bei Firefox und dann beim Internet Explorer.
Solche Zahlen allein sind natürlich nicht der beste Weg, die Sicherheit eines Browsers zu messen. Ein Browser mit 100 Sicherheitslücken, die aber direkt nach ihrem Entdecken mittels eines Patches behoben wurden, ist sicherer, als ein Browser mit nur einer Sicherheitslücke, die aber nach wie vor besteht. Nach Angaben von Symantec beträgt das durchschnittliche Zeitfenster zwischen dem Entdecken der Sicherheitslücke und deren Behebung weniger als ein Tag bei Internet Explorer und Firefox, zwei Tage bei Google Chrome und unglaubliche 13 Tage bei Safari. Da muss man zugeben: der Internet Explorer schlägt sich wirklich tapfer.
Mythos 10: Festplatten muss man regelmäßig defragmentieren
Eine Festplatten muss ständig "entscheiden", wohin die Dateien abgelegt werden. Je mehr sich die Festplatte also mit Daten füllt, desto wilder und unübersichtlicher wird die Datenablagerung. Das Ergebnis: die Lese- und Schreibköpfe einer Festplatte brauchen länger, um bestimmte Dateien im Chaos wiederzufinden. So war es jedenfalls früher. Was viele nicht wissen: Dieses Problem ist heutzutage längst Schnee von gestern.
Als Festplatten noch aus nur wenigen hundert Megabytes bestanden, war das Defragmentieren tatsächlich eine gute Sache. Aufgrund des geringen Speicherplatzes waren die meisten Platten oft vollgestopft bis oben hin, die Lese- und Schreibköpfe mussten die gesamte Festplatte nach Dateien absuchen und dankten dem Nutzer deshalb jedes gelöschte File mit etwas mehr Geschwindigkeit.
Heutzutage, mit Festplattengrößen von vielen Gigabyte bis in die Terabyte-Regionen, wird meist nur noch ein geringer Prozentsatz der kompletten Festplatte wirklich gebraucht. Die Lese- und Schreibköpfe tasten nicht mehr die komplette Platte ab und sparen so ohnehin schon Zeit.
Zudem haben auch die neueren Versionen von Windows die Bedeutung der Defragmentierung für bessere PC-Leistung verringert. Techniker, die an der neuen Festplatten-Defragmentierung von Windows 7 gearbeitet haben, sagen, Windows' Dateisystem-Strategien, die Caching- und Prefetch-Algorithmen und die immer weiter wachsende Größe des RAM-Speichers machen eine Defragmentierung quasi unnötig.
Wenn jemand eine SSD-Festplatte besitzt, muss diese sowieso nicht defragmentiert werden. SSD besitzen weder einen Laufwerksteller, noch Lese- und Schreibköpfe, die die Festplatte nach Dateien absuchen müssten. Im Gegenteil kann eine Defragmentierung eines SSD sogar schaden, indem es die Datenzellen der Platte abnützt und somit die Lebenszeit verringert.
- 1983: Debut des Compaq Portable
Nur ein Jahr zuvor gegründet, wagt Compaq den ersten Schritt auf den Markt mit einem neuen PC - das erste, tragbare IBM-kompatible System und damit ein Vorläufer des modernen Mobile Computings. Compaq wurde daraufhin zu einer der größten Firmen in der PC-Industrie - wurde zwei Jahrzehnte später allerdings von HP aufgekauft. - 1984: Gründung von PCs Limited
Ein College-Student namens Michael Dell gründet eine kleine Firma in seinem Zimmer im Studentenwohnheim: Dell. Er baut individuell zusammenstellbare PCs. Sein Unterfangen entwickelt ich zu einer der größten Firmen in der Branche und weitet sich auch auf Drucker, Server und Netzwerkgeräte aus. - 1985: Windows 1.0 wird veröffentlicht
Erstmals munkelte man schon zwei Jahre zuvor über das mögliche Release einer Software namens Windows. Auch bis ins kommende Jahr hinein schenkt kaum jemand dem Programm Beachtung - niemand ahnt zu diesem Zeitpunkt, dass dieser eher plumpe, grafische Dateimanager sich einmal zu dem größten und weitesten verbreiteten Betriebssystem der Welt entwickeln würde. - 1986: Intel bringt den 386er
Der erste 32-bit-Prozessor, der 386er, kann auf scheinbar endlosen Speicher zugreifen - nun, zumindest für die damaligen Verhältnisse fühlte es sich ziemlich endlos an. Der 386er ist das Zugpferd für eine neue Generation von Software, darunter auch überarbeitete Versionen von Windows. - 1987: Startschuss für VGA
Video Graphics Array (VGA) kommt zusammen mit IBMs PS/2-Anschluss auf den Markt. VGA überlebt, wird ein neuer Standard und der kleinste gemeinsame Nenner von Windows, Grafikkarte und Monitor. Auch heute noch besitzen die meisten Monitore einen VGA-Anschluss. - 1988: EISA taucht auf
Kreiert als Antwort auf IBMs hauseigenes Micro-Channel-Interface, dient EISA in erster Linie dazu, ältere ISA (PC-AT)-Erweiterungskarten zu unterstützen. EISA beschert PC-Bauern einigen Erfolg, bis es von moderneren Standards (wie VESA, PCI und AGP) abgelöst wird. - 1989: HTML wird erfunden
Tim Berners-Lee entwickelt die Programmiersprache HyperText Markup Language - kurz HTML. Ein Jahr später benutzt er HTML um den Kern dessen zu bilden, das später das World Wide Web wird. - 1990: Windows 3.0 kommt auf den Markt
Windows 3.0 hat sich vom einfachen, grafischen Dateimanager zu der verbreitetsten Art und Weise entwickelt, wie Menschen mit ihrem PC interagieren. Windows 3.0 verfügt über umwerfende 16 MB Speicher. Scharenweise Software-Verkäufer haben das neue Betriebssystem in ihren Händlerregalen stehen. - 1991: Geburt des PCI-Anschlusses
Der Peripheral Component Interconnect (kurz PCI), entwickelt von Intel, erleichtert PC-Herstellern und -Nutzern das Leben beachtlich. PCI (der Vorläufer von PCI Express) erlaubt die automatische Konfiguration von Interfacekarten, verbessert die Geschwindigkeit und erweitert die generelle Kompatibilität. - 1993: Veröffentlichung des Mosaic-Webbrowsers
Entwickelt am National Center for Supercomputing Applications, ist der Mosaic Webbrowser zwar nicht der erste grafische Browser, wird aber schnell zum beliebtesten. Das macht Mosaic zum Vorreiter aller modernen Webbrowser. Mosaics Leitender Programmierer, Marc Andreessen, gründet später Netscape. - 1994: Start von Windows 95
Windows 95 hat sich mittlerweile vom chancenlosen DOS-Konkurrenten zu einem vollständigen Betriebssystem gewandelt. Mit der Veröffentlichung von Windows 95 wird MS-DOS offiziell für tot erklärt. Dank cleverer Programmierung, beherrscht Windows 95 sowohl 32- als auch 16-bit-Anwendungen. Eine der größten Innovationen - die Nutzer am Anfang eher noch verwirrt - ist das Startmenü. - 1995: Die ersten bedeutenden 3D-Chips
Die ersten 3D-Beschleuniger, die auch wirklich für PC-Gaming genutzt werden konnten - Rendition Vérité 1000 und 3dfx Voodoo - markieren eine neue Ära von Grafikkarten. Ihre Entwicklung bedrängt die bis dato weit verbreiteten VGA- und "Windows Accelerator"-Karten - 1996: USB taucht auf
Im Gegensatz zu Serial- und Parallel-Ports, die gerne mal wählerisch sind, bedeutet USB den Schritt hin zu selbstkonfigurierenden Geräten und macht das Anschließen von Tastaturen, Mäusen und Kameras an den PC zu einem echten Kinderspiel. Zudem entsteht ein komplett neuer Markt für USB-Flash-Speicher. - 1997: DVD-Player und -Disks im Handel
DVD-Laufwerke werden Bestandteil vieler PCs, lösen so die ausgedienten CD-Laufwerke ab und werden nahezu überall auf der Welt zum neuen Standard für optische Laufwerke - ein Schritt, den spätere Blu-ray-Laufwerke nicht schaffen. - 1998: DMCA wird verabschiedet
In den USA wird der Digital Millennium Copyright Act verabschiedet - ein umstrittenes Gesetz, das unter anderem die Rechte von Copyright-Inhabern stärkt. Es kriminalisiert die Produktion und Verbreitung von Technologien, Geräten und Diensten, die den Kopierschutz eines Produktes knacken - auch, wenn dabei das Copyright selbst gar nicht verletzt wird. In der Europäischen Union wurde im Jahr 2001 mit der Richtlinie 2001/29/EG ein ähnliches Gesetz verabschiedet. - 1999: Ratifizierung der 802.11a/b-Standards
Der erste 802.11-Standard für kabellose Netzwerke wird eingeführt - parallel dazu wird die Wi-Fi-Alliance gegründet, um Produkte auf Basis dieses Standards zu zertifizieren und bewerben. Wi-Fi entwickelt sich später zu einer der Netzwerk-Technologien mit der größten Verbreitung und Akzeptanz und ist sowohl bei Firmen, als auch bei Privatnutzern ausgesprochen beliebt. - 2000: Electronic Arts veröffentlicht "Die Sims"
Erdacht von Will Wright wird im PC-Spiel "Die Sims" der Alltag virtueller Personen simuliert. Auch, wenn das Gameplay eher steril und ein wenig einschläfernd ist, besteigt "Die Sims" schnell den Thron des meistverkauften Computerspiels aller Zeiten und verschlingt Unmengen an Spielzeit, während die Spieler versuchen, den Alltag ihrer virtuellen Menschen kontinuierlich zu verbessern. - 2001: Windows XP kommt
Windows XP vereint Windows 2000 und ME in einem 32-bit-Betriebssystem und wird so zu dem erfolgreichsten OS in der Geschichte von Microsoft. - 2002: Debut der Tablet-PCs
Auch, wenn schon vorher Tablets existiert haben, erlangen sie erst 2002 mit Microsofts Windows XP Tablet PC Edition größere Aufmerksamkeit in der Bevölkerung. Zwar schaffen sie es noch nicht, sich auf dem Markt zu etablieren, ganz im Gegenteil sind sie ein ziemlicher Flop. Sie legen aber den Grundstein für die aktuellen Windows-8-Tablets. - 2003: AMD bringt die erste 64-bit-x86-CPU
AMD kommt Intel zuvor und bringt als erster Konzern die Athlon-64-CPU auf den Markt, die sowohl 64-bit-Register, als auch 64-bit-Speicher in ihrer Architektur bietet. Microsoft startet daraufhin die Entwicklung einer Windows-Version mit 64-bit-Unterstützung - Intel bringt sein eigenes x86-64-Produkt erst zwei Jahre später auf den Markt. - 2004: Verkaufsstart des Intel Pentium M
Entwickelt von Intels Design-Team in Israel, ist die Pentium-M-CPU eine stark modifizierte Version des Pentium 3 mit Fokus auf Leistungseffizienz statt hoher Taktung - und damit ein starker Gegensatz zu Intels Pentium 4. Der M-Prozessor wird zum Vorläufer der Core-Reihe des Herstellers. - 2006: Intel bringt Core 2 Duo auf den Markt
Der Chip-Hersteller Intel trägt seine Pentium-4-Architektur mit der neuen Core 2 Duo CPU endgültig zu Grabe. Obwohl der neue Prozessor sogar niedriger getaktet ist als sein Vorgänger, schafft es Core 2 Duo dank effizienterem Befehlsvorrat, seinem Konkurrenten AMD die Leistungskrone wieder zu entreißen. Core 2 Duo braucht deutlich weniger Energie und produziert weniger Abwärme als AMD-Prozessoren. - 2007: Premiere des Apple iPhone
Apples iPhone erfindet Smartphones, entwickelt eine unglaubliche Beliebtheit und zwingt Konkurrent Google dazu, selbst Fuß im Bereich mobile Betriebssysteme zu fassen. Auch Microsoft erkennt das Potenzial und bringt später Touch-Funktionen und vereinfachte Nutzersteuerung in seine PC- und mobilen Betriebssysteme ein. - 2008: Laptops verkaufen sich besser als Desktops
Mobilität wird in diesem Jahr zum primären Fokus für Computerhersteller - insbesondere, weil die starke Verbreitung von Wi-Fi und die sinkenden Preise immer mehr Menschen dazu bringen, sich einen Laptop zuzulegen. In manchen Haushalten ist der Laptop nun der einzige vorhandene PC. - 2010: Apple bringt das iPad
Im Gegensatz zu Microsofts vergeblichen Mühen, interessante Versionen seiner Tablet-PCs an den Mann zu bringen, schafft es Apple, den Markt quasi über Nacht zu dominieren. Der Schlüssel zum Erfolg: Das iPad ist kein PC, der sich wie ein Tablet verhält, sondern ein Tablet durch und durch. Zudem haben Nutzer die Möglichkeit, zwischen zahlreichen Apps für wenig bis gar kein Geld zu wählen - und das Apps-Ökosystem vergrößert sich nach wie vor. - 2011: Intel entwickelt Ultrabooks
Angestachelt durch das Versagen der PC-Hersteller, Apples MacBook Air erfolgreich zu kopieren, erdenkt Intel grobe Richtlinien für ultraportable PCs: Die Ultrabook-Standards. Mit einer starken Finanzspritze hilft der Konzern Firmen dabei, die neuen Laptops zu entwerfen und zu bauen. Die Verkäufe von Ultrabooks stellen sich bislang zwar als zweischneidiges Schwert heraus, vom Markt verschwinden werden die ultraflachen und ultraleichten Laptops aber vorerst nicht. - 2013: Blutbad im weltweiten PC-Markt
Der PC-Markt hat zum Jahresbeginn den schlimmsten Einbruch seit Beginn der Aufzeichungen von IDC erlebt - schuld daran sei auch das neue Microsoft -Betriebssystem Windows 8.