Windows 10 Lizenz läuft plötzlich ab

Windows 10 meldet plötzlich, dass die Lizenz demnächst ablaufen würde. In den Einstellungen unter “Aktivierung” steht, dass Windows von einem Aktivierungdienst der Organisation aktiviert worden wäre.

In diesem Fall denkt Windows, es müsse sich mit einem Key Management Service verbinden. Dieser wird in Firmen genutzt, um Windows zentral aktivieren zu können – ohne dass sich jedes Windows direkt bei Microsoft aktivieren müsste.

Was bei einer Firmenumgebung normal ist, ist für den Privatnutzer nicht hilfreich, denn dort gibt es keinen KMS. Ob Windows einen KMS fragt oder nicht wird über den in Windows hinterlegten Product-Key gesteuert. Und damit lässt sich das Problem auch lösen.

Man startet eine Eingabeaufforderung oder Powershell als Administrator und folgende drei Befehle deinstallieren den alten Key, installieren den generischen Windows 10 Key und aktivieren das System erneut.

Windows 10 Pro

cscript slmgr.vbs /upk
cscript slmgr.vbs /ipk VK7JG-NPHTM-C97JM-9MPGT-3V66T
cscript slmgr.vbs /ato

Windows 10 Home

cscript slmgr.vbs /upk
cscript slmgr.vbs /ipk TX9XD-98N7V-6WMQ6-BX7FG-H8Q99
cscript slmgr.vbs /ato

Veröffentlicht unter Allgemein | Kommentar hinterlassen

CCleaner und der Dunning-Kruger-Effekt

Es ist manchmal schon erschreckend, mit welch fast religiös anmutender Vehemenz manche Nutzer doch unsinnige, aber liebgewonnene Gewohnheiten verteidigen – wider jeglicher Vernunft.

In diesem Fall geht es mal wieder um das vermeintlich notwendige Aufräumen der Windows-Registry. Was unter Windows 9x noch notwendig war, ist es schon jahrelang nicht mehr. Im Gegenteil, die fürs Aufräumen genutzten Tools ändern und löschen alle möglichen Einträge und niemand weiß, ob diese nicht doch noch benötigt werden. Oft genug schlagen in den Microsoft Foren die Leute auf, die nach solch einer Tuning-Aktion dann das System nur noch neu installieren können. Das Risiko, mit solchen Tools Schaden anzurichten, ist also definitiv vorhanden.

Als angeblicher Nutzen wird behauptet, dass das System schneller starten und die Registry verkleinert würde.

„Wenn jemand inkompetent ist, dann kann er nicht wissen, dass er inkompetent ist. […] Die Fähigkeiten, die man braucht, um eine richtige Lösung zu finden, [sind] genau jene Fähigkeiten, die man braucht, um eine Lösung als richtig zu erkennen.“
– David Dunning

Der in der Wikipedia beschriebene Dunning-Kruger-Effekt ist da oft in seiner deutlichsten Form zu betrachten. Begründete Kritik an den Cleaning-Tools, Hinweise auf mögliche Gefahren für die Stabilität des Systems, alles wird einfach mal so davon gewischt. Man hat schon immer “cleanen” müssen, es gibt viele Tools, alle möglichen Leute sagen, man müsse das, also muss man das. Muss man?

Vom Gegenteil überzeugen werde ich vermutlich auch mit Argumenten und Zahlen niemanden, aber ich will es wenigstens noch mal versuchen.

Das Testgerät ist ein Notebook mit Windows 10, welches hier seit langem alle möglichen Windows 10 Previews mitgemacht hat. Software-Tests, alle möglichen Treiberinstallationen, sprich: das müsste eigentlich richtig schön zugemüllt sein. Das Bild zeigt die uralte Historie der ganzen Previews, seit denen die Windows-Installation schon existiert.

Screenshot (8)

Ich habe vor und nach der Nutzung des Registry-Cleaners von CCleaner einen Blick auf die Größen der Registry-Dateien geworfen. Außerdem habe ich vorher und hinterher jeweils mehrere Neustarts durchgeführt und über die BootCKCL.etl, das Windows-Bootprotokoll, die Startzeit ermittelt.

Screenshot (10)

CCleaner behauptet, dass die Registry an über 500 Stellen bereinigt werden müsse. Also lassen wir das mal einfach mit Standard-Einstellungen durchlaufen, wie auch der Normaluser es machen würde.

Screenshot (11)

Alles fixed. Super. Vorsichtshalber noch ein Neustart hinterher und dann werfen wir doch mal einen Blick auf die Registy…

Die Ergebnisse

Registry-Größe

Unbenannt

Die gesamten Registry-Dateien sind somit durch den Cleaning-Vorgang um knappe 4 MB geschrumpft. Bei einer Größe von gut 180 MB und typischen Plattengrößen im Gigabyte-Bereich also völlig irrelevant.

Auf der anderen Seite möchte CCleaner selber 20 MB Speicherplatz haben. Das Bereinigen kostet also am Ende nur Speicherplatz.

Bootzeit gemittelt über fünf Bootvorgänge

vorher 78 Sekunden, nachher 78 Sekunden.

Screenshot (12)

Das mag insgesamt lange klingen, ist aber halt der Zeitpunkt, an dem Windows den gesamten Bootvorgang als abgeschlossen ansieht. Das System ist schon deutlich früher benutzbar. Sowohl vor als auch nach CCleaner. Weder gibt es merkbare noch messbare Unterschiede.

Fazit

Es bleibt dabei, dass die Gefahren bei der Bereinigung der Registry definitiv vorhanden sind, ein Nutzen aber nicht nachgewiesen werden kann.

Wer sein Windows schneller starten möchte, sollte den Autostart ausmisten und unnötige Software deinstallieren. Jegliche Cleaning-Tools sollten dabei an erster Stelle stehen.

Veröffentlicht unter Allgemein | 6 Kommentare

Wie man eine Technik-News schreiben kann, aber nicht sollte

Manchmal rollt es einem ja die Fußnägel hoch, wenn man quer durchs Netz so liest, was die Newsseiten aus so manch einer Nachricht oder Pressemitteilung so fabrizieren. Besonders schön konnte man das aktuell mal wieder als Ergebnis auf einen Blog-Artikel in Microsofts Windows-Blog erleben.

Microsoft hat dort erklärt, wie die Verteilung von Upgrades auf neue Windows 10 Builds abläuft, z.B. gerade jetzt aktuell auf das Creators Update. Dabei empfiehlt man dann auch, lieber abzuwarten, bis Windows ein solches “Funktionsupdate” von sich aus anbietet, da die Verteilung zuerst mit den Systemen startet, bei denen keine Probleme zu erwarten sind. Es gibt dort also einen “kontrollierten Rollout” und keine Verteilung einfach mal so an alle.
Hingegen werden die Rechner, bei denen bestimmte, bekannt problematische Komponenten vorhanden sind, erst später mit dem Upgrade versorgt werden, wenn die entsprechenden Probleme abgestellt werden. Man nennt dazu als Beispiel einen Bluetooth Chip, dessen Treiber momentan Probleme bereitet.
Systeme mit diesem Chip bekommen das Upgrade momentan nicht angeboten.

Wer will, kann natürlich manuell upgraden, bekommt es dann aber mit Problemen zu tun, falls genau diese Komponente im PC steckt.

Also eigentlich alles ganz harmlos. Man gibt Tipps, wie es für die Nutzer am problemlosesten laufen kann und nennt ein Beispiel, warum man die Sache genau so verteilt.

Nun der Blick auf die Newsseiten – und was dort steht, fußt zwar irgendwie auf dem selben Microsoft Blog Artikel, hat aber mit der eigentlichen Information oft nicht mehr viel zu tun…

Fehler unterbricht Verteilung des Creators Update teilweise
Microsoft hat einen Fehler im Creators Update für Windows 10 entdeckt. Für bestimmte Geräte wird die Verteilung des Updates daher zunächst pausiert, bis der Fehler behoben ist. Microsoft rät Nutzern, auf die reguläre Update-Verteilung zu warten.”

https://www.golem.de/news/windows-10-fehler-unterbricht-verteilung-des-creators-update-teilweise-1704-127529.html

Windows 10: Microsoft sieht manuelle Update-Installation nicht gern
Grundsätzlich gibt es auch beim Creators Update für Windows 10 die Möglichkeit einer manuellen Installation. Microsoft sieht es allerdings lieber, wenn die Nutzer sich so lange gedulden, bis die Aktualisierung von allein im Windows Update angeboten wird – denn das macht weniger Probleme.”

http://winfuture.de/news,97331.html

Windows 10 – Warum Microsoft nicht will, dass Sie manuell updaten
Das Creators Update für Windows 10 wird noch lange nicht allen Nutzern angeboten. Wer es eilig hat und über ein händisches Update nachdenkt, sollte sich das genau überlegen, mahnt Microsoft.”

http://www.spiegel.de/netzwelt/web/windows-10-creators-update-microsoft-raet-von-manueller-installation-ab-a-1145097.html

„Warten Sie lieber ab“: Microsoft warnt vor Windows-10-Update
Microsoft warnt Nutzer davor, manuell auf das Creators Update für Windows 10 upzudaten. Nicht alle Rechner seien jetzt schon bereit für die aktuellste Version des Betriebssystems.”

http://www.chip.de/news/Warten-Sie-lieber-ab-Microsoft-warnt-vor-Windows-10-Update_113683761.html

So schnell kann es also gehen. Microsoft empfiehlt, die Windows Update Funktion statt eines manuellen Upgrades zu nutzen. Daraus wird dann spontan, dass Microsoft ein Upgrade nicht wollen würde. Aus Geräten mit einer bestimmten, problematischen Komponente wird ein Fehler, der die Verteilung des Updates unterbricht. Und angeblich soll man sogar vor dem eigenen Update warnen.

Gerade Überschriften müssen da immer ordentlich knackig sein, selbst wenn deren Sachverhalt danach oft schon gleich am Anfang des Nachrichtentextes relativiert wird. Wer da nur die Überschriften überfliegt, bei dem bleibt am Ende etwas hängen, was mit der Realität und dem eigentlichen Artikel nichts mehr zu tun hat.

Es bleibt bei solchen Nachrichten also immer eines wichtig: die Originalquelle lesen.

Veröffentlicht unter Allgemein | Kommentar hinterlassen

Ein wenig 3D und schon werden wir alle kreativ, oder?

Die Preview Phase für das neueste Windows 10 Update (eigentlich Upgrade) ist seit ein paar Tagen abgeschlossen und seit dem fünften April kann man das “Creators Update”, auch Version 1703 genannt, offiziell herunterladen.

cr01

Microsoft trommelt ganz kräftig dafür, dass dieses Update speziell für Menschen Verbesserungen bringen würde, die Inhalte mit dem PC erschaffen und weist auf die verbesserten Features im Zusammenhang mit Windows Ink oder die neuen Apps Paint 3D und 3D Viewer hin. Ganz ehrlich? Vermutlich werden diese keinen Nutzer vom Hocker reißen.

Da man leider die mal angekündigte App zum Einscannen von 3D Elementen mit dem Handy bisher nicht veröffentlicht hat und auch nicht wirklich klar ist, ob dies noch jemals passieren wird, kann man in Paint 3D halt nur ein paar 3D Elemente zusammenbauen. 3D Drucker oder Hololens hat die Masse auch noch nicht zu Hause, insofern gehe ich stark davon aus, dass die Mehrzahl diese “Aufhänger” fürs Update mal anschauen wird – aber das wars dann auch.

Allerdings bleibt es zum Glück nicht bei diesen Änderungen, sondern es gibt eine doch ziemlich massive Anzahl von Neuerungen. Insbesondere dabei sind wieder viele Kleinigkeiten, die das Leben für den Nutzer einfacher machen sollen.

Was sich insgesamt alles ändert, haben schon Andere gut zusammengefasst, daher spare ich mir das jetzt einfach mal. Wer Details sehen will, findet die Liste der Änderungen z.B. hier bei Dr. Windows.

Für den Normalanwender interessant sind dabei z.B. die Änderungen in Sachen Skalierung. So unterstützt die MMC (Gerätemanager, Computerverwaltung usw.) jetzt endlich hochauflösende Bildschirme und gerade Nutzer mit mehreren Bildschirmen, die mit unterschiedlicher Skalierung pro Bildschirm arbeiten, freuen sich über saubere Schriften.

Ein auf High-DPI-Displays korrekt skalierter Gerätemanager, wie lange mussten wir darauf warten…

cr02

Man schneidet alte Zöpfe ab, bietet mehr Einstellungen in der modernen Einstellungen-App an, während die Systemsteuerung weiter in den Hintergrund tritt. Man braucht letztere eigentlich nicht mehr aufzurufen. Genauso wird jetzt aus dem Win+X Menü standardmäßig die Powershell gestartet statt der alten cmd. Eigentlich lange überfällig.

Und selbst an wirklichen Kleinkrams hat man gedacht. So ignoriert Windows 10 im Login-Bildschirm jetzt bei der Eingabe einer PIN die Numlock-Einstellung. Man gibt also immer Ziffern ein, wenn Ziffern gefragt werden. Oder regedit hat nach Jahrzehnten eine Adresszeile bekommen, die Copy & Paste versteht.

Ein paar Nervereien wurden auch abgestellt. So installiert das System nicht mehr alle möglichen Apps wieder, die der Nutzer vorher deinstalliert hatte. Wer also bisher für ihn unnötige Apps deinstalliert hat, wird diese auch jetzt nach dem Upgrade nicht wieder sehen. Das gilt allerdings z.B. nicht für den Store selber.

Genau diese vielen, kleinen Änderungen machen das System runder, besser bedienbar und damit wird das Update auch für den Normalnutzer interessant.

Ab wann gehts los?

Seit dem 5. April kann man über den Windows 10 Upgrade Assistenten auf die Version 1703 aktualisieren. Auch wenn man das Media Creation Tool neu herunterlädt, bekommt man die neueste Version schon angeboten.

https://www.microsoft.com/de-de/software-download/windows10

Ab dem 11. April startet die allgemeine Verteilung über Windows Update für normale Nutzer. Dabei verteilt Microsoft wie immer in Wellen, d.h. man kann damit rechnen, dass in den darauf folgenden Wochen schrittweise mehr und mehr PCs das Update bekommen werden.

Ab dem 25. April startet dann die Verteilung für Windows 10 Mobile. Auch hier wird sicherlich das Update über eine Zeit verteilt – und ältere Geräte bleiben mal wieder außen vor.

Was sollte man beachten?

Ein Backup vor einem Upgrade ist nie verkehrt! Ein Backup ist sowieso nie verkehrt, aber natürlich speziell vor solch einer größeren Änderung sollte man da mal dran denken.

Wer immer noch meint, er müsse irgendeine “Sicherheitssoftware” nachinstallieren, sollte diese vor dem Upgrade im Idealfall deinstallieren. Ein aktiver Virenscanner kann so einen großen Umbau am System nachhaltig stören, so dass das Upgrade entweder nicht sauber durchläuft oder das System hinterher Probleme macht.

Ich setze ja “Sicherheitssoftware” hier absichtlich in Anführungszeichen, denn mehr Sicherheit bringt solche Software eh nicht. Insofern sollte man sie nach der Deinstallation idealerweise auch gar nicht mehr installieren.

Das Upgrade lief hier auf allen bisher getesteten Systemen problemlos durch. Dabei waren alte Kisten genauso wie relativ aktuelle Systeme. Probleme konnte ich nirgendwo feststellen. Das heißt nicht, dass es keine geben wird. Wer getunt, gecleant und am System gebastelt hat, läuft da eher Gefahr als der ganz normale Nutzer, der die Finger von sinnlosen “Cleaning-“ und “Tuning-Tools” lässt.

cr03

Der Datenschutz

Microsoft hat im Zusammenhang mit der neuen Windows 10 Version auch noch einmal das Thema Datenschutz auf die Tagesordnung gesetzt. Es gibt jetzt bei einer Neuinstallation, aber auch bei einem Upgrade, ganz klare Einstellungen, die gesetzt werden können. Man versteckt diese jetzt also nicht mehr hinter “Express-Einstellungen”. Auch wird deutlich erklärt, was eine Einstellung für Auswirkungen hat. Auch wurde versprochen, dass vorher gesetzte Einstellungen beim Upgrade beibehalten werden.

Zudem hat man die Datenschutzbestimmungen im Netz überarbeitet und erklärt jetzt bis ins kleinste Detail, was die Telemetrie für den Nutzer heißt und welche Daten in welchem Modus ggfs. übertragen werden.

https://technet.microsoft.com/en-us/itpro/windows/configure/basic-level-windows-diagnostic-events-and-fields

https://technet.microsoft.com/itpro/windows/configure/windows-diagnostic-data

Problem hierbei ist vermutlich, dass diese sehr transparente Angabe schnell zum Bumerang werden kann. Die schwammigen, aber kurzen Datenschutzbestimmungen der Mitbewerber lesen sich vergleichsweise viel harmloser. Dummerweise ist das für den Kunden aber deutlich schlechter, denn somit nehmen sich andere Firmen oft viel mehr Rechte heraus und erklären deutlich weniger, was sie für Daten wofür nutzen.

Updaten, ja oder nein?

Ja, auf jeden Fall – aber vielleicht nicht überall sofort!  Generell kann man natürlich auch jetzt schon loslegen. Aber wie immer gilt, dass man nicht unbedingt der Erste sein muss. Es werden in den nächsten Wochen sicherlich noch einige kumulative Updates erst nach dem Release gefundene Fehler in der neuen Version korrigieren.

Wer es also nicht eilig hat, sollte einfach abwarten, bis Windows Update die neue Version von sich aus anbietet und sich derweil auf die vielen, kleinen Änderungen freuen.

Veröffentlicht unter Allgemein | Kommentar hinterlassen

Ein Blick zurück: Als 600 MHz noch begeisterten.

Eigentlich war ich ja nur auf der Suche nach einem leeren ATX Gehäuse, um ein paar PC Komponenten, die sich hier mit der Zeit angesammelt haben, wieder zu einem kompletten Gerät zusammenzubauen. Was da in der Ecke des Kellers stand, ist allerdings mehr als nur ein Gehäuse und auch mal wert, ein paar Sätze dazu zu schreiben.

Was macht man mit Hardware, die jahrelang ungenutzt im Keller stand? Nun ja, entstauben, anschalten und hoffen, dass sich irgendwas tut. In diesem Fall ist die Hardware ein MAXDATA Artist Minitower PC. Und der wäre schon vor Jahren verschrottet worden, wenn nicht seine Ausstattung auch damals schon eher untypisch für einen PC gewesen wäre.

WP_20170203_22_01_49_Rich WP_20170203_22_01_15_Rich

Ein typischer, beigefarbener Minitower, DVD-Laufwerk, Wechselrahmen für eine zusätzliche Festplatte, Diskettenlaufwerk und ein “Designed for Windows NT / Windows 98” Aufkleber – ja, das waren noch Zeiten. Keine, die man sich zurück wünschen sollte.

Genau lässt sich das Produktionsdatum nicht mehr rausfinden, aber es wird wohl irgendwann 1999 gewesen sein, als dieser PC als leistungsfähige Workstation bei MAXDATA in Würselen vom Band lief. Firma und Fertigung sind schon lange nicht mehr existent – und alles was damals sonst noch an PCs produziert wurde, ist vermutlich schon lange auf dem Schrott.

Apropos Schrott: das verbaute 200 Watt Seasonic Netzteil gehört an sich zu einer Serie mit Serienfehler. Damals sind eigentlich alle Netzteile dieser Modellserie gestorben und mussten getauscht werden. Ein riesiger Schaden war das damals für MAXDATA und ich hab aufgehört zu zählen, wie viele von den Netzteilen ich selber getauscht habe. Interessanterweise hat dieses eine Exemplar überlebt.

Mainboard und CPU

Das verbaute Mainboard ist ein ASUS P2B-DS, welches Intels quasi legendären i440BX Chipsatz verbaut hat. Das “D” in der Typenbezeichnung weist dann schon gleich auf die erste Besonderheit hin: “Dual-CPU”. Zwei Slot 1 CPUs können hier verbaut werden und sind es zum Glück auch. Intels Pentium III “Coppermine” mit 600 MHz werkelt hier in doppelter Ausführung. Das “S” in der Boardbezeichnung ist dann für “SCSI” zuständig. Während man normalerweise bei Desktop-PCs damals PATA (“IDE”) Anschlüsse für Festplatten und CD-Laufwerke verwendete, findet sich hier onboard ein Adaptec AIC78U2 Controller für Ultra160 SCSI.

ASUS hat das Board auch in vielen anderen Konfigurationen gebaut, meist als einfaches P2B, d.h. für eine einzelne CPU und nur mit PATA Anschlüssen. Abgelöst wurden die Boards damals dann von der CUBX Serie, welche ebenfalls mit i440BX Chipsatz ausgestattet war, aber für die Pentium III CPUs im Sockel 370 geeignet war.

WP_20170203_21_59_18_Rich WP_20170203_22_00_57_Rich

Das Board hier bietet vier Speicherslots für PC100 SDRAM und verträgt maximal 1 GB Ram insgesamt – eine irrsinnige Menge fürs Jahr 1999 – und diese sind auch tatsächlich verbaut. Sie wurden allerdings erst später nachgerüstet. Damals hätte sie wohl niemand bezahlen können oder wollen.

Tastatur und Maus wurden früher nur über PS/2 Schnittstellen angeschlossen und so “neumodisches Zeugs” wie USB brauchte kein Mensch. Trotzdem sind zwei USB Ports hinten vorhanden – natürlich USB 1.1 und damit sehr, sehr gemütlich.

Steckkarten

Die Grafikkarte war zu ihren besten Zeiten auch kein ganz preiswertes Modell, werkelt hier doch eine ELSA Gloria III im AGP Slot. Die Karte hat mit Nvidias Quadro2 Pro Chipsatz die quasi gleiche GPU wie eine Geforce 2 Ti. Nur BIOS und Treiber machen daraus dann eine für damalige CAD Anwendungen optimierte Grafiklösung. Auch ELSA ist seit 2002 nicht mehr existent. Somit hat auch diese Hardware ihren Hersteller überlebt.

WP_20170203_22_00_09_Rich

Eine Creative Labs Soundblaster Live! 5.1 PCI sorgt für Sound. Der EMU10k1 Chip war damals beliebt und es gab recht breiten Anwendungssupport. Das Mainboard selber bietet keinerlei Audio-Funktionen, für damalige Zeiten noch vollkommen normal. In vielen PCs waren damals eher die billigeren Soundblaster Karten eingebaut, welche nur Anschlüsse für Stereo Sound hatten. Die Onboard-Soundchips nach AC’97 Standard hatten gerade erst das Licht der Welt erblickt, aber wer etwas auf sich hielt, nutzte eine Soundblaster.

Auch Netzwerk onboard fand sich bei den wenigsten Mainboards. In einem weiteren PCI Steckplatz steckt daher eine 10/100 Mbit Karte 3C905C-TX von 3Com. An sich liegen im Keller auch noch ein paar Gigabit-Karten, nur erfordern diese einen PCI 2.2 Slot und das ASUS Board bietet nur PCI 2.1.

Inwiefern Grafik- und Soundkarte schon von Anfang an im PC steckten, kann ich nicht beurteilen. Es kann sein, dass da später noch auf- oder umgerüstet wurde.

Storage

Natürlich war auch damals schon schneller Plattenspeicher das Nonplusultra und bei PATA war zu dem Zeitpunkt gerade mal UDMA33, d.h. 33 MB/s spezifiziert. SCSI bot da im Vergleich schon deutlich mehr. Bis zu 160 MB/s auf dem Bus sind bei Ultra160 SCSI möglich. Allerdings musste das natürlich eine Festplatte auch erst einmal liefern können. Und keine konnte es.

Festplatten mit 10.000 1/min waren zwar verfügbar, aber nur im Serverumfeld gebräuchlich. Sie waren nicht leise und mussten auch aktiv gekühlt werden, denn sie wurden nicht warm, sondern ohne Lüftung glühend heiß.

In diesem Fall entschied man sich also, nur eine Festplatte mit 7.200 1/min zu verbauen, eine Quantum Atlas V mit 36 GB. Quantum wurde von Maxtor übernommen, Maxtor dann von Seagate und bei Seagate finden sich tatsächlich noch die originalen Datenblätter von Quantum. Stolz berichtet man da von 29 MB/s tatsächlichem Durchsatz und 6,3 ms durchschnittlicher Seek-Zeit. Ordentliche Werte für 1999, allerdings heutzutage quasi lächerlich. 9,9 Watt Stromverbrauch im Idle-Zustand sind da noch vergleichsweise moderat. 7200er Festplatten liegen auch heute noch bei 6 bis 8 Watt.

Ein Toshiba DVD-ROM Laufwerk mit SCSI Anschluss komplettiert das Ensemble. Es liest keine wiederbeschreibbaren CDs und DVDs, tut aber ansonsten immer noch seinen Dienst leise und unauffällig.

Lebt es?

Knopf drücken, es röhrt gewaltig und ein Bild erscheint…mit einer Fehlermeldung…

WP_20170203_22_05_16_Rich

Ja, nach so langer Zeit ist die originale CMOS Batterie dann auch mal leer. Also schnell ins BIOS Setup, Datum, Uhrzeit und die wichtigsten Einstellungen wieder gesetzt und dann steigt die Spannung, was ich da zuletzt eigentlich für ein Betriebssystem drauf hatte.

Es bootet ein altes Ubuntu Linux… zumindest versucht es das.

WP_20170203_22_38_57_Rich

Örks. Okay, das sieht jetzt nicht so umwerfend aus. Es scheint ein Ubuntu 12.04 installiert zu sein. Ich hatte das Gerät also vor knapp fünf Jahren wohl schon mal aus dem Keller gekramt. Egal wie, es bootet nicht. Parity Fehler auf dem SCSI Bus? Ob die Festplatte hin ist? Das Kabel? Der Controller? Das Board? Oder nur die Ubuntu Installation?

Also mal schnell auf die Suche, was überhaupt auf solcher Hardware noch laufen könnte. Ein antiX Linux ist für alte Hardware optimiert, also CD gebrannt und los geht’s. Leider bootet antiX nicht vom SCSI-DVD-Laufwerk. Vermutlich fehlt dem Kernel der Support für den Adaptec Controller. Und bei Linux mal eben einen Treiber nachladen? Vergessen wir’s!

Also muss eine Alternative her. Windows! Windows 7 bootet tatsächlich von DVD, möchte dann von Diskette einen Treiber für den Adaptec Controller haben und resettet danach immer fröhlich den SCSI Bus. Also doch Hardware defekt? Denn schon Ubuntu meckerte ja deswegen. Oder doch nur die SCSI Terminierung falsch?

Vielleicht muss es einfach noch ein älteres System sein…

WP_20170203_22_55_41_Rich WP_20170203_23_22_08_Rich

Man sehe und staune: Windows Vista startet, nimmt den Treiber von Diskette und installiert dann sauber durch!

Es lebt! Smile

Ja, das ist noch richtig Sound! Je ein Lüfter mit 6500 1/min auf beiden CPUs, Lüfter im Netzteil, auf der Grafikkarte und dazu das helle Singen der Platte sowie das “Geschraddel” der Platte bei Zugriffen.

Treiber

Gar nicht so einfach ist die Suche nach Treibern. Nachdem PC Hardware nach wenigen Jahren veraltet und für die Hersteller damit uninteressant geworden ist, manche Hersteller nicht mehr existieren und viele Leute durch Anbieten von Malware die Treibersuche erschweren, geht da einiges an Zeit drauf.

ASUS bietet tatsächlich noch das aktuellste BIOS von 2002, sowie einen SCSI Treiber von 1999 an. Letzterer ist allerdings für Windows NT 4.0 und mag mit Vista so gar nicht.

Adaptec selber ist verkauft worden, man findet den Treiber für den AIC78XX für Vista aber tatsächlich noch auf deren Seiten. Auch wenn sie mittlerweile Microsemi heißen. Die Umbenennung ging irgendwie an mir vorbei.

3Com ist auch nicht mehr und deren Webseiten ebenfalls nicht. Die alten Seiten verweisen auf HPe, welche 3Com vor Jahren geschluckt hatten. Treiber finden sich da allerdings nicht mehr. Nach einiger Sucherei fand sich ein Treiber v4.41 für Windows XP, welcher unter Vista funktioniert.

Nvidia gibt es noch und auch stellen sie weiter Grafikchips her, mit denen von vor knapp 20 Jahren wollen sie allerdings nichts mehr zu tun haben. Selbst wenn man noch Produktbeschreibungen auf den Nvidia Webseiten findet, sind die Treiberlinks verwaist. Nichts, was Nvidia zum Download anbietet, funktioniert mit der Quadro2 Pro. Auch hier hilft wieder nur die akribische Suche im Netz und ich bin bei einem Treiber “Forceware 71.90” für Windows 2000/XP fündig geworden, der sich tatsächlich manuell installieren lässt.

Creative Labs gibts auch noch und sie haben sogar Treiber-Downloadseiten für die alten Karten noch online. Leider gibts dort immer nur Treiber-Updates, die eine Installation des damaligen Treiberpaketes erfordern, welches sie nicht anbieten. Man findet es dann im Netz und bei der Installation friert das System komplett ein. Okay, also kein Sound.

Wie läufts denn nun?

Ein wenig zäh, aber es läuft tatsächlich. 1 GB Ram sind unterstes Minimum für Vista. Ich denke, da sollte man noch ein paar nicht unbedingt benötigte Autostarts wie die Sidebar deaktivieren. Die CPUs sind auch gut ausgelastet. Zum Glück sind ja zwei davon da, das macht die Sache erträglich. Und die Festplatte…nun ja, viel Lärm um wenig Geschwindigkeit.
An Aero Glass muss man auch keinen Gedanken verschwenden. DirectX 7 ist bei der Quadro2 Pro drin, mehr nicht.

Dual-P3_01 Dual-P3_02

Aber generell funktioniert es tatsächlich. Momentan ohne Sound, aber stabil. Hardware von 1999 und ein Betriebssystem von 2007, welches bis April diesen Jahres sogar noch offiziell Support bekommt. Das muss man erst einmal nachmachen.

Dual-P3_03

Einige Benchmark-Werte werde ich bei Gelegenheit noch nachreichen. Jetzt installiert grad mal der erste Schwung von 109 Windows-Updates… Winking smile

Veröffentlicht unter Allgemein | 8 Kommentare

Das iPhone wird 10–kollektiver Realitätsverlust

Vor zehn Jahren hat Steve Jobs das erste Smartphone in den Händen gehalten und damit die Welt revolutioniert!

So oder ähnlich klingen in den letzten Tagen einige Berichte, die auf die Präsentation des ersten Apple Smartphones zurückblicken. Das klingt natürlich toll und sicherlich hat Apple damals ein Produkt präsentiert, welches mit seinen Nachfolgern zu Apples Erfolg beigetragen und die Firma Apple selber verändert hat.

Oft wird allerdings dabei übersehen, dass das iPhone keine geniale Revolution darstellte und nichts von dem, was Apple damals präsentierte, wirklich neu war.

Die Tagesschau schrieb heute gar zum ersten iPhone “Das Revolutionäre: Nutzer konnten erstmals mit einem Gerät telefonieren, fotografieren und im Internet surfen.” Eigentlich erschreckend, denn mit der Realität hat das wenig zu tun. Es festigt nur den falschen Glauben vieler Leute, dass Apple das Smartphone erfunden hätte.

Wer nun wirklich das erste Smartphone gebaut hat, darüber kann man trefflich streiten. Sicher ist eines: Apple war es definitiv nicht! IBM hatte schon weit mehr als zehn Jahre vorher den Grundstein gelegt, Nokia mit seinem Communicator die Sache professionalisiert und zum Erfolg getrieben.

Und vor dem iPhone buhlten Palm mit PalmOS, Nokia mit Symbian, Microsoft mit Windows Mobile und Blackberry mit Blackberry OS um Kunden. Die entsprechenden Geräte kann man auch aus heutiger Sicht als Smartphones bezeichnen.

 WP_20170108_15_35_31_Pro

So gab es schon Jahre vorher “Apps” zur Installation, hatten Kameras und Webbrowser den Weg auf die Geräte gefunden und die vier genannten Plattformen konnten allesamt über ein recht großes Ökosystem aus Programmen, Zubehör und Support verfügen.

Das erste Smartphone mit kapazitivem Display war im Jahr vor dem iPhone das LG Prada. Dass man Akkus tauschen oder Speicher durch Speicherkarten erweitern konnte, war vor dem iPhone selbstverständlich. Dass man ein Gerät erst “aktivieren” und anfangs nur mit speziellen Verträgen des Netzanbieters betreiben konnte fast undenkbar – sieht man von den Blackberry Optionen ab.

Und obwohl seit 2004 Geräte mit UMTS auf dem Markt waren, stattete Apple das erste iPhone drei Jahre später nur mit 2G Funktechnik aus. Es gab also zuerst einmal gar nicht so viel, was für das iPhone sprach.

Wo man allerdings anfangs richtig punkten konnte, war beim Preis. In Deutschland war das iPhone offiziell nur über die Telekom zu haben. Für 399 EUR konnte man es dort bekommen. Nicht einzeln, sondern als Zuzahlung zum Vertrag, der auch im mittleren, zweistelligen Betrag pro Monat angesiedelt war. Das Smartphone als Statussymbol war geboren.

Was war denn nun der Grund für Apples Erfolg? Apple war zur passenden Zeit am passenden Ort. Alle bestehenden Systeme basierten bei der Bedienung auf Konzepten, die schon einige Jahre im Markt waren. Keiner der vorhandenen Hersteller hatte vorher den Mut, einen Schnitt zu machen und bei Null zu beginnen. Apple hatte diese Chance, sie mussten ja eh fast dort anfangen. Sie fingen an und konnten auf Basis der 2007 verfügbaren Technik etwas neues konstruieren, ohne sich um bestehende Nutzer, Konzepte, Apps oder andere Dinge kümmern zu müssen. Das war dann das Glück des passenden Timings.

Die Positionierung als Statussymbol und Steve Jobs’ unnachahmliches “reality distortion field” sowie die allgemein clevere Inszenierung in den Medien und bei den Netzbetreibern brachten Apple voran. Künstliche Verknappung sowie die vorher nie gelungene Aktion, die Netzbetreiber dazu zu bringen, vor Apple zu knien und um die Erlaubnis zum Verkauf der iPhones förmlich zu betteln sind an sich alles nur Zeichen einer wirklich perfekten Marketingmaschinerie.

Jetzt, zehn Jahre später hat sich dabei nur manches geändert. Das iPhone ist heute kein Statussymbol mehr trotz weiterhin hoher Preise. Es zählt aber für viele Leute immer noch als “das Smartphone” und wie man an den Nachrichten sieht, glauben auch viele Menschen weiterhin, es wäre das erste Smartphone gewesen. Wer ein Smartphone ohne großes Vorwissen frei wählen kann, wählt immer noch oft ein iPhone. Diverse Macken von “Antennagate” bis hin zu spontanen Abschaltungen bei Kälte haben am Ruf keinesfalls kratzen können.

Der “goldene Käfig” aus Apps, Medien und neuen Apple Geräten hält auch immer noch viele Leute in ihrem Bann. Wer erst einmal hunderte oder tausende Euro in iPhone, Apps und Infrastruktur investiert hat, wird so schnell die Apple-Welt nicht verlassen.

Schaut man auf Apples Zahlen, hat man in den letzten zehn Jahren aus Firmensicht fast alles richtig gemacht. Das iPhone hat zu großen Teilen dazu beigetragen. Andere Hersteller hatten weniger Glück und ein schlechteres Timing. Und ein schlechteres Marketing.

Korrektur: Das LG Prada war nicht, wie anfangs geschrieben, ein Windows Mobile Gerät.

Veröffentlicht unter Allgemein | Kommentar hinterlassen

Test: ODYS Vario Pro 12–Convertible mit Stift–Teil 3

Und schon bin ich beim dritten und letzten Teil des ODYS Vario Pro 12 Tests angekommen. Heute betrachte ich mal neben dem ODYS Gerät einen quasi “Urahn” und habe einige Benchmarks durchgeführt, um die Geschwindigkeit in Relation zu ganz anderen Geräten messen zu können. Zuerst schauen wir allerdings noch mal auf das Vario Pro selber.

Akkulaufzeiten

Das ODYS Vario Pro 12 kommt mit einem fest verbauten Akku, der mit 9000 mAh vom Hersteller angegeben ist. Das ist nicht gerade wenig und der Hersteller spricht von bis zu acht Stunden Laufzeit.

Bei normaler Nutzung wird man solche Werte nicht erreichen. Tatsächlich sind bei aktivem WLAN und typischer Nutzung (Websurfen, schreiben, Facebook, Twitter) Laufzeiten von knapp fünf Stunden realistisch. Windows meldet bei 95% vollem Akku hier zur Zeit eine geschätzte Laufzeit von 4:34. Das ist okay und reicht für die meisten Anwendungszwecke locker aus.

Leider braucht das Gerät auch etwa die gleiche Zeit, um den Akku wieder vollzuladen. Das ist dann schon eher störend, auch weil es im ausgeschalteten Zustand nicht wirklich merkbar schneller lädt.

Richtig lange hält das Vario Pro im “Connected Standby” durch. Windows meldet hier über 133 Stunden. Also zuklappen und später wieder ohne große Verluste weiter zu arbeiten ist möglich, auch wenn im “Connected Standby” noch Nachrichten empfangen werden können.

Die Anzahl der Ladezyklen meldet der Akku leider nicht zurück.

Der “Urahn”

2-in-1 Geräte, die sich als Tablet oder Notebook nutzen lassen gibt es nicht erst seit dem Vario Pro 12. Auch vorher schon hatten verschiedene Hersteller dazu so ihre Ideen. Richtig ins Rollen kam die Sache allerdings erst durch Microsofts Surface Geräte und viele Hersteller sprangen auf den Zug auf. Einer der Hersteller, die schon eine Zeit vor Microsoft mit 2-in-1 Geräten auf Windows-Basis auf dem Markt waren, ist Acer.

WP_20161212_15_03_07_Pro WP_20161212_15_03_33_Pro

Das Acer W500 ist – ähnlich wie Microsofts später erschienene Surface Geräte – ein Tablet mit ansteckbarer Tastatur. Es kam Mitte 2011 auf den Markt und wurde mit Windows 7 ausgeliefert. Für ein Tablet ist das Acer W500 ziemlich dick, hat allerdings auch einen normal großen HDMI-Anschluss sowie am Gerät selber ebenfalls einen normal großen USB-Port.

WP_20161212_15_03_54_Pro WP_20161212_15_04_28_Pro

Das Innenleben verwundert etwas, findet sich hier nämlich doch keine Intel CPU, sondern ein AMD Fusion Chip. Die AMD C-50 APU vereinigt eine 1 GHz Dualcore CPU mit einer AMD HD6250 GPU. Letztere war zumindest damals deutlich schneller als alle einfachen Intel-Grafiklösungen. Sie versorgt ein 10,1” Display im 16:10 Format mit 1280×800 Pixeln mit Daten.

2 GB Ram sind fest verlötet, die 32 GB mSATA SSD SanDisk P4 lässt sich allerdings tatsächlich austauschen. Vermutlich sind solche Details mit ein Grund für das vergleichsweise hohe Gewicht von fast 1 kg und die Dicke des Tablet-Teils. Mit Tastatur zusammen ist das Acer ungefähr 200 Gramm schwerer als das ODYS Vario Pro 12.

Die Tastatur wird über den einen USB-Port des Tablets verbunden und steht dann auf dieser etwas wackelig und kopflastig. Auf dem Schoß kann man es nur schlecht betreiben, auf weichem Untergrund kippt es nach hinten um. Nur auf einer festen, geraden Unterlage steht das Gerät stabil. Klarer Vorteil für Geräte, bei denen Tastatur und Tablet-Teil richtig miteinander verbunden sind.

Die Tastatur bietet ihrerseits zwei USB-Ports sowie einen 100 Mbit/s Ethernet-Anschluss. Da sie als passiver USB-Hub arbeitet, kann man keine USB-Festplatten ohne eigene Stromversorgung an den Ports betreiben. Der Tastenhub ist extrem kurz, der Anschlag knallhart, manchmal prellen die Tasten. Für alles was über das Schreiben einer kurzen Mail hinaus geht ist sie zumindest sehr gewöhnungsbedürftig. Der Trackpoint mit den zwei vorn am Rand angebrachten Maustasten ist schlicht eine Qual. Wie gut, dass man ein Touch-Display hat. Einen Stift erkennt das Acer Display allerdings nicht.

Das Netzteil liefert maximal 40 Watt und wird direkt am Tablet selber angeschlossen, nicht an der Tastatur.

W500_01

Von den 2 GB Ram sind leider nur 1,6 GB nutzbar. Den Rest greift sich der Grafikkern – und das leider nicht dynamisch. Das Acer Tablet hat also noch mehr mit dem Problem des viel zu knappen Speichers zu kämpfen. Durch den Einsatz von Windows 10 statt Windows 7 hat sich das zwar etwas verbessert, aber zu wenig bleibt zu wenig, egal mit welchen Tricks gearbeitet wird.

Stellt man die Geräte von Acer und ODYS nebeneinander und lässt sie nach Funknetzwerken suchen, findet das Acer erheblich mehr davon und zeigt das Heimnetz mit deutlich besserem Pegel an. Die Atheros-Karte im Acer kann zwar ebenfalls nur im 2,4 GHz Bereich mit einem Stream funken, kann aber wohl auf deutlich bessere Antennen zurückgreifen.

Beim direkten Vergleich von W500 und Vario Pro 12 gibt es keinen Vorteil für das Acer Gerät mehr. Man merkt ihm die fünf Jahre schlicht an. Die Performance ist für heutige Verhältnisse einfach lausig. Bei jeglichen Komponenten (mal vom WLAN ausgenommen) zeigen sich deutliche Verbesserungen beim modernen ODYS Gerät.

Der Akku des Acer hat zwar noch 3161 von ursprünglich 3586 mAh, d.h. nur einen Verlust von etwa 12% über die Jahre. Trotzdem sind nur knapp zweieinhalb Stunden Nutzung ohne Stromnetz möglich. Die Hardware braucht einfach mehr Strom als moderne Geräte. “Connected Standby” oder ähnliche neue Features werden eh nicht unterstützt.

Die Benchmark-Werte untermauern dann auch noch deutlich, dass schon zwischen ODYS und Acer Welten liegen.

Benchmarks

Um das ODYS Vario Pro 12 etwas besser einordnen zu können, habe ich neben dem Acer W500 noch zwei weitere Geräte mit getestet.

Das Lenovo T540p ist ein Business-Notebook von 2014 mit Intel Core i7 4710HQ, 16 GB DDR3 Ram, Samsung PM851 256 GB SSD und Nvidia GT730 Grafik. Die Vierkern-CPU ist dabei immer noch recht konkurrenzfähig, die Grafik allerdings nicht wirklich für Spieler gedacht.

Dann gibts im Test noch eine Workstation, in diesem Fall ein Eigenbau. Interessant ist die Maschine insbesondere dadurch, dass sie das älteste Gerät im Vergleich ist. Die Intel X5670 CPU mit sechs Kernen a 2,93 GHz kam 2010 auf den Markt, das Gigabyte Board mit Intels X58 Chipsatz sogar schon fast zwei Jahre vorher. Die verbaute OCZ Agility 3 mit 240 GB ist auch schon arg angegraut und nur mit SATA-2 angebunden. Mehr bietet der Chipsatz noch nicht. Modernste Komponente ist die Grafikkarte mit Geforce GTX750Ti Chip.

Für die Tests musste ich auf die ältere Cinebench Version 11.5 zurückgreifen, da spätere Versionen nicht mehr in 32-bit verfügbar sind. Auf den Geräten mit 64-bit Windows wurde allerdings jeweils die 64-bit Version des Benchmarks genutzt. Selbiges gilt für die Tests mit 7-Zip.

Auch sollte an sich das Programm AS SSD Benchmark für die Disk Tests zum Einsatz kommen. Leider verabschiedete dieses sich auf dem Vario Pro immer mit Lesefehlern, so dass ich auf das alte HD Tune ausgewichen bin.

OpenGL Benchmark CineBench 11.5

bench01

Hier setzt sich die Workstation leicht in Führung vor dem T540p. An sich sollte die GTX750Ti hier noch einen Schritt schneller sein als die GT730 im Notebook, wird aber wohl durch den alten X58 Chipsatz der Workstation ausgebremst.

Das ODYS Gerät ist immerhin noch doppelt so schnell wie das Acer Tablet.

CPU Benchmark CineBench 11.5, Multicore-Leistung

bench02

Hier liegt die alte Intel Workstation-CPU mit etwas Abstand vorne. Die AMD C-50 CPU im Acer sieht kein Land und ist weit abgeschlagen hinten. Das ODYS Vario Pro 12 ist hier schon ein Stück schneller. Es zeigt sich aber auch, dass im Vergleich selbst mit einem nicht ganz aktuellen Notebook schon recht deutliche Performance-Unterschiede bei den Tablet-CPUs bestehen.

7-Zip Single- und Multicore Leistung

bench03

Die Benchmark-Funktion von 7-Zip 16.04 zeigt deutlich die Unterschiede zwischen einem einzelnen CPU Kern sowie der Zusammenarbeit aller vorhandenen Kerne. Die beiden schnelleren Geräte unterstützen Hyperthreading, teilen also einen physischen Kern in zwei logische Kerne auf. Damit landen wir bei 12 Kernen bei der Workstation und acht beim Thinkpad. Die kleinen Geräte nutzen nur die tatsächlichen vier (ODYS) bzw. zwei Kerne (Acer) der jeweiligen CPU.

7-Zip skaliert hier also recht gut über mehrere Kerne, d.h. das ODYS Tablet ist mit allen vier Kernen auch tatsächlich etwa vier Mal so schnell wie mit einem einzelnen Kern.

Es zeigt sich auch, dass die einzelnen Rechenkerne der CPUs gar nicht so weit auseinander liegen. Ein Kern des alten Xeon ist nur minimal langsamer als ein Kern des jüngeren Core i7. Die unterschiedliche Rechenleistung der CPU kommt dort alleine durch die unterschiedliche Anzahl der Kerne zustande.

Ein Teil der Mehrleistung der beiden Geräte mit 64-bit Windows kommt teilweise auch durch die Nutzung von 64-bit Software. Der Vergleich mit einem 32-bit 7-Zip auf den 64-bit Systemen bringt durchweg leicht niedrigere Ergebnisse. Trotzdem lohnt es sich wohl nicht, auf den mit wenig Arbeitsspeicher ausgerüsteten Geräten ein 64-bit Windows nur deswegen zu installieren.

HD-Tune 2.55 Lesen

bench04

Ein reiner Lesebenchmark sagt natürlich nicht wirklich viel über eine SSD aus. Der Vergleich soll hier allerdings auch nicht als tiefgehende Analyse der einzelnen Speichermedien dienen, sondern nur zum übersichtlichen Vergleich. Damit reicht dann auch die alte, kostenlose HD Tune, um einen Überblick zu bekommen.

Vergleicht man die durchschnittliche Geschwindigkeit, zeigt sich, dass die eMMC im ODYS gar nicht so schlecht ist, wie der Ruf, der eMMCs anheftet. 94,8 MB/s lesend im Durchschnitt ist immer noch mehr als so manche Festplatte leistet und reicht in einem solchen Gerät meist aus. Schneller darf es natürlich immer gerne sein, aber das kostet dann mehr Geld und möglicherweise auch mehr Strom.

Die auch schon etwas angegraute OCZ SSD in der Workstation wird sichtbar durch das SATA-3-Gbit/s-Interface des Chipsatzes ausgebremst. Der Tausch gegen eine schnellere SSD würde bei der vorhandenen Hardware also wenig bringen.

Im Thinkpad ist die Samsung SSD regulär über eine SATA-6-Gbit/s-Schnittstelle angebunden. Theoretisch wären damit 600 MB/s auf dem Bus möglich. Die PM851 SSD von Samsung ist die OEM Version der 840 Evo und vom Hersteller mit maximal 540 MB/s lesend angegeben. Warum hier schon bei gut 350 MB/s Ende ist, kann ich nicht nachvollziehen. Wird wohl Zeit, noch mal auf die Suche nach Firmware zu gehen, was bei OEM SSDs nicht immer ganz einfach ist.

WP_20161212_11_30_02_Rich

Fazit

Das ODYS Vario Pro 12 ist grundsätzlich ein interessantes Gerät. Es vereint Notebook und Tablet, bietet Stiftbedienung und ein schickes Design, ist gut verarbeitet lässt sich angenehm nutzen. Windows 10 läuft darauf gut und die Stiftfunktionen klappen problemlos.

Ich erwarte allerdings von einem Gerät, welches wie ein “richtiges” Notebook aussieht auch, dass man es genau als Ersatz eines solchen normalen Notebooks nutzen kann. Dazu sind zumindest der Arbeitsspeicher und auch der Speicher der Disk zu klein.

4 GB Ram müssen sein, eine 64 GB SSD bzw. eMMC ist Minimum! Alles darunter kann man vielleicht noch in einem reinen Tablet anbieten, aber von 2-in-1 Geräten erwarte ich einfach mehr.

Ich habe bisher und auch während des Tests keinen Grund gefunden, warum ich den Stift tatsächlich im Alltag nutzen sollte. Für mich ist es schön, dass eine Tastatur und ein gutes Touchpad vorhanden sind. Aber der Stift bietet mir keine Erleichterung. Schnelles Mitschreiben passiert auf der Tastatur, für Bedienung des Systems nutze ich Touch oder Touchpad und im Browser oder der Karten-App handschriftliche Notizen vorzunehmen ist einfach kein Nutzungsszenario für mich.

Die Nutzung als Tablet ist durch das vergleichsweise hohe Gewicht nicht primärer Nutzungszweck, das können reine Tablets besser. Aber wenn man es auf dem Schoß im Tablet-Modus nutzt, ist das Vario Pro problemlos und leistet sich hier keine Schnitzer.

Die kleinen Schnitzer des Vario Pro aber sind die immer noch hin und wieder auftauchenden Störgeräusche im Lautsprecher sowie die nicht verfügbaren Tastenkombinationen. Dazu die seltsame Angabe der Akkukapazität, welche aber halt nur ein Anzeigeproblem darstellt. Fehlende Treiber und UEFI Updates auf der Hersteller-Webseite lassen mich befürchten, dass der Normalnutzer da auch keine Änderungen sehen wird.

Bleibt der Preis. In den Preisvergleichen findet sich das Vario Pro für 279 EUR. Für 10 EUR mehr findet sich im Netz das Lenovo MIIX 310 mit 4 GB und 64 GB Flash, abnehmbarer Tastatur, selbiger CPU wie beim ODYS und nur eben über 500 Gramm Gewicht für den Tablet Teil. Allerdings auch nur mit 10,1” Display.
Ebenfalls in der Preisklasse spielen verschiedene ASUS Transformer B0ok Modelle. Ein 10,1” Modell mit 4 GB Ram und ganzen 128 GB eMMC wiegt ebenfalls nur 580 Gramm, kostet aber nicht deutlich mehr als das ODYS Gerät. Einen Stift gibt es bei beiden Modellen nicht.
Auch keinen Stift gibts beim Trekstor Surftab twin und ebenfalls nur 2 GB Ram und 32 GB Flash, dafür allerdings ein FullHD Display. Und man findet es für knappe 200 EUR.

Auch ein 11,6” Gerät gibt es zum Vergleich. Das Medion E2216T kommt wieder mit nur 2 GB Ram, bietet aber ein FullHD Display und geht für 249 EUR über den Ladentisch. Einen Stift gibt es auch hier nicht – aber wie gesagt, dessen Nutzen wäre für mich persönlich eh nicht groß.

Pro:

  • als Notebook relativ leicht
  • ordentlich verarbeitetes, schickes Gehäuse
  • flexibel nutzbar
  • gutes Touchpad, brauchbare Tastatur
  • ausreichende Akkulaufzeit

Kontra:

  • als Tablet relativ schwer
  • zu wenig RAM, zu kleiner Flash Speicher
  • kleine Schlampereien (Tasten, Akkuanzeige, Störgeräusche)

Ich hoffe, ich konnte damit ein paar Informationen zum ODYS Vario Pro 12 liefern und bin gespannt, wie andere Nutzer das Gerät beurteilen.

 

Das ODYS Vario Pro 12 kaufen (sponsored Link)

Hinweis in eigener Sache: das Gerät wurde im Rahmen der Microsoft Produkttester Aktion kostenlos zur Verfügung gestellt. Ich denke, dass das den Test nicht weiter beeinflusst hat. Smile

Veröffentlicht unter Allgemein | 2 Kommentare