Krankenkassen-App

Ich schaue ja schon seit vielen Jahren praktisch keine TV-Werbung mehr. Seit über 12 Jahren nehme ich mir Sendungen, die mich interessieren, eigentlich nur noch auf. Live-TV gibt es nur sehr selten, etwa bei Nachrichten. Das hat unter anderem den Vorteil, dass man die Sendungen nicht zu jeder gewünschten Zeit sehen kann, sondern auch in viel kürzerer Zeit; besonders bei Aufnahmen von den Privatsendern. Da kann man super die Werbung überspringen.

Zum Ende des Werbeblocks kommt dann meist noch ein Spot, der in einen Rahmen mit einem Countdown eingebettet ist. Dieser soll wohl suggerieren, dass die eigentliche Sendung bei Null weitergeht. doch oft kommen dann noch 1-2 Spots. Und dabei ist es passiert, dass ich die Werbung einer Krankenkasse gesehen habe. Dabei ging es nicht um die Leistungen der Kasse, sondern darum, dass sie eine App haben, mit der man alles im Zusammenhang mit der Krankenkasse erledigen kann. Ich frage mich ernsthaft, was das sein soll. Wann trete ich schon mal in direkten Kontakt mit meiner Krankenkasse? Und warum sollte ich dafür auch noch eine eigene App installieren?

Diese Apperitis ist sowieso ein Problem. Für jeden Kram, den man sich auf einer Webseite ansehen kann, gibt es auch eine eigene App. Wozu? Ich habe eine Universal-App; nennt sich Browser. Tolle Erfindung, oder? Vor allem braucht diese nicht zig Berechtigungen, wie mittlerweile fast jede App. Schließlich will man ja am neuen Ölrausch teilhaben und die Nutzer ausspionieren. Aber man muss ja keine Sorge haben, schließlich kommen diese Apps ja alle aus den Appstores von Google und Apple. Nur die Apps aus anderen Quellen, wie etwa dem quelloffenen FDroid-Store sind natürlich gefährlich.

Wer mal wissen will, wir schlampig tatsächlich so manche Gesndundheitsapps mit den sensiblen Daten umgehen, kann das hier mal bei Heise lesen oder wir erinnern uns an Vivy. Ansonsten finden sich direkt im Microblog von Mike Kuketz noch mehr Beispiele. Und das sind nur Fälle, in denen man das leicht nachweisen kann. Was hinterher mit den Daten passiert und wo die überall landen, Datenschutzerklärungen hin oder her, ist völlig unklar. Zumal es auch immer mal wieder Hackerangriffe gab, die sehr sensible Daten öffentlich gemacht haben.

Der beste Datenschutz ist halt, die Vermeidung von Daten. Ansonsten die Beschränkung auf die absolut notwendigsten Daten und Empfänger.

Und noch ein Tipp an die Anbieter: Ist das Vertrauen erst einmal verspielt, ist es schwierig es wieder zu bekommen.

duschmarke.de nutzt Embetty

Im Zuge der DSGVO-Einführung wurde mir klar, dass es nicht in Ordnung ist, Inhalte Dritter direkt in meinen Blog einzubauen. Dabei werden nämlich Daten des Nutzers nicht nur an meinen Server, sondern auch an den Anbieter der eingebetteten Inhalte übertragen. Deswegen habe ich alle externen Inhalte durch Links auf die entsprechenden Seiten ersetzt. Allerdings verliert der Beitrag dadurch an Wirkung, wenn etwa ein Vorschaubild fehlt.

Natürlich könnte man Screenshots erstellen und diese integrieren. Das ist urheberrechtlich aber nicht in Ordnung.

Heise bietet seit einem Jahr die Software Embetty an. Diese löst genau dieses Problem. Embetty bindet Texte ein und zeigt Vorschauen an, um dass eine direkte Verbindung zwischen Leser und externen Anbieter hergestellt wird. Dieses Verhalten ist datensparsam. Erst beim Anklicken eines Inhaltes wird eine direkte Verbindung aufgebaut.

Rein technisch funktioniert das so: Embetty besteht aus zwei Teilen, einem Server-Teil und einem Javascript, welches in die eigene Website eingebaut wird. Der Server-Teil ist ein Proxy-Server. Er lädt die Inhalte vom Anbieter und stellt sie zur Verfügung. Der Javascript-Teil ruft die Inhalte nun vom Proxy-Server ab, statt direkt vom Anbieter. Deswegen, sieht es zunächst immer nur so aus, also ob mein Server die Inhalte abfragt.

Ein Beispiel:

(direkter Link zu Youtube)
Hinweis: beim Anklicken des Videos oder des Links wird eine Verbindung zu Youtube aufgebaut

Beim bloßen Aufruf dieser Seite, werden keine Daten vom Nutzer zu Youtube übertragen. Das Vorschaubild wird von meiner Server bei Youtube angefragt und an den Leser weitergeleitet. Erst beim Klicken auf das Bild, wird das Video gestartet, welches dann direkt von Youtube kommt. Alternativ stelle ich auch einen direkten Link zur Verfügung.

Chrome schränkt Werbeblocker ein

Google will Techniken unterbinden, die aktuelle Werbeblocker-Plugins nutzen. Offiziell um die Browserleistung zu verbessern. Ist natürlich quatsch. Natürlich geht es um das eigene Geschäftsmodell. Schon irgendwie doof einen Browser von einem Werbekonzern zu nutzen. “Don’t be evil” war einmal. Heutzutage müssen die Geschäftszahlen stimmen.

Ich bin schon langjähriger Firefox-Nutzer und weiß auch warum. Mozilla hat sich zwar auch schon den einen oder anderen Fehltritt erlaubt, aber immerhin hat man noch das Gefühl, dass die eigentliche Funktionalität im Vordergrund steht.

Als Nutzer von Firefox muß man sich aber an Kummer und schwere Zeiten gewöhnen. Etwa als vor 1,5 Jahren Firefox 57 (Quantum) rauskam und 3/4 aller installierten Plugins nicht mehr funktionierten, da man, mal wieder, die entsprechende Schnittstelle überarbeitet hat.

Oder vor wenigen Wochen, als Mozilla es verkackt hat, ein Zertifikat zu verlängern. Das hatte zur Folge, dass mal eben sämtliche Addons deaktiviert waren. Es hat mehrere Tage gedauert, bis der Fehler behoben war. So einen Fehler erwartet man vielleicht bei einem kleinen Software-Krauter, aber nicht bei Größen wie Mozilla. Das ist wirklich unprofessionell.

Aber trotzdem halte ich Firefox die Treue. Google Chrome hat sich ja nun völlig disqualifiziert. Ich weiß nicht wie es um die OS-Varianten bestellt ist.

Backup-Restore

Ich habe zu Hause einen kleinen Heimserver auf dem in erster Linie tvheadend, Nextcloud, und mediawiki laufen. Irgendwann zeigten sich einige Dateifehler und beim Auslesen der SMART-Werte wurde klar, dass die Platte schleunigst getauscht werden musste. Da das System ja noch funktioniert, dachte ich es wäre einfach die Platte mittels dd zu klonen. Das Klonen selbst funktionierte ganz gut, nur war der neue Klon nicht lauffähig. Da die Plattengröße ETWAS anders war versuchte ich die Partitionen anzupassen, in dem ich einfach die Swap-Partition am Ende der Platte neu erstellte. Doch leider ohne Erfolg. Auch mit grub mit habe ich mich rungeschlagen. Das seind alles keine Themen, bei deene ich mich sonderlich gut auskenne. Ich habe da ein ganzes Wochenende daran rumgedoktort; vergebens.

Am Ende entschloss ich mich für eine Neuinstallation. Wäre meine Internetverbindung besser, als die maximal 2,3 MBit die die Telekom hier schafft, ginge so eine Installation auch viel schneller.

Nachdem ich das Grundsystem aufgesetzt habe, installierte ich noch die fehlenden Pakete nach. Ich nutze schon seit mehreren Jahren Borg zum Backup meiner Daten. Das ist wirklich sehr komfortabel, schnell und platzsparend. Auch unter meinem alten Windows-System habe ich das genutzt. Das war irgendwie eine ganze cygwin-Umgebung, die man am besten gar nicht angerührt hat. Ziel ist meistens ein NAS.

Ich benutze ein eigenes Wiki, in dem ich etwa Notizen zur Softwareinstallation speichere. Leider ist es doof, wenn das Wiki nicht funktioniert, weil man es wegen der fehlenden Notizen im Wiki noch nicht installieren konnte.

Außerdem habe ich festgestellt, dass ich ein wichtiges Verzeichnis gar nicht in der Datensicherung drin hatte. Zum Glück war ja noch die alte Platte lauffähig, von der ich dann die Daten zurückgeholt habe.

Diesmal habe ich auch aufgepasst und nicht einfach /etc/fstab aus dem Backup genommen habe. Dafür habe ich /etc/passwd und /etc/group überschrieben. Leider gab es da ein paar Unverträglichkeiten, da einige Nutzer nun plötzlich andere IDs hatten, und die Berechtigungen für die Verzeichnissse nicht mehr stimmten. Das bedurfte noch ein wenig Nacharbeit.

Im Großen und Ganzen hat es aber gut geklappt und war viel entspannter als die Frickelei mit der geklonten Festplatte.

Ein paar Wochen später gab es hier einen kleinen Stromausfall. Der Server wollte nicht mehr starten. Da er normalerweise headless betrieben wird, musste ich erst einmal Monitor und Tastatur anschliessen, um zu sehen, was los war. “Defektes Dateisystem”. War ja auch klar, wenn einfach so dem Server der Saft ausgeht. Ich weiß nicht wie lange ich gebraucht habe, bis ich ein brauchbares Boot-Medium hatte, von dem ich fsck ausführen konnte. Zuerst habe ich desinfec’t ausprobiert. Doch dort war die fsck-Version hoffnungslos veraltet und kam nicht mit meiner ext4-Partition klar. Ähnliches bei meinem alten Parted-Magic. Ich weiß nicht mehr was ich noch alles ausprobiert habe und was am Ende geholfen hat, aber irgendwie ist fsck einmal kurz drübergelaufen und hat alles repariert. Danach startete die Platte wieder ohne Probleme.

Aber da sieht man wieder: eigentlich ist Lösung soooo einfach, aber in der Praxis dann doch schwierig.

Neuer PC – Teil 2 – Die Software

Im ersten Teil schrieb ich ja bereits über die Planung, den Kauf und den Zusammenbau der Komponenten. Jetzt möchte ich kurz etwas über die Software schreiben.

Bisher habe ich stets Windows auf meinen PCs genutzt. Angefangen von Windows 3.1 über 95 und 98SE, dann über 2000 auf XP und schließlich auf Windows 7. Das Kachelexperiment von Windows 8 hat mich überhaupt nicht überzeugt. Windows kann mich nun gar nicht mehr begeistern. Der Zwang halbjährlich die großen Upgrades durchzuführen und dass man wenig Einfluss darauf hat, ist der erste Grund. Zweiter Grund ist die Tatsache dass Microsoft bei den Upgrades so viel verbockt hat, dass man die Software eigentlich gar nicht im produktiven Einsatz nutzen sollte.

Dann ist natürlich noch die Datenschutzproblematik. Was haben wir uns damals (bei Windows XP) aufgeregt, als eine eindeutige Hardwarekennung nach Redmond geschickt wurde. Heutzutage werden allen möglich Daten über die Benutzung an die Microsoft-Server übermittelt. Man kann dieses Verhalten meistens irgendwo deaktivieren, doch oft sind dieses Einstellungen nach dem Halbjahres-Upgrade wieder futsch.

Überhaupt ist das Verhalten von Microsoft gegenüber Windows-7-Nutzer unredlich. In den Jahren 2015 und 2016 hat man ja den Nutzern das Angebot unterbreitet kostenlos, auf Windows 10 umzusteigen. Viele Nutzer, wie auch ich, fühlten sich von den ständigen Hinweisen genervt. Im Internet kursieren etliche Tipps, wie man diese Störungen unterbinden kann, doch meistens kamen sie mit einem “Sicherheitsupdate” zurück. Zum Schluß gab es sogar verwirrende Menüs, die sicherlich dem einen oder anderen Nutzer gegen ihren Willen Windows 10 aufs Auge gedrückt haben.

Dieser Spuk ist endlich vorbei, aber trotzdem versucht, Microsoft weiterhin den Anwendern Windows 7 zu verleiden. So gibt es etwa einen Dienst, der ständig läuft, und die Festplatte nach Software untersucht und überprüft ob diese auch mit Win 10 kompatibel ist. Dass darunter massiv die Performance leidet, kommt Microsoft nur entgegen.

Also Windows kam nicht in mehr Frage. Da ich größtenteils schon viel mit Open-Source-Software gearbeitet habe und Linux bereits in einer Parallelinstallation lief. war klar, dass nun auch Linux das Hauptbetriebssystem werden sollte. Ich hatte in den letzten Jahren schon einiges an Erfahrung bei Linux-Systemen sammeln können, vor allem bei meinen Heim-Server, Raspis und gemietenden V-Servern.

War nur noch die Frage, welche Distribution. Vom hiesigen OSM-Stammtisch kannte ich schon Linux Mint, welches andere OSMler bereits nutzen. Ich habe es auf meinem alten Rechner parallel zu Windows installiert und immer mal wieder damit gearbeitet und für gut befunden. Zu dem favorisierte ich ein System, dass auf Debian oder Ubuntu aufsetzt, da ich mit diesen Distributionen schon gute Erfahrungen sammeln konnte und auch das Angebot an Softwarepaketen am größten scheint.

Meine Frau war von der Vorstellung Linux zu nutzen zuerst nicht so angetan. Sie hatte vor vielen Jahren wohl mal schlechte Erfahrungen gemacht. Ich glaube aber, die neueste Windows-Variante wäre eine größere Umstellung gewesen, als Linux Mint.

Passenderweise kam auch genau zu der Zeit, als der Rechner zusammengebaut war, die neue Mint-Version 19.1 (Tessa) heraus. Ich entschied mich für die “Geschmacksrichtung” Cinnamon. Die Installation klappte problemlos. Nervig ist halt nur das ewige Nachladen aus dem Internet, wenn man einen lahme DSL-Anschluss hat. Das war auch beim Installieren der Anwendungen zu spüren.

Wenn man von den Downloadzeiten mal absieht, ging alles einfach und schnell. Ich wusste ja größtenteils schon vorher welche Programme ich nutzen möchte. Auch die Konfiguration war zügig erledigt. Dann wurden noch meine Nutzer-Daten (Fotos, Musik, Filme, etc.) vom alten Rechner auf den neuen kopiert und schon war das neue System einsetzbar.

Was jetzt noch weggefallen ist, ist der unter Windows obligatorische Virenscanner. Ich hatte jahrelang Kaspersky im Einsatz, der aber hin und wieder für Probleme sorgte. Am Ende hat ich nur noch den Windows Defender im Einsatz. Eigentlich wollte ich ganz auf eine Antivirensoftware verzichten, da sie mehr geschadet (nicht nur im Geldbeutel) als genutzt hat, aber Microsoft hat ja eine “Pflicht” zur Benutzung eingeführt, denn ansonsten bekäme man keine Updates für Windows mehr.

Eigentlich wollte ich noch Windows 7 als zweites, zusätzliches Betriebssystem installieren, doch das war nicht nötig. Meine Steuersoftware habe ich sowieso immer in einer VM. Da bin ich ein wenig paranoid. Ich vertraue keiner Software vom Staat, wenn der Staat gleichzeitig die rechtlichen Mittel hat, seine Bürger auszuspionieren.

Windows wollte ich eigentlich noch als Spieleplatform nutzen, doch das musste ich nicht. Warum das so ist, beschreibe ich im dritten Teil.

Warteschlangen

Im Grunde genommen finde ich Warteschlangen interessant; besonders in der Technik. Wenn man sieht wie bestehende Aufträge, etwa verschiedene parallele Downloads abgearbeitet werden, neue dazu kommen, höher priorisierte sich nach vorne schieben, neue Aufträge hinzukommen und irgendwann die Schlange leer ist, ist das für mich doch ein wenig spannend.

Meistens ist man jedoch selbst Teil einer Warteschlange und hat keinen Überblick über die Gesamtsituation. Aber man merkt wenn man warten muss und warten ist doof. Klar kann es überall man Engpässe geben, aber manchmal scheint hinter den Warteschlangen ein System zu stehen.

Etwa bei Ärzten. Bei der Terminvergabe geht es schon los. Bei bestimmten Fachärzten (etwa Augenarzt, Hautarzt) bekommt man als Normalsterblicher erst einen Termin erst in mehreren Monaten. Als Mitglied einer privaten Krankenkasse geht es oft viel schneller. Warum ist so etwas überhaupt zulässig? Hier wird doch ganz klar die Aussage getroffen, dass es Patienten erster und zweiter Klasse gibt. Ich bin der Meinung, dass diese Praxis verboten werden und entsprechenden Ärzten die Kassenzulassung entzogen werden sollte.

Eigentlich ist eine dauerhafte Warteschlange ein Zeichen dafür, dass ein System überfordert ist. Das könnte bei den Arztterminen so sein, aber warum bekommt der Privatpatient dann einen früheren Termin?

Hat man endlich den lang ersehnten Termin und ist nichts dazwischen gekommen, erlebt man in der Arztpraxis nun die nächste Warteschlange. Es ist erstaunlich, wie unterschiedlich das in verschiedenen Praxen abläuft. Bei manchen Ärzten muss man trotz Termin und früher Uhrzeit lang warten. Warum? Kriegen die das nicht besser organisiert oder ist das gewollt? Vielleicht denken die ja, dass es ein tolles Zeichen ist, wenn der Patient so lange warten muss. Schließlich scheint der Arzt ja sehr begehrt zu sein. Oder wollen sie den gemeinen Kassenpatienten lieber vergraulen?

Ich kenne aber auch andere Ärzte, wo es wirklich flott geht. Da kann man sich auf einen Termin verlassen. Ich komme da auch erst kurz vorher und spätestens 5 Minuten nach der vereinbarten Zeit bin ich dran. Warum klappt es da und woanders nicht? Ich glaube auch nicht, dass es an mangelnden Fähigkeiten der Arzthelferinnen bei der Terminplanung liegt, sondern, dass es so vom Arzt vorgegeben ist.

Da fällt mir eine besondere Form der Patientenvergraulung mittels Wartezeit ein. In einer Gemeinschaftspraxis gab es nicht nur das normale Wartezimmer in der man mindestens 30 Minuten rumsitzt, sondern den Flur runter gab noch einen Glaskabuff, in dem sich ein weiterer Wartebereich befand. Dort wurde man hingeschickt und durfte wieder warten, bis eine Mitarbeiterin einen in das Behandlungszimmer begleitet hat. Dort traf man aber nicht auf den Arzt, sondern musste vielleicht noch mal 30 Minuten warten. Was soll der Scheiß?

Den Vogel abgeschossen hat aber mein ehemaliger Hausarzt. Ich brauchte eine ärztliche Bescheinigung. Termine vergab der Arzt nicht, ich solle einfach zu Beginn der Sprechstunde kommen. Die Sprechstunde sollte um 16 Uhr anfangen und ich war etwa so um 15.40 in der Praxis. Das Wartezimmer war voll. Ich kam erst nach fünf (!) Stunden um 21 Uhr dran. Um 21:05 bin ich raus, mit dem Hinweis, dass ich morgen früh noch mal zum Blut abnehmen kommen soll.

Wo es auch regelmäßig zu Warteschlangen kommt, sind Telefonhotlines. Hier kann ich mir gut vorstellen, dass es auch eine Masche ist, den Kunden so lange hängen lässt, bis er aufgibt. Das ganze gepaart mit einer unzureichenden Kalkulation von Servicemitarbeiterstellen.

Eine gute Servicehotline ist ausreichende mit Mitarbeitern besetzt, damit es nicht zu lange Wartezeiten kommt, hat keine nervenden und fehlerhaften Sprachmenüs, die den Kunden wütend machen, hat nervende Dudelmusik, die einen nach spätestens 20 Minuten Amok laufen lässt und vor allem darf eine Warteschleife mich nicht die ganze Zeit anlügen “Der nächste freie Platz ist für sie reserviert.”

Klar kostet jeder Kundenkontakt Geld und ein Telefonmitarbeiter kann nur einen Anruf gleichzeitig bearbeiten, während der Online-Kollege in der gleichen Zeit zig E-Mails mit zusammen geklickten und oft falschen Texten beantworten kann. Aber ein Kunde, dem nicht oder nur sehr schlecht geholfen wird, ist möglicherweise nicht mehr lange Kunde. Dann werden die Unternehmen plötzlich wieder aktiv und setzen alle Hebel in Bewegung.

Unternehmen, denen die Kunden wirklich an Herzen liegen sollten, darauf achten, dass es für den Kunden nicht zu unnötigen Warteschlangen kommt. Wartezeit ist einfach verschwendete Lebenszeit.

Das Internet gefährdet die Macht Machthabender – Update

Das Internet ist doch was schönes. Mit ihm können Menschen kommunizieren, ganz unabhängig, wo sie sich gerade befinden. Das Internet bietet auch gewaltige Wissensschätze (neben einem Haufen Verschwörungsschrott), die Menschen in aller Welt nutzen können, um sich sich weiter zu bilden.

Aber manche Machthaber schätzen diese Freiheit nicht. Insbesondere wenn sie es sowieso nicht so sehr mit der Demokratie und der Freiheit der Bürger haben. Dann ist der informierte, aufgeklärte Bürger eine Gefahr, vor allem, wenn er sein Wissen mit Anderen teilen können.

Deswegen ist in manchen Ländern das Internet auch zensiert. Inhalte aus dem eigenen Land werden streng reglementiert und nach außen, zu anderen Ländern, gibt es Filter, die nur bestimmte Inhalte durchlassen. Das bekannteste Beispiel ist die “Great Firewall of China”

Aber auch in anderen Ländern wird die Freiheit der Bürger nicht so geachtet. So kam es im “Arabischen Frühling” in verschiedenen Ländern immer mal wieder zur Abschaltung des Internets durch die Behörden. Auch in Ländern wie Bangladesh oder Simbabwe kam es in jüngster Zeit immer mal wieder zu “Ausfällen”. Alles natürlich immer nur zum Schutze vor Ausschreitungen. Die sogenannte Reichstagsbrandverordnung diente ja auch nicht dazu ein Terrorregime zu installieren und Europa in den Abgrund zu stürzen, sondern “zur Abwehr kommunistischer staatsgefährdender Gewaltakte“.

Nun will Russland mal probieren, wie es so ohne Internet ist. Dazu sollen alle Verbindungen ins Ausland gekappt werden. Natürlich ist das auch nur ein Test, um im Ernstfall Angriffe aus dem Ausland abzuwehren. Schon klar. “Niemand hat die Absicht eine Mauer zu errichten.”

Mal sehen, wann die Freunde aus der Türkei oder Ungarn ähnliche Versuche starten. Denn auch hier gibt es berechtige Regimekritik staatszersetzende Auslandspropaganda.


Update 25.06.2019
Wieder ein Fall in der die Kommunikation eingeschränkt wird. Diesmal in Myannmar.

Neuer PC – Teil 1 – Die Hardware

Der PC ist nicht tot. Meiner war nur etwas alt. Nach neun Jahren und diversen Aufrüstaktionen und Reparaturen sollte mal ein neues Gerät her. Früher habe ich meine Geräte selbst zusammen geschraubt. Irgendwann wurde mir das aber zu viel, weil sich manche Komponenten einfach nicht vertrugen und vor allem wurde die Kühlung des Systems immer wichtiger und komplizierter. Also habe ich mir dann mal ein Komplettmodell von Dell gekauft. Zu dieser Zeit hatte man noch weitreichende Konfigurationsmöglichkeiten, etwa beim RAM, Massenspeicher oder Prozessor. Ich war ganz zufrieden mit dem Gerät und habe mich wieder bei dem Hersteller umgesehen. Aber statt Vielfalt gab es nur Eintönigkeit. Das Einzige wo man noch mehr Optionen hatte, war bei der Wahl der der zusätzlichen Garantie- und Versicherungspakete.

Als Abonnent der c’t habe ich schon im Vorjahr aufmerksam das alljährliche Selbstbauprojekt angesehen und gedacht, dass ich so einen Bauvorschlag nachbauen möchte. Ich habe schon Ende des Jahres ganz gespannt auf die Ankündigung der Artikelserie gewartet. Als es endlich soweit war, habe ich am bereits am Freitag online die entsprechenden Artikel gelesen. Ich entschied mich für den Ryzen-Allrounder, den ich allerdings wie folgt erweitert habe:

  • Ryzen 7 2700X statt Ryzen 5 2600
  • 32 GB RAM statt 16 GB
  • MSI GeForce GTX 1060 Gaming X 6G statt MSI GeForce GT 1030
  • 1 TB SSD statt 500 GB SSD
  • zusätzlich 3 TB Harddisk als Datenhalde (Altbestand)
  • zusätzlich DVD-Brenner/BluRay-Laufwerk (Altbestand)

Ich hätte gerne noch einen internen Kartenleser dazugenommen, fand aber keinen, so dass ich mir schließlich einen externen USB-Hub mit SD- und Micro-SD-Slots gekauft habe.

Bei der Bestellung habe ich den Online-Preisvergleich von Heise genutzt. Die entsprechenden Einzelartikel waren schon auf einer Einkaufliste zusammengestellt, so dass man relativ einfach die Preise vergleichen konnte. Auch schön fand ich eine Funktion, bei der man angibt, dass man nur bei einer bestimmten Anzahl von Händler bestellen möchte und nicht jede Komponente woanders.

Ich habe bei drei verschiedenen Shops bestellt. Die Bestellung ging noch am Freitag raus und nach etwa einer Woche sind alle Sachen angekommen. Im Forum habe ich gelesen, dass es bei manchen Teilen, wie etwa dem Lüfter, später zu Lieferengpässen kam. Frühes Bestellen ist also sinnvoll, zumal die Händler und Paketdienste in der Vorweihnachtszeit eh schon gut ausgelastet sind.

Vor dem Zusammenbau empfiehlt es sich, die komplette Artikelserie durch zu lesen, da manche Tipps nur in einem Nachbarartikel auftauchen. Eigentlich ging der Zusammenbau einfach, aber eine Sache war doch etwas schwieriger: der ATX-12-V-Stecker in der Ecke des Boardes. Hier hatte man wenig Spielraum, und es war recht eng. Aber am Ende hat es doch geklappt. Außerdem musste man zwischendurch noch ein- zweimal genauer hinsehen, um zu erkennen, wie man die Kabel am besten verschwinden lässt.

Vor Inbetriebnahme sollte man unbedingt auf die Internetseite des Projektes gehen. Nur dort sind die BIOS- und vor allem Lüftereinstellungen dokumentiert. Und die sind essentiell für ein leises Gerät.

Mit dem BIOS gab es dann auch noch ein paar Probleme. Es wurde generell empfohlen die aktuellste Version zu nutzen. Getestet wurde der Bauvorschlag mit der BIOS-Version F3. Zwischenzeitlich erschien aber die Version F4, die aber zu Problemen im Standby-Betrieb führte. Diese Version wurde dann schnell von Gigabyte zurück gezogen. Allerdings erschien das fehlerhafte Update genau in dem Zeitraum, in dem viele c’t-Leser ihren PC zusammengebaut haben.

Übrigens war ich von dem BIOS-Update selbst überrascht. Ich kenne noch Updates über Disketten von denen man ein DOS gestartet hat. Das war damals eigentlich schon eine völlig veraltete Methode. Dass man nun aus dem BIOS heraus das Update von einem USB-Stick laden kann, finde ich ziemlich komfortabel.

Wie es mit der Softwareinstallation weiter geht, beschreibe ich in einem folgenden Artikel.

2 Tipps zur Mobilen Datensicherheit

Viele Leute freuen sich, wenn sie Ihr mobiles Endgerät in der Öffentlichkeit aufladen und per WLAN nutzen können. Grundsätzlich sollte man gegenüber fremden Infrastrukturen misstrauisch sein. In öffentlichen WLANs können die Daten von Unbekannten mitgelesen werden und ein Gerät per USB anzuschließen kann unbegrenzten Zugriff Dritter auf dieses Gerät ermöglichen. Dazu reicht es schon, nur ein fremdes Kabel anzustöpseln

Dabei gibt es zwei einfache, aber wirkungsvolle Lösungen.

  • Das Laden sollte nie direkt über einen angebotenen USB-Port gehen. Man sollte sich einfach eine Powerbank zulegen, diese laden und dann damit den Handyakku speisen. Zur Sicherheit zeitversetzt, also nicht direkt, wenn die Powerbank geladen wird. Man kann nie sicher sein, ob Steuersignale nicht irgendwie durchgeschleift werden.
  • Öffentliche WLANs sollte man nur über ein VPN nutzen. Dabei baut man einen stark verschlüsselten Tunnel zwischen Mobiltelefon und einem bestimmten Endpunkt auf, durch die die gesamten Kommunikation läuft. Wird der WLAN-Traffic abgehört, kann niemand mit den Daten etwas anfangen. Viele Router bieten die Möglichkeit, sie als VPN-Endpunkt zu nutzen (Anleitung für Fritz-Boxen). Einen Dienst wie my-fritz, der in der Anleitung erwähnt wird kann, muß man aber nicht, nutzen. Eine Alternative wäre etwa ein anderer DYNDNS-Dienst oder die eigene Domain.

Ist der PC tot?

Die Umsätze der PC-Hersteller sinken und Viele fragen sich, ob der PC, in der jetzigen Form, tot ist?

Ich sehe das nicht so. Es gibt ihn und es wird ihn weiter geben. Er hat durchaus seine Berechtigung, verliert aber an Bedeutung.

Ende der Neunziger/Anfang der Nuller war wohl die Hochzeit des Desktop-Rechners. Die Technik wurde günstiger, leistungsfähiger, ausgereifter. Die Betriebssysteme wurden komfortabler und die Anwendungsmöglichkeiten wurden vielfältiger, gerade auch in Hinblick auf das Internet, welches immer mehr Leute nutzten.

Illegale Softwarekopien waren, wie schon in früheren Zeiten, an der Tagesordnung und ohne diese Verbreitung wären viele Computerplattformen niemals so erfolgreich geworden. Junge Leute kratzen sich das Geld für die Hardware zusammen und am Ende war kein Geld mehr für Software vorhanden.

Mein Einstieg in die PC-Welt begann 1992. Vorher besaß ich die üblichen Heim-Computer (VC-20, C64, Amiga 500). Ich kaufte mir für stolze 3000 DM einen fertigen Computer bei einem kleinen Keller-Händler, der mir von einem Bekannten empfohlen wurde. Die damaligen Elektroketten wie Schaulandt hatten noch richtig viele PCs im Angebot. Da mußte man eher zu Escom oder Vobis gehen.

Später wurde der Rechner immer wieder aufgerüstet, bis vom ursprünglichen Gerät nur noch das Netzteil und das Gehäuse übrig waren. Im Laufe der Jahre habe ich immer wieder am Gerät rumgeschraubt und Komponenten ausgetauscht oder erweitert. Zwischendurch gab es auch mal größere Umbauten, so dass auch tatsächlich mal das Gehäuse und das Netzteil erneuert wurden. Ich habe mir aber nie ein komplett neues Gerät, nicht als Ganzes und nicht aus Einzelteilen, zugelegt. Die Bastelei machte mir auch Spaß.

Irgendwann verlor ich jedoch die Lust am Selbstbauen. Ich sah auch, daß gerade die Kühlung ein großes Thema war, bei dem man viel falsch machen konnte und las von vielen Inkompatibilitäten unterschiedlicher Bauteile. Außerdem habe ich auf der Arbeit gesehen, was für tolle Gehäuse Markenhersteller mittlerweile anbieten. Also entschloss ich mich Ende 2009 für einen Kauf eines Komplettsystem der Marke Dell. Der Online-Shop bot damals noch umfangreiche Konfigurationsmöglichkeiten des Systems.

Der PC beinhaltete den gerade neuen Intel i7-870, eine 1,5 TB-Festplatte,  sowie das neu erschienene Windows 7. Das System nutze ich noch heute. Allerdings habe ich auch dieses erweitert. Relativ schnell habe ich den Speicher von 4 auf 12 GB erweitert und weitere Festplatten ergänzt. Die Grafikkarte wurde auch schon zweimal erneuert. Schäden gab es auch. Lüfter (Gehäuse und CPU) mussten gewechselt werden, ebenso das Netzteil und dann gab der DVD-Brenner den Geist auf (wahrscheinlich zerkratzte Linse). Einen letzten Schub hat der PC bekommen, als ich eine SSD einbaute, auf dem nun Windows und die Programme lagen. Der Prozessor ist nun schon 9 Jahre im Einsatz

Geplant ist ein kompletter Neukauf schon seit mehreren Jahren. Dieses Jahr soll es endlich so weit sein. (Dazu in einem anderen Artikel mehr). Aber man sieht daran, daß der Leidensdruck nicht sehr hoch war. Ansonsten hätte ich mir schon früher ein neues Gerät gekauft. Und so geht es sicherlich vielen PC-Nutzern.

Früher gab es immer irgendetwas, was man am PC nicht ordentlich machen konnte, da dieser nicht leistungsstark genug war. Zuerst war das Audiobearbeitung, dann Videobearbeitung, dann Videobearbeitung in HD und jetzt Videobearbeitung in 4K. Das geht alles. Einzig und allein Spiele fordern einen PC noch so richtig. Wobei dort in erster Linie auch die Grafikkarte gefragt ist. Ansonsten sind die Unterschiede zwischen dem was man mit älterem und einem neuen PC anfangen kann, nicht mehr so groß.

Für viele Leute ist ein PC mittlerweile auch verzichtbar, da sie viele Dinge, für die sie früher den Desktop-Rechner benutzten, heute auf den Taschencomputer aka Smartphone zurückgreifen. Auch Tabletts und Smart-TVs nehmen dem PC-Markt Konsumenten weg.

Aber alle, die sich etwas für Computer interessieren, werden mindestens einen PC oder Laptop als zentrales Arbeitsgerät besitzen. Wobei ich eindeutig den PC gegenüber dem Laptop bevorzuge. Allein wegen der besseren Bedienbarkeit, der Flexibilität beim Arbeiten und vor allem wegen der Möglichkeit zum Aufrüsten.

Auch im Büro wird der PC sicherlich noch lange die zentrale Büromaschine sein. Thin Clients werden immer mal wieder als Alternative erwähnt, doch in der Praxis zeigt sich oft, dass das nicht problemlos funktioniert.

Daher denke ich, dass der PC-Markt sicherlich nicht mehr die Bedeutung haben wird, wie zur Jahrtausendwende, aber ich vermute, dass sich das so etwa auf dem heutigen Niveau halten wird.