DIE Corona-App

“Gibt es dafür nicht auch ‘ne App?” war jahrelang immer die Frage, um alle möglichen Dienste zu nutzen. Heutzutage gibt es für fast alles eine App. Deswegen war klar, dass es auch Apps für Corona gibt. Etwa zu Erkennung von Symptomen in Verbindung mit etwa Fitnesstrackern. Aber vor allem sollen es entsprechende Apps ermöglichen, zu erkennen, ob man Kontakt zu einem Corona-Infizierten gehabt hat.

Natürlich ist das die Bundesregierung auf den Zug aufgesprungen und will eine offizielle Corona-Tracing-App herausbringen. Gerade in Deutschland ist man ja technikverliebt und in der Phantasie manche Politiker soll sich nahezu jedes Problem durch mehr oder wenig komplizierte Technik lösen lassen.Gerade mein “Freund” Christian Lindner ist wieder vorn dabei:

Keine App => Mittealter! Egal wir fortgeschritten unsere Medizin ist.

Ich kann die ganzen Nachrichten zu dem Thema nicht mehr hören, das ewige hin und her, zentrale oder dezentraler Ansatz, deutsche oder europäische Lösung, freiwillig, “freiwillig” oder Pflicht. “Frewillig” bedeutet, dass es zwar keine explizite Pflicht zur Nutzung der App gibt, es aber Zugang zu bestimmten Bereichen/Veranstaltungen nur unter Nachweis der Nutzung der App möglich sein soll. Hinzu kommt natürlich der soziale Druck aus dem Umfeld.

Auf jeden Fall steht zu Befürchten, dass die App bleiben wird. Überwachungstechniken wurden in Deutschland praktisch noch nie zurück genommen. Eher wurden sie verschärft und der Anwendungsbereich und Kreis der Zugriffsberechtigten stetig erweitert.

Auch technisch gibt es noch grundsätzliche Fragen. Es ist noch gar nicht klar, ob man die Entfernungsmessung mittels Bluetooth wirklich so hinbekommt, wie erhofft. Es sind etliche Szenarien skizziert worden, wo es Fehlalarme geben kann. Etwa wenn beide Menschen dicht zusammen sind, aber durch Barrieren (Plexiglasscheiben, Folienvorhänge, etc.) getrennt sind.

Aber ich stelle den Sinn der App noch viel früher in Frage: Welche Kontakte sollen überhaupt überwacht werden? Es geht immer um Kontakte unterhalb von 2 Meter Distanz und einer Dauer von mehr als 15 Minuten. In welcher Situation soll so etwas vorkommen? Mir fällt einzig der ÖPNV ein. Überall sonst gibt es ja Beschränkungen. Auch vor den Corona-Maßnahmen fallen mir nur wenige Beispiele ein, wo eine solche App erfolgreich wäre. Etwa im Wartebereich bei Ärzten. Aber dort wird ja mittlerweile auch auf Abstand geachtet. Und Großveranstaltungen sollten doch sowieso zur Sicherheit erst einmal ausgesetzt werden.

Und dann gibt es ja nicht nur die eine “offizielle” Corona-App, sondern bereits eine Handvoll; teilweise mit unterschiedlichen Zielsetzungen. Und dann ist ja noch die Frage, wie viele Nutzer diese App nutzen werden. Dabei geht es nicht darum, ob es verpflichtend, “freiwillig” oder tatsächlich freiwillig ist. So muss erstens das Gerätemodell unterstützt werden. So wie es sich anhörte, müssen die Messwerte für jedes Modell erst kalibriert werden. Ansonsten kann man die Entfernungsmessung vergessen. Dann muß die App nicht nur Plattform übergreifend sein; und ja es gibt mehr als Android und Apple und die App muss auch runterladbar sein; Manche benutzen aus Sicherheitsgründen die offiziellen App-Stores nicht. Außerdem muß man das Gerät mit sich führen angeschaltet haben und Bluetooth aktiviert haben. Nur wenn ALLE Punkte erfüllt sind, kann die App ihre Aufgabe erfüllen. Ich bezweifle aber, dass ein großer Teil die App nicht nutzen wird, das durch das Hin und Her im Vorfeld schon viel Vertrauen verspielt wurde. Außerdem kennt man ja die Geschichte von Deutschen Überwachungsmaßnahmen, und nichts anderes ist die App. Solche Instrumente wecken Begehrlichkeiten auf Seiten von Sicherheitsbehörden und sogenannten Polizei”gewerkschaften” und meistens folgen die Politiker dieses Rufen.

Aber es besteht ja die Hoffnung dass das ganze Projekt mit der “offiziellen” App eh nichts wird. SAP und Telekom haben sich der Sache angenommen. Also werden die Kosten wohl explodieren und der Zeitplan, wie bei anderen Großprojekten, bis in die Unendlichkeit gestreckt.

Ich wurde gehackt – Ein Erfahrungsbericht

Letztes Wochenende bekam ich eine E-Mail, die mir zunächst dubios vorkam; eine abuse-Meldung eines anderen Providers. Also eine Beschwerdemail, dass von meinem Server aus Aktivitäten erfolgen, die die Sicherheit oder die Funktionsfähigkeit der Server des anderen Providers oder dessen Kunden beeinträchtigen können. Ich sah mir die Mail noch mal genau an und stellte fest, dass es sich bei der erwähnten IP-Adresse tatsächlich um die meines Servers handelt. Ich wurde unruhig und loggte mich auf dem Server ein und sah, dass sowohl die Prozessoren als auch das Netzwerk komplett ausgelastet waren. Irgendetwas stimmte also tatsächlich nicht.

Ein kurzer Blick mit htop, zeigte mir die Ursache. Etliche Prozesse liefen mit Vollast. und feuerten wohl fleißigauf diverse Ziele im Internet. Erste Maßnahme: Netzwerk mit if-down eth0 deaktivieren. Dann komme ich zwar selbst nicht mehr mit SSH rauf, aber ich kann über die Konsole des Providers meinen Server erreichen.

Die ganzen Prozesse liefen unter einem einzigen Benutzeraccount. Dieser Account hat zum Glück nur einfache Rechte. Aber er konnte im /tmp-Verzeichnis seine Scripte platzieren.

Dann ging die Ursachenforschung los. In den Log-Dateien konnte ich tatsächlich feststellen, dass mit Brute-Force (also massiven Ausprobieren) mit unterschiedlichen Nutzernamen und Passwörter versucht wurde, per SSH in das System einzudringen.Zwischen 3 und 4 Uhr hat es dann geklappt. Der Angreifer war auf meinem Server. Ich kann nicht genau feststellen, wann was passiert ist, aber auffällig war, das die Scripte nicht dauerhaft liefen. Es gab ein paar Stunden Pause. Vielleicht hat sich in der Zwischenzeit ja tatsächlich der Hacker mal persönlich umgeschaut, was er so mit dem Server anstellen kann. Ich weiß also nicht, was manuell passierte und was durch Scripte.

Er hat einen Cronjob erstellt, der beim Reboot und zu bestimmten Zeiten unterschiedliche Aktivitäten ausgelöst wurden. So wurde etwasder Schadcode jedes Mal von einem fremden Server neu geladen, auch wenn das /tmp-Verzeichnis geleert wurde. Im User-Verzeichnis fanden sich ein paar neue Verzeichnisse die die kleinen Skripte enthielten. Insgesamt waren das nur ein paar Megabyte. Dann habe ich noch festgestellt, dass sich der Angreifer einen SSH-Key erstellt hat, um damit auf den Server zu kommen. Ein einfache Ändern des Passwortes hätte nicht ausgereicht, er wäre durch den Schlüssel auch dann wieder rein gekommen.

Deshalb habe ich nicht nur alle Passwörter geändert, sondern auch die SSH-Keys gelöscht, bzw. meine eigenen neu erstellt.

Nach einer kurze Analyse kam ich zu dem Schluss, dass sich der Angreifer nur im Umfeld des Benutzeraccounts aufgehalten hat und keine erweiterten Rechte erlangen konnte. Auslesen konnte er dann mangels Rechte auch keine anderen sensiblen Daten.

Aber wie konnte es überhaupt dazu kommen? Ich hatte einen Benutzer für interne Zwecke erstellt. Leider habe ich diesem nur ein schwache Passwort gegeben. Wenn SSH aktiviert ist und nicht entsprechend konfiguriert ist, erhält dann jeder Benutzer die Möglichkeit per SSH anzumelden. Das war mir nicht bewusst. Nun habe ich in der /etc/ssh/sshd_conf einfach mit dem Schlüssel AllowUsers die Benutzer angegeben, die auch tatsächlich diesen Zugang haben sollen.

Ich hatte fail2ban zwar installiert, welches eigentlich solche Brute-Force-Angriffe abwehren sollte, aber irgendwie funktionierte es nicht. Ich vermute, dass ich mir bei einem Debian-Update wohl die Konfig zerschossen wurde. Ich werde jetzt in Zukunft ein Auge darauf haben.

Zusätzlich habe ich den Port des SSH-Dienstes verstellt. Ich weiß das ist kein Sicherheitskonzept, aber zumindest erschwert es den unbefugten Zugang.

Der Server scheint jetzt wieder sauber zu sein und läuft seit mehreren Tagen unauffällig.

Ich frage mich allerdings, was gewesen wäre, wenn das nicht gerade am Wochenende passiert wäre, als ich zu Hause war und Zeit hatte, mich darum zu kümmern. Irgendwann hätte der Provider den Server abgeschaltet und ich hätte dort wahrscheinlich so schnell keinen neuen Server bekommen.

“speichern unter”-Dialoge

Gaaaanz früher musste jedes Programm seine eigene Bedienoberfläche basteln. Mit Einzug grafischer Benutzeroberflächen wurde das einfacher. Man musste einfach nur auf entsprechende Elemente des Betriebssystems zurückgreifen. Also konnte man einfach auf vorgegebene Dialoge etwa zum Speichern zurückgreifen. Vorteil für den Programmierer: weniger Aufwand, Vorteil für den Benutzer: bekannte Bedienelemente. Ab Windows 95 konnte man das komplette Aussehen der Benutzeroberfläche nach Belieben verändern, Farben, Schriften, Größe usw. Und das Tolle: Das galt für alle Programme. Nun ja, zumindest für die Programme, die die Standard-Fenster-Dialoge nutzten.

Gerade Programmierer von Multimedia-Software wollten sich hier oft von anderen abheben. Die designten ihre eigenen Menüs und Buttons. Mit dem Nachteil, dass diese für die Benutzer unbekannt waren und nicht nach den Benutzereinstellungen automatisch angepasst wurden. Eigentlich gab es von Microsoft sogar Design-Richtlinien, wie eine Programmoberfläche gestaltet werden soll. Aber daran hat sich auch Microsoft bei manchen Office-Paketen nicht gehalten.

Nun kommt aber eine weitere unangenehme Neuentwicklung hin zu. Zunächst ist es mir nur beim Adobe Reader aufgefallen, jetzt aber auch beim MS-Office-Paket. Wir habe im Büro vor kurzem auf MS Office 2016 aktualisiert. Und wenn man dort eine Datei speichern möchte, kommt nicht der normale “Speicher-unter-Dialog”, sondern eine Auswahl einiger zuletzt benutzter Dateiordner. Erst wenn auf “Durchsuchen” klickt, kommt das normale Auswahl-Fenster. Ich arbeite mit vielen verschiedenen Datei in vielen verschiedenen Verzeichnisssen; für mich bedeutet es ein Dialog und ein Klick mehr, bis ich am Ziel bin. – Blöde Entwicklung!

Noch ein Gedanke zum Datenschutz

Mir ist noch etwas zum Thema Datenschutz eingefallen. Über die Datenschutzgrundverordnung (DSGVO) wurde und wird ja viel gemeckert. Viele Bürger verstehen aber zum einen nicht, dass Datenschutz auch sie betrifft und wichtig ist, wie jedes Grundrecht. Und zum anderen verstehen viele Unternehmen nicht, wie Datenschutz umgesetzt wird.

Eigentlich liegt das Problem in den Versäumnissen in der Vergangenheit. Die Bürger sind viel zu leichtsinnig mit ihren Daten umgegangen (“Ich habe ja nichts zu verbergen”), weil Ihnen einfach nicht bewusst ist, was legal und illegal mit den Datensammlungen passieren kann.

Und vor allem haben die meisten Unternehmen in der Vergangenheit den Datenschutz sträflich vernachlässigt. Wichtig war vor allem, dass die Funktionalität des EDV-Systems gegeben war. Sicherheit war zwetirangig. Bei der EDV-Sicherheit ging es in erster Linie um Backups und vielleicht Berechtigungen, dass nicht jeder Mitarbeiter alles darf. Aber explizit geschützt wurden die Daten nicht.

Dann kam irgendwann das Internet und alles musste online sein. Dann wurden dieses Systeme halt irgendwie direkt oder indirekt mit dem Internet verbunden. Das Sicherheitskonzept wurde aber nicht entsprechend angepasst. Manche Betriebe kaufen dann eine Hardware-Firewall und wähnten sich in Sicherheit. Dass diese Firewall nur so viel nützt wie benutzten Filterregeln und dass auch dieses Gerät Wartung braucht, wussten die wenigsten.

Und nun steht der Datenschutz im Vordergrund und plötzlich müssen sich alle fragen, ob bestimmte Daten überhaupt noch erfasst werden müssen oder dürfen und müssen sich um Aufbewahrungs- und Löschfristen Gedanken machen. Solche Überlegungen wären schon früher sinnvoll gewesen.

Für viele kleinere Betriebe ist das ganze Thema EDV einfach zu komplex. Das ist nicht deren Kompetenz; deswegen beauftragen sie Dienstleister. Auch diese sollte man sich aber verlassen können. Leider gibt es in dem Bereich auch viele kleine Anbieter, die nicht das notwendige Fachwissen haben. Und im Zweifel haftet ja sowieso der Unternehmer selbst und nicht die beauftragten Dienstleister.

Krankenkassen-App

Ich schaue ja schon seit vielen Jahren praktisch keine TV-Werbung mehr. Seit über 12 Jahren nehme ich mir Sendungen, die mich interessieren, eigentlich nur noch auf. Live-TV gibt es nur sehr selten, etwa bei Nachrichten. Das hat unter anderem den Vorteil, dass man die Sendungen nicht zu jeder gewünschten Zeit sehen kann, sondern auch in viel kürzerer Zeit; besonders bei Aufnahmen von den Privatsendern. Da kann man super die Werbung überspringen.

Zum Ende des Werbeblocks kommt dann meist noch ein Spot, der in einen Rahmen mit einem Countdown eingebettet ist. Dieser soll wohl suggerieren, dass die eigentliche Sendung bei Null weitergeht. doch oft kommen dann noch 1-2 Spots. Und dabei ist es passiert, dass ich die Werbung einer Krankenkasse gesehen habe. Dabei ging es nicht um die Leistungen der Kasse, sondern darum, dass sie eine App haben, mit der man alles im Zusammenhang mit der Krankenkasse erledigen kann. Ich frage mich ernsthaft, was das sein soll. Wann trete ich schon mal in direkten Kontakt mit meiner Krankenkasse? Und warum sollte ich dafür auch noch eine eigene App installieren?

Diese Apperitis ist sowieso ein Problem. Für jeden Kram, den man sich auf einer Webseite ansehen kann, gibt es auch eine eigene App. Wozu? Ich habe eine Universal-App; nennt sich Browser. Tolle Erfindung, oder? Vor allem braucht diese nicht zig Berechtigungen, wie mittlerweile fast jede App. Schließlich will man ja am neuen Ölrausch teilhaben und die Nutzer ausspionieren. Aber man muss ja keine Sorge haben, schließlich kommen diese Apps ja alle aus den Appstores von Google und Apple. Nur die Apps aus anderen Quellen, wie etwa dem quelloffenen FDroid-Store sind natürlich gefährlich.

Wer mal wissen will, wir schlampig tatsächlich so manche Gesndundheitsapps mit den sensiblen Daten umgehen, kann das hier mal bei Heise lesen oder wir erinnern uns an Vivy. Ansonsten finden sich direkt im Microblog von Mike Kuketz noch mehr Beispiele. Und das sind nur Fälle, in denen man das leicht nachweisen kann. Was hinterher mit den Daten passiert und wo die überall landen, Datenschutzerklärungen hin oder her, ist völlig unklar. Zumal es auch immer mal wieder Hackerangriffe gab, die sehr sensible Daten öffentlich gemacht haben.

Der beste Datenschutz ist halt, die Vermeidung von Daten. Ansonsten die Beschränkung auf die absolut notwendigsten Daten und Empfänger.

Und noch ein Tipp an die Anbieter: Ist das Vertrauen erst einmal verspielt, ist es schwierig es wieder zu bekommen.

duschmarke.de nutzt Embetty

Im Zuge der DSGVO-Einführung wurde mir klar, dass es nicht in Ordnung ist, Inhalte Dritter direkt in meinen Blog einzubauen. Dabei werden nämlich Daten des Nutzers nicht nur an meinen Server, sondern auch an den Anbieter der eingebetteten Inhalte übertragen. Deswegen habe ich alle externen Inhalte durch Links auf die entsprechenden Seiten ersetzt. Allerdings verliert der Beitrag dadurch an Wirkung, wenn etwa ein Vorschaubild fehlt.

Natürlich könnte man Screenshots erstellen und diese integrieren. Das ist urheberrechtlich aber nicht in Ordnung.

Heise bietet seit einem Jahr die Software Embetty an. Diese löst genau dieses Problem. Embetty bindet Texte ein und zeigt Vorschauen an, um dass eine direkte Verbindung zwischen Leser und externen Anbieter hergestellt wird. Dieses Verhalten ist datensparsam. Erst beim Anklicken eines Inhaltes wird eine direkte Verbindung aufgebaut.

Rein technisch funktioniert das so: Embetty besteht aus zwei Teilen, einem Server-Teil und einem Javascript, welches in die eigene Website eingebaut wird. Der Server-Teil ist ein Proxy-Server. Er lädt die Inhalte vom Anbieter und stellt sie zur Verfügung. Der Javascript-Teil ruft die Inhalte nun vom Proxy-Server ab, statt direkt vom Anbieter. Deswegen, sieht es zunächst immer nur so aus, also ob mein Server die Inhalte abfragt.

Ein Beispiel:

(direkter Link zu Youtube)
Hinweis: beim Anklicken des Videos oder des Links wird eine Verbindung zu Youtube aufgebaut

Beim bloßen Aufruf dieser Seite, werden keine Daten vom Nutzer zu Youtube übertragen. Das Vorschaubild wird von meiner Server bei Youtube angefragt und an den Leser weitergeleitet. Erst beim Klicken auf das Bild, wird das Video gestartet, welches dann direkt von Youtube kommt. Alternativ stelle ich auch einen direkten Link zur Verfügung.

Chrome schränkt Werbeblocker ein

Google will Techniken unterbinden, die aktuelle Werbeblocker-Plugins nutzen. Offiziell um die Browserleistung zu verbessern. Ist natürlich quatsch. Natürlich geht es um das eigene Geschäftsmodell. Schon irgendwie doof einen Browser von einem Werbekonzern zu nutzen. “Don’t be evil” war einmal. Heutzutage müssen die Geschäftszahlen stimmen.

Ich bin schon langjähriger Firefox-Nutzer und weiß auch warum. Mozilla hat sich zwar auch schon den einen oder anderen Fehltritt erlaubt, aber immerhin hat man noch das Gefühl, dass die eigentliche Funktionalität im Vordergrund steht.

Als Nutzer von Firefox muß man sich aber an Kummer und schwere Zeiten gewöhnen. Etwa als vor 1,5 Jahren Firefox 57 (Quantum) rauskam und 3/4 aller installierten Plugins nicht mehr funktionierten, da man, mal wieder, die entsprechende Schnittstelle überarbeitet hat.

Oder vor wenigen Wochen, als Mozilla es verkackt hat, ein Zertifikat zu verlängern. Das hatte zur Folge, dass mal eben sämtliche Addons deaktiviert waren. Es hat mehrere Tage gedauert, bis der Fehler behoben war. So einen Fehler erwartet man vielleicht bei einem kleinen Software-Krauter, aber nicht bei Größen wie Mozilla. Das ist wirklich unprofessionell.

Aber trotzdem halte ich Firefox die Treue. Google Chrome hat sich ja nun völlig disqualifiziert. Ich weiß nicht wie es um die OS-Varianten bestellt ist.

Backup-Restore

Ich habe zu Hause einen kleinen Heimserver auf dem in erster Linie tvheadend, Nextcloud, und mediawiki laufen. Irgendwann zeigten sich einige Dateifehler und beim Auslesen der SMART-Werte wurde klar, dass die Platte schleunigst getauscht werden musste. Da das System ja noch funktioniert, dachte ich es wäre einfach die Platte mittels dd zu klonen. Das Klonen selbst funktionierte ganz gut, nur war der neue Klon nicht lauffähig. Da die Plattengröße ETWAS anders war versuchte ich die Partitionen anzupassen, in dem ich einfach die Swap-Partition am Ende der Platte neu erstellte. Doch leider ohne Erfolg. Auch mit grub mit habe ich mich rungeschlagen. Das seind alles keine Themen, bei deene ich mich sonderlich gut auskenne. Ich habe da ein ganzes Wochenende daran rumgedoktort; vergebens.

Am Ende entschloss ich mich für eine Neuinstallation. Wäre meine Internetverbindung besser, als die maximal 2,3 MBit die die Telekom hier schafft, ginge so eine Installation auch viel schneller.

Nachdem ich das Grundsystem aufgesetzt habe, installierte ich noch die fehlenden Pakete nach. Ich nutze schon seit mehreren Jahren Borg zum Backup meiner Daten. Das ist wirklich sehr komfortabel, schnell und platzsparend. Auch unter meinem alten Windows-System habe ich das genutzt. Das war irgendwie eine ganze cygwin-Umgebung, die man am besten gar nicht angerührt hat. Ziel ist meistens ein NAS.

Ich benutze ein eigenes Wiki, in dem ich etwa Notizen zur Softwareinstallation speichere. Leider ist es doof, wenn das Wiki nicht funktioniert, weil man es wegen der fehlenden Notizen im Wiki noch nicht installieren konnte.

Außerdem habe ich festgestellt, dass ich ein wichtiges Verzeichnis gar nicht in der Datensicherung drin hatte. Zum Glück war ja noch die alte Platte lauffähig, von der ich dann die Daten zurückgeholt habe.

Diesmal habe ich auch aufgepasst und nicht einfach /etc/fstab aus dem Backup genommen habe. Dafür habe ich /etc/passwd und /etc/group überschrieben. Leider gab es da ein paar Unverträglichkeiten, da einige Nutzer nun plötzlich andere IDs hatten, und die Berechtigungen für die Verzeichnissse nicht mehr stimmten. Das bedurfte noch ein wenig Nacharbeit.

Im Großen und Ganzen hat es aber gut geklappt und war viel entspannter als die Frickelei mit der geklonten Festplatte.

Ein paar Wochen später gab es hier einen kleinen Stromausfall. Der Server wollte nicht mehr starten. Da er normalerweise headless betrieben wird, musste ich erst einmal Monitor und Tastatur anschliessen, um zu sehen, was los war. “Defektes Dateisystem”. War ja auch klar, wenn einfach so dem Server der Saft ausgeht. Ich weiß nicht wie lange ich gebraucht habe, bis ich ein brauchbares Boot-Medium hatte, von dem ich fsck ausführen konnte. Zuerst habe ich desinfec’t ausprobiert. Doch dort war die fsck-Version hoffnungslos veraltet und kam nicht mit meiner ext4-Partition klar. Ähnliches bei meinem alten Parted-Magic. Ich weiß nicht mehr was ich noch alles ausprobiert habe und was am Ende geholfen hat, aber irgendwie ist fsck einmal kurz drübergelaufen und hat alles repariert. Danach startete die Platte wieder ohne Probleme.

Aber da sieht man wieder: eigentlich ist Lösung soooo einfach, aber in der Praxis dann doch schwierig.

Neuer PC – Teil 2 – Die Software

Im ersten Teil schrieb ich ja bereits über die Planung, den Kauf und den Zusammenbau der Komponenten. Jetzt möchte ich kurz etwas über die Software schreiben.

Bisher habe ich stets Windows auf meinen PCs genutzt. Angefangen von Windows 3.1 über 95 und 98SE, dann über 2000 auf XP und schließlich auf Windows 7. Das Kachelexperiment von Windows 8 hat mich überhaupt nicht überzeugt. Windows kann mich nun gar nicht mehr begeistern. Der Zwang halbjährlich die großen Upgrades durchzuführen und dass man wenig Einfluss darauf hat, ist der erste Grund. Zweiter Grund ist die Tatsache dass Microsoft bei den Upgrades so viel verbockt hat, dass man die Software eigentlich gar nicht im produktiven Einsatz nutzen sollte.

Dann ist natürlich noch die Datenschutzproblematik. Was haben wir uns damals (bei Windows XP) aufgeregt, als eine eindeutige Hardwarekennung nach Redmond geschickt wurde. Heutzutage werden allen möglich Daten über die Benutzung an die Microsoft-Server übermittelt. Man kann dieses Verhalten meistens irgendwo deaktivieren, doch oft sind dieses Einstellungen nach dem Halbjahres-Upgrade wieder futsch.

Überhaupt ist das Verhalten von Microsoft gegenüber Windows-7-Nutzer unredlich. In den Jahren 2015 und 2016 hat man ja den Nutzern das Angebot unterbreitet kostenlos, auf Windows 10 umzusteigen. Viele Nutzer, wie auch ich, fühlten sich von den ständigen Hinweisen genervt. Im Internet kursieren etliche Tipps, wie man diese Störungen unterbinden kann, doch meistens kamen sie mit einem “Sicherheitsupdate” zurück. Zum Schluß gab es sogar verwirrende Menüs, die sicherlich dem einen oder anderen Nutzer gegen ihren Willen Windows 10 aufs Auge gedrückt haben.

Dieser Spuk ist endlich vorbei, aber trotzdem versucht, Microsoft weiterhin den Anwendern Windows 7 zu verleiden. So gibt es etwa einen Dienst, der ständig läuft, und die Festplatte nach Software untersucht und überprüft ob diese auch mit Win 10 kompatibel ist. Dass darunter massiv die Performance leidet, kommt Microsoft nur entgegen.

Also Windows kam nicht in mehr Frage. Da ich größtenteils schon viel mit Open-Source-Software gearbeitet habe und Linux bereits in einer Parallelinstallation lief. war klar, dass nun auch Linux das Hauptbetriebssystem werden sollte. Ich hatte in den letzten Jahren schon einiges an Erfahrung bei Linux-Systemen sammeln können, vor allem bei meinen Heim-Server, Raspis und gemietenden V-Servern.

War nur noch die Frage, welche Distribution. Vom hiesigen OSM-Stammtisch kannte ich schon Linux Mint, welches andere OSMler bereits nutzen. Ich habe es auf meinem alten Rechner parallel zu Windows installiert und immer mal wieder damit gearbeitet und für gut befunden. Zu dem favorisierte ich ein System, dass auf Debian oder Ubuntu aufsetzt, da ich mit diesen Distributionen schon gute Erfahrungen sammeln konnte und auch das Angebot an Softwarepaketen am größten scheint.

Meine Frau war von der Vorstellung Linux zu nutzen zuerst nicht so angetan. Sie hatte vor vielen Jahren wohl mal schlechte Erfahrungen gemacht. Ich glaube aber, die neueste Windows-Variante wäre eine größere Umstellung gewesen, als Linux Mint.

Passenderweise kam auch genau zu der Zeit, als der Rechner zusammengebaut war, die neue Mint-Version 19.1 (Tessa) heraus. Ich entschied mich für die “Geschmacksrichtung” Cinnamon. Die Installation klappte problemlos. Nervig ist halt nur das ewige Nachladen aus dem Internet, wenn man einen lahme DSL-Anschluss hat. Das war auch beim Installieren der Anwendungen zu spüren.

Wenn man von den Downloadzeiten mal absieht, ging alles einfach und schnell. Ich wusste ja größtenteils schon vorher welche Programme ich nutzen möchte. Auch die Konfiguration war zügig erledigt. Dann wurden noch meine Nutzer-Daten (Fotos, Musik, Filme, etc.) vom alten Rechner auf den neuen kopiert und schon war das neue System einsetzbar.

Was jetzt noch weggefallen ist, ist der unter Windows obligatorische Virenscanner. Ich hatte jahrelang Kaspersky im Einsatz, der aber hin und wieder für Probleme sorgte. Am Ende hat ich nur noch den Windows Defender im Einsatz. Eigentlich wollte ich ganz auf eine Antivirensoftware verzichten, da sie mehr geschadet (nicht nur im Geldbeutel) als genutzt hat, aber Microsoft hat ja eine “Pflicht” zur Benutzung eingeführt, denn ansonsten bekäme man keine Updates für Windows mehr.

Eigentlich wollte ich noch Windows 7 als zweites, zusätzliches Betriebssystem installieren, doch das war nicht nötig. Meine Steuersoftware habe ich sowieso immer in einer VM. Da bin ich ein wenig paranoid. Ich vertraue keiner Software vom Staat, wenn der Staat gleichzeitig die rechtlichen Mittel hat, seine Bürger auszuspionieren.

Windows wollte ich eigentlich noch als Spieleplatform nutzen, doch das musste ich nicht. Warum das so ist, beschreibe ich im dritten Teil.

Warteschlangen

Im Grunde genommen finde ich Warteschlangen interessant; besonders in der Technik. Wenn man sieht wie bestehende Aufträge, etwa verschiedene parallele Downloads abgearbeitet werden, neue dazu kommen, höher priorisierte sich nach vorne schieben, neue Aufträge hinzukommen und irgendwann die Schlange leer ist, ist das für mich doch ein wenig spannend.

Meistens ist man jedoch selbst Teil einer Warteschlange und hat oft keinen Überblick über die Gesamtsituation. Aber man merkt, wenn man warten muss und warten ist doof. Klar kann es überall man Engpässe geben, aber manchmal scheint hinter den Warteschlangen ein System zu stehen.

Etwa bei Ärzten. Bei der Terminvergabe geht es schon los. Bei bestimmten Fachärzten (etwa Augenarzt, Hautarzt) bekommt man als Normalsterblicher erst einen Termin erst in mehreren Monaten. Als Mitglied einer privaten Krankenkasse geht es oft viel schneller. Warum ist so etwas überhaupt zulässig? Hier wird doch ganz klar die Aussage getroffen, dass es Patienten erster und zweiter Klasse gibt. Ich bin der Meinung, dass diese Praxis verboten werden und entsprechenden Ärzten die Kassenzulassung entzogen werden sollte.

Eigentlich ist eine dauerhafte Warteschlange ein Zeichen dafür, dass ein System überfordert ist. Das könnte bei den Arztterminen so sein, aber warum bekommt der Privatpatient dann einen früheren Termin?

Hat man endlich den lang ersehnten Termin und ist nichts dazwischen gekommen, erlebt man in der Arztpraxis nun die nächste Warteschlange. Es ist erstaunlich, wie unterschiedlich das in verschiedenen Praxen abläuft. Bei manchen Ärzten muss man trotz Termin und früher Uhrzeit lang warten. Warum? Kriegen die das nicht besser organisiert oder ist das gewollt? Vielleicht denken die ja, dass es ein tolles Zeichen ist, wenn der Patient so lange warten muss. Schließlich scheint der Arzt ja sehr begehrt zu sein. Oder wollen sie den gemeinen Kassenpatienten lieber vergraulen?

Ich kenne aber auch andere Ärzte, wo es wirklich flott geht. Da kann man sich auf einen Termin verlassen. Ich komme da auch erst kurz vorher und spätestens 5 Minuten nach der vereinbarten Zeit bin ich dran. Warum klappt es da und woanders nicht? Ich glaube auch nicht, dass es an mangelnden Fähigkeiten der Arzthelferinnen bei der Terminplanung liegt, sondern, dass es so vom Arzt vorgegeben ist.

Da fällt mir eine besondere Form der Patientenvergraulung mittels Wartezeit ein. In einer Gemeinschaftspraxis gab es nicht nur das normale Wartezimmer in der man mindestens 30 Minuten rumsitzt, sondern den Flur runter gab noch einen Glaskabuff, in dem sich ein weiterer Wartebereich befand. Dort wurde man hingeschickt und durfte wieder warten, bis eine Mitarbeiterin einen in das Behandlungszimmer begleitet hat. Dort traf man aber nicht auf den Arzt, sondern musste vielleicht noch mal 30 Minuten warten. Was soll der Scheiß?

Den Vogel abgeschossen hat aber mein ehemaliger Hausarzt. Ich brauchte eine ärztliche Bescheinigung. Termine vergab der Arzt nicht, ich solle einfach zu Beginn der Sprechstunde kommen. Die Sprechstunde sollte um 16 Uhr anfangen und ich war etwa so um 15.40 in der Praxis. Das Wartezimmer war bereits voll und ich kam erst nach fünf (!) Stunden, um 21 Uhr, dran. Um 21:05 bin ich raus, mit dem Hinweis, dass ich morgen früh noch mal zum Blut abnehmen kommen soll.

Wo es auch regelmäßig zu Warteschlangen kommt, sind Telefonhotlines. Hier kann ich mir gut vorstellen, dass es auch eine Masche ist, den Kunden so lange hängen lässt, bis er aufgibt. Das ganze gepaart mit einer unzureichenden Kalkulation von Servicemitarbeiterstellen.

Eine gute Servicehotline ist ausreichend mit Mitarbeitern besetzt, damit es nicht zu langen Wartezeiten kommt, hat keine nervenden und fehlerhaften Sprachmenüs, die den Kunden wütend machen, hat keine nervende Dudelmusik, die einen nach spätestens 20 Minuten Amok laufen lässt und vor allem darf eine Warteschleife mich nicht die ganze Zeit anlügen “Der nächste freie Platz ist für sie reserviert.”

Klar kostet jeder Kundenkontakt Geld und ein Telefonmitarbeiter kann nur einen Anruf gleichzeitig bearbeiten, während der Online-Kollege in der gleichen Zeit zig E-Mails mit zusammen geklickten und oft falschen Texten beantworten kann. Aber ein Kunde, dem nicht oder nur sehr schlecht geholfen wird, ist möglicherweise nicht mehr lange Kunde. Dann werden die Unternehmen plötzlich wieder aktiv und setzen alle Hebel in Bewegung.

Unternehmen, denen die Kunden wirklich an Herzen liegen sollten, darauf achten, dass es für den Kunden nicht zu unnötigen Warteschlangen kommt. Wartezeit ist einfach verschwendete Lebenszeit.