2 Tipps zur Mobilen Datensicherheit

Viele Leute freuen sich, wenn sie Ihr mobiles Endgerät in der Öffentlichkeit aufladen und per WLAN nutzen können. Grundsätzlich sollte man gegenüber fremden Infrastrukturen misstrauisch sein. In öffentlichen WLANs können die Daten von Unbekannten mitgelesen werden und ein Gerät per USB anzuschließen kann unbegrenzten Zugriff Dritter auf dieses Gerät ermöglichen. Dazu reicht es schon, nur ein fremdes Kabel anzustöpseln

Dabei gibt es zwei einfache, aber wirkungsvolle Lösungen.

  • Das Laden sollte nie direkt über einen angebotenen USB-Port gehen. Man sollte sich einfach eine Powerbank zulegen, diese laden und dann damit den Handyakku speisen. Zur Sicherheit zeitversetzt, also nicht direkt, wenn die Powerbank geladen wird. Man kann nie sicher sein, ob Steuersignale nicht irgendwie durchgeschleift werden.
  • Öffentliche WLANs sollte man nur über ein VPN nutzen. Dabei baut man einen stark verschlüsselten Tunnel zwischen Mobiltelefon und einem bestimmten Endpunkt auf, durch die die gesamten Kommunikation läuft. Wird der WLAN-Traffic abgehört, kann niemand mit den Daten etwas anfangen. Viele Router bieten die Möglichkeit, sie als VPN-Endpunkt zu nutzen (Anleitung für Fritz-Boxen). Einen Dienst wie my-fritz, der in der Anleitung erwähnt wird kann, muß man aber nicht, nutzen. Eine Alternative wäre etwa ein anderer DYNDNS-Dienst oder die eigene Domain.

Ist der PC tot?

Die Umsätze der PC-Hersteller sinken und Viele fragen sich, ob der PC, in der jetzigen Form, tot ist?

Ich sehe das nicht so. Es gibt ihn und es wird ihn weiter geben. Er hat durchaus seine Berechtigung, verliert aber an Bedeutung.

Ende der Neunziger/Anfang der Nuller war wohl die Hochzeit des Desktop-Rechners. Die Technik wurde günstiger, leistungsfähiger, ausgereifter. Die Betriebssysteme wurden komfortabler und die Anwendungsmöglichkeiten wurden vielfältiger, gerade auch in Hinblick auf das Internet, welches immer mehr Leute nutzten.

Illegale Softwarekopien waren, wie schon in früheren Zeiten, an der Tagesordnung und ohne diese Verbreitung wären viele Computerplattformen niemals so erfolgreich geworden. Junge Leute kratzen sich das Geld für die Hardware zusammen und am Ende war kein Geld mehr für Software vorhanden.

Mein Einstieg in die PC-Welt begann 1992. Vorher besaß ich die üblichen Heim-Computer (VC-20, C64, Amiga 500). Ich kaufte mir für stolze 3000 DM einen fertigen Computer bei einem kleinen Keller-Händler, der mir von einem Bekannten empfohlen wurde. Die damaligen Elektroketten wie Schaulandt hatten noch richtig viele PCs im Angebot. Da mußte man eher zu Escom oder Vobis gehen.

Später wurde der Rechner immer wieder aufgerüstet, bis vom ursprünglichen Gerät nur noch das Netzteil und das Gehäuse übrig waren. Im Laufe der Jahre habe ich immer wieder am Gerät rumgeschraubt und Komponenten ausgetauscht oder erweitert. Zwischendurch gab es auch mal größere Umbauten, so dass auch tatsächlich mal das Gehäuse und das Netzteil erneuert wurden. Ich habe mir aber nie ein komplett neues Gerät, nicht als Ganzes und nicht aus Einzelteilen, zugelegt. Die Bastelei machte mir auch Spaß.

Irgendwann verlor ich jedoch die Lust am Selbstbauen. Ich sah auch, daß gerade die Kühlung ein großes Thema war, bei dem man viel falsch machen konnte und las von vielen Inkompatibilitäten unterschiedlicher Bauteile. Außerdem habe ich auf der Arbeit gesehen, was für tolle Gehäuse Markenhersteller mittlerweile anbieten. Also entschloss ich mich Ende 2009 für einen Kauf eines Komplettsystem der Marke Dell. Der Online-Shop bot damals noch umfangreiche Konfigurationsmöglichkeiten des Systems.

Der PC beinhaltete den gerade neuen Intel i7-870, eine 1,5 TB-Festplatte,  sowie das neu erschienene Windows 7. Das System nutze ich noch heute. Allerdings habe ich auch dieses erweitert. Relativ schnell habe ich den Speicher von 4 auf 12 GB erweitert und weitere Festplatten ergänzt. Die Grafikkarte wurde auch schon zweimal erneuert. Schäden gab es auch. Lüfter (Gehäuse und CPU) mussten gewechselt werden, ebenso das Netzteil und dann gab der DVD-Brenner den Geist auf (wahrscheinlich zerkratzte Linse). Einen letzten Schub hat der PC bekommen, als ich eine SSD einbaute, auf dem nun Windows und die Programme lagen. Der Prozessor ist nun schon 9 Jahre im Einsatz

Geplant ist ein kompletter Neukauf schon seit mehreren Jahren. Dieses Jahr soll es endlich so weit sein. (Dazu in einem anderen Artikel mehr). Aber man sieht daran, daß der Leidensdruck nicht sehr hoch war. Ansonsten hätte ich mir schon früher ein neues Gerät gekauft. Und so geht es sicherlich vielen PC-Nutzern.

Früher gab es immer irgendetwas, was man am PC nicht ordentlich machen konnte, da dieser nicht leistungsstark genug war. Zuerst war das Audiobearbeitung, dann Videobearbeitung, dann Videobearbeitung in HD und jetzt Videobearbeitung in 4K. Das geht alles. Einzig und allein Spiele fordern einen PC noch so richtig. Wobei dort in erster Linie auch die Grafikkarte gefragt ist. Ansonsten sind die Unterschiede zwischen dem was man mit älterem und einem neuen PC anfangen kann, nicht mehr so groß.

Für viele Leute ist ein PC mittlerweile auch verzichtbar, da sie viele Dinge, für die sie früher den Desktop-Rechner benutzten, heute auf den Taschencomputer aka Smartphone zurückgreifen. Auch Tabletts und Smart-TVs nehmen dem PC-Markt Konsumenten weg.

Aber alle, die sich etwas für Computer interessieren, werden mindestens einen PC oder Laptop als zentrales Arbeitsgerät besitzen. Wobei ich eindeutig den PC gegenüber dem Laptop bevorzuge. Allein wegen der besseren Bedienbarkeit, der Flexibilität beim Arbeiten und vor allem wegen der Möglichkeit zum Aufrüsten.

Auch im Büro wird der PC sicherlich noch lange die zentrale Büromaschine sein. Thin Clients werden immer mal wieder als Alternative erwähnt, doch in der Praxis zeigt sich oft, dass das nicht problemlos funktioniert.

Daher denke ich, dass der PC-Markt sicherlich nicht mehr die Bedeutung haben wird, wie zur Jahrtausendwende, aber ich vermute, dass sich das so etwa auf dem heutigen Niveau halten wird.

The Return of „Probleme mit EBay-Mailsever“

Nachdem ich Anfang des Jahres Probleme damit hatte E-Mail von Ebay zu empfangen und ich das langem Probieren hingekriegt habe, klappt die Kommunikation schon wieder nicht.

Ich habe tatsächlich mal wieder ein paar Sachen auf Ebay kaufen wollen, so ganz klassisch mit Auktion. Daß ich keine Gebotsbestätigung per E-Mail bekommen habe, kann ich verschmerzen, aber über das Ergebnis, also ob ich überboten wurde oder den Zuschlag bekommen habe, hätte ich schon gerne eine Nachricht bekommen. Leider kam da nichts.

Ich habe auch keine Ahnung, was den Ebay-Mailserver nun stört, ob ich wieder eine obskure Einstellung vornehmen muß. Bei mir tauchen keine Verbindungsversuche auf, der Ebay-Server gibt schon vorher auf. Leider kann ich von deren Seite ja keine Hilfe erwarten, man kann niemanden mit entsprechenden technischen Kenntnissen erreichen.

Die wollen irgendwie nicht, daß man ihre Dienste nutzt.

IP-Telefonie

Wenn dann der Breitbandanschluß tatsächlich kommt, dann wird natürlich auch der Telefonanschluß auf IP umgestellt. Das ist ja mittlerweile so üblich. Wirkliche Telefonhardware gibt es ja kaum noch, weder für die Betreiber noch für die Kunden. Man sollte aber meinen so eine Technik sei ja eigentlich nicht so kompliziert. Man muß einfach ein paar Audioströme von A nach B senden. Außerdem scheint es ja schon seit vielen Jahren IP-Telefonie zu geben, doch wenn man tatsächlich damit konfrontiert wird, wird es kompliziert.

Als die Deutsche Telekom angekündigt, sie wolle alle Telefonanschlüsse zwangsweise auf IP umstellen, fragten wir im Büro unseren Firmenkundeberater. Der meinte ein Termin stehe noch nicht fest, man würde ja aber 6 Monate vorher informiert. Das hat uns nicht beruhigt, sondern eher das Gegenteil bewirkt. Es bestand ein großes Informationsdefizit, welches gefüllt werden wollte. Wir wollten vorbereitet sein, wir wollten Angebote für eine neue Telefonanlage haben, denn wir mussten das ja auch irgendwie im Budget einplanen. Wir fragten auch bei dem Telekomberater nach doch der kam erst nach mehreren Nachfragen mit einem Angebot und weiteren Informationen rüber. Zeitgleich meldete sich ein Unternehmen aus der unmittelbaren Umgebung, welches TK-Leistungen vermittelt. Mit Hilfe dieses Unternehmens, haben wir Internetzugang und Telefonie neu strukturiert und eine TK-Anlage geplant. Alles ohne Leistungen und Leitungen der Telekom. Die dortigen Verträge, zu denen zwischenzeitlich Umstellungsankündigungen kamen, wurden alle gekündigt. Tja, liebe Telekom, das kann passieren, wenn man zwangsweise alle Anschlüsse umstellen will und den Kunden im Regen stehen läßt.

Die Anschlüsse wurden geschaltet, die Anlage installiert und eingerichtet. Doch leider hatte der Dienstleister mit vielen Konfigurationsproblemen zu kämpfen, was verwunderlich ist, da wir hier im Büro keine so ungewöhnlichen Anforderungen haben. Vor allem wenn man sich mal die Software ansieht, die weit aus mehr Funktionen hat, als wir brauchen. Aber trotzdem kam es häufig zu Verbindungsabbrüchen oder Telefonieren war gar nicht möglich. Einfache Funktionen wie Heranholen wurden erst später umgesetzt. Was überhaupt nicht ging, war das Fax. OK, Fax ist nicht unbedingt die modernste Technik, aber in vielen Betrieben und Behörden ein wichtiges Kommunikationsmittel. Zwischenzeitlich wurde nicht die entsprechende Hardware mehrfach getauscht, auch der Dienstleister wurde, auf Anraten des Softwareherstellers, gewechselt. Aber auch der hat das Faxgerät nicht zum Laufen gekriegt. Das Ding wurde außer Betrieb gesetzt. Der Empfang erfolgt nun direkt über die TK-Anlage, ein Versenden ist aber bis heute nicht möglich.

Irgrendwie haben wir von allen Seiten gehört, die IP-Telefonie sei noch nicht ausgereift. Ich habe mich immer gefragt, wie machen das andere Unternehmen, die wurden/werden doch auch alle auf IP umgestellt.

Aufgrund dieser schlechten Erfahrung, habe ich auch ein wenig Bauchschmerzen, wenn zu Hause der Anschluß umgestellt wird.

Interessant ist die historische Entwicklung: Anfangs gab es Telefon, dann kam das Internet dazu, welches wir mittels Modem nutzen konnten. Da wurden die Bits und Bytes in akustische Signale übertragen. Dann kam DSL. Das ging zwar auch über die gleiche Kupferleitung ging, aber über von der Telefonie getrennte Frequenzbereiche; um diese zu trennen gab es einen Splitter, der einen Telefonansugang und einen DSL-Ausgang hat. Und nun schmeißen wir das Telefonsignal ganz raus und kodieren alles in einen Bitstrom.

Telekom vs. Glasfaser

Dass die Deutsche Telekom sich wenig um den eigenen Glasfaserausbau kümmert habe ich ja schon mal geschrieben und stattdessen lieber Förderungen für Ihr Vectoring („schnelles Internet für Wenige“) kassier, ebenso dass sie Konkurrenten, die tatsächlich Glasfaser leben, torpediert..

Nun habe ich aber wieder zwei Dinge gehört, die mich in meiner Meinung, daß die Deutsche Telekom der größte Bremser beim Glasfaserausbau ist, bestärkt.

Es gab ja schon Berichte, daß die Telekom doch mal Glasfaser verlegt, wenn ein Konkurrent dieses auch gerade macht. Die Telekom darf die Kabel sogar in die Gräben der Konkurrenz gleich mit ein bauen. Wie das kommt? Nun eigentlich wollte man erreichen, dass bei öffentlichen Baumaßnahmen Telekommunikationsanbieter gleich ihre Glasfaser in die Baugrube legen kann, um den Breitbandausbau voranzutreiben und doppelte Bauarbeiten zu verhindern. Leider zählen auch viele Breitbandprojekte zu diesen öffentlichen Baumaßnahmen; nämlich dann wenn etwa Stadtwerke oder ein Zweckverband den Ausbau koordiniert. Auch dann kann die Telekom die Faser gleich mit reinlegen und spart sich nicht nur jede Menge Baukosten, sondern auch Kosten für Planung oder Werbung für die neue Technik.

Und ansonsten hat die Deutsche Telekom ja immer noch die Möglichkeit, den schlechten Verlierer zu spielen. Wie etwa im bayerischen Glonn. Seit dort Glasfaser ausgebaut wird, vernachlässigt die Telekom das Netz und es kommt zu Ausfällen.

Warum lässt die Politik so ein Handeln zu? Immerhin ist der Staat mittel- und unmittelbar noch mit über 30{506c7052c0d1e6d7d0d582ecf9d4bc2f198ab033d253b9b30fe0e3269a48e1b8} am Telekom-Konzern beteiligt.


Nachtrag 24.08.2018

Ein weiteres Beispiel wir die Deutsche Telekom den Ausbau schädigt. Sie baut plötzlich selbst in Gebieten aus, in denen durch Dritte eine Förderung beantragt wurde. Zur Erklärung: Förderfähig sind nur solche Anschlüsse, die unterversorgt sind, also laut aktueller Definition weniger als 30 MBit-Downstream (real, keine „bis-zu-Angaben“) haben. Wenn die Telekom nun plötzlich doch ausbaut, egal welche Technik, also etwa das Vectoring über die alten Kupferkabel, gibt es keine Förderung mehr.

He, Telekom: Ihr seid selbst Schuld daran, wenn ihr in Zukunft viele Kunden verliert. Ihr habt lange Zeit den Netzausbau komplett ignoriert. Lieber ein paar Leuten auf einfache Art und Weise schnelleres Internet geben, als flächendeckend in die Infrastruktur zu investieren. Aber den anderen so zwischen die Beine zu grätschen ist echt unterste Schublade. Lest mal in Eurem Code of Conduct unter Punkt 2.7 nach:

Die Deutsche Telekom […] bekennen sich zu fairen Wettbewerb in allen geschäftlichen Beziehungen.
[…] noch strebt sie auf andere unlautere oder missbräuchliche Weise Wettbewerbsvorteile an.

Der BND darf uns weiterhin alle bespitzeln

Letzte Woche kam es zu einer Gerichtsverhandlung vor dem Bundesverwaltungsgericht. Der Betreiber des weltweit größten Internetknoten DE-CIX hat geklagt, weil er verpflichtet wurde, dem Bundesnachrichtendienst (BND) Zugang zu den durchgeleiteten Daten zu ermöglichen. Das bedeutet nicht nur einen enormen technischen Aufwand, sondern auch einen ungeheuren Grundrechtseingriff. Fast alle Provider sind am DE-CIX angeschlossen, so daß man ausgehen kann, daß ein Großteil des deutschen Internet-Traffics über diesen Knoten geht. Zum überwiegenden Teil Traffic deutscher Nutzer. Nur kurz zur Erinnerung: Der BND ist eigentlich ein Auslandsnachrichtendienst. Die Überwachung im Inland unterliegt gewissen Beschränkungen, die rechtlich fraglich sind. Das anlasslose Massenüberwachung ist in dieser Form sicherlich verfassungswidrig.

Das Bundesverwaltungsgericht hat nach einer nur kurzen Anhörung innerhalb weniger Stunden für diese Überwachungsmaßnahme entschieden. Ich bezweifle mal, daß das Gericht sich überhaupt mit dem Ausmaß der Überwachungsaktion und den technischen Gegebenheiten eingehend beschäftigt hat.

Der DE-CIX-Betreiber hat nun aber schon angekündigt, vor das Bundesverfassungsgericht oder den Europäischen Gerichtshof für Menschenrechte zu ziehen.

Die Github-Seuche

Microsoft will Github kaufen und plötzlich aktiveren alle den Panikmodus.

Ich fand es schon immer unverständlich, warum mindestens 90{506c7052c0d1e6d7d0d582ecf9d4bc2f198ab033d253b9b30fe0e3269a48e1b8} aller freien Software bei Github gehostet wird. Github ist kein Projekt der Oopen-Source-Community. Github war schon länger ein Unternehmen, welches auf Profit ausgerichtet war. Deswegen gibt es nicht nur kostenfreie Basis-Accounts, sondern auch kostenpflichtige. Und es wäre durchaus denkbar, wenn Github beigeht und die Funktionen der kostenlosen Accounts nach und nach einschränkt, um mehr zahlende Kunden zu gewinnen. Bei so einem Quasi-Monopol ist das nicht unrealistisch.

Natürlich argumentieren Entwickler darauf angesprochen, daß die Idee von git (also der Versionierungssoftware für die Github Server bereitstellt) auf Dezentralismus baut. Das stimmt, man kann einfach den Code auf eigene Rechner oder andere Server klonen. Allerdings geht es ja nicht nur um den Code. so ist es meines Wissens nach nicht möglich etwa die ganzen Issues (also z.B. eingereichte Fehlermeldungen) auf ein anderes System zu transferieren. Hier hat man also wieder einen typischen Lock-In-Effekt.

Vor allem Open-Source-Entwickler sollten doch eigentlich gegen Kommerz und gegen Monopole sein. Warum vertrauen sie ihr Projekt dann einem Unternehmen an? Das war schon vor dem Kauf durch Microsoft nicht gut. Mal sehen, was sich in den nächsten Wochen/Monaten auf Seiten der Entwickler und auf Seiten von Github tun wird. Ein wenig mehr Diversifikation wäre auch jeden Fall wünschenswert.

Windows aufräumen – schwer gemacht

In der Ausgabe 08/2018 der c’t gab es eine Artikelstrecke, wie man ein Windowssystem aufräumen kann, wenn etwa die Windows-Partition voll ist. Hat mich eigentlich nicht so interessiert, da meinen Windowsrechner stets ganz gut im Blick habe.

Über Ostern hatte ich es aber mit einem Rechner eines Verwandten zu tun. Der soll auch „voll“ sein und gehe nur noch wenig. Der Laptop war noch original, wie vom Hersteller mit Windows 7 installiert und konfiguriert; es wurden neben den üblichen Updates noch ein paar zusätzliche Programme installiert. Das eine Laufwerk des Laptops war in zwei Hauptpartitionen (C und D), neben internen Recovery-Partionen, eingeteilt. Die erste hatte eine Größe von ca. 70 GB und die zweite von 700 GB. C war fast voll, D war praktisch unbenutzt. Ist ja auch kein Wunder. Das Home-Verzeichnis und damit alle Bilder, Videos, Dokumente, Downloads, temporären Dateien usw. legt Windows nun mal auf C an. Erst durch manuelles Eingreifen, kann man Windows dazubringen, bestimmte Sachen automatisch auf einer anderen Partition zu speichern. Der normale User interessiert sich nicht für solche Sachen und er sollte sich darum auch nicht kümmern müssen. Er will einfach seine Fotos auf dem Rechner speichern.

Wer richtet so einen Mist ein? Früher hat man mal gesagt, man solle System und Daten trennen, um leichter eine Datensicherung zu machen. Dafür braucht man heutzutage aber keine Partitionen mehr, dafür gibt es das Benutzer-Verzeichnis. Wenn man eine kleine SSD UND eine große Festplatte im PC stecken hat, dann kann so eine Trennung sinnvoll sein. Aber dann sollte das System so konfiguriert sein, daß es auch tatsächlich zu speichern von Daten „D“ benutzt, ansonsten hat der Hersteller geschlampt.

Ich gehe aber noch einen Schritt weiter und unterstellte dem Hersteller Absicht. Der kann auf dem Karton oder in der Online-Anzeige mit einer 800 GB-Festplatte werben. Dem unbedarften Nutzer stehen davon aber nur 10{506c7052c0d1e6d7d0d582ecf9d4bc2f198ab033d253b9b30fe0e3269a48e1b8} zu Verfügung. Wenn er dann merkt, daß der Platz zu neige geht, braucht er wohl einen neuen Rechner.

Ich habe dem Verwandten es jetzt so eingerichtet, daß seine Bilder- und Videoverzeichnisse auf „D“ liegen und ihm so reichlich Platz geschaffen. Besser wäre es natürlich gewesen, die Partitionen zu verschmelzen. – Vielleicht ein anderes Mal.

Abhängigkeit von Let’s Encrypt

Gestern ging die Meldung rum, daß Let’s Encrypt (LE) mehr als die Hälfte aller SSL-Zertifikate ausstellt. Ich begrüße das und nutze ja auch LE. Allerdings habe ich es nicht so gern, wenn ich von EINEM Anbieter abhängig bin.

Neulich habe ich bemerkt, was passieren würde, wenn LE ausfallen würde. LE-Zertifikate bezieht man in der Regel durch ein Programm, welches man auf seinem Server installiert. Ich nutze den Standard-Client certbot. Da die Zertifikate normalerweiser nur eine Gültigkeit von 3 Monaten besitzen, muß man sie regelmäßig erneuern; am besten automatisiert. Leider wurde ein Weg, wie die rechtmäßige Kontrolle über den Webserver, als Voraussetzung für das Zertifikat, festgestellt werden kann, aus Sicherheitsgründen abgeschaltet. Ich musste doch lange rumprobieren, bis es wieder geschafft habe, das SSL-Zertifikat zu aktualisieren.

Die Website unverschlüsselt auszuliefern wäre übrigens keine Alternative gewesen. Als sicherheitsbewußter Webserver-Admin habe ich natürlich das HSTS-Flag (HTTP Strict Transport Security) gesetzt. Dadurch weise ich Browser an, daß sie nur eine verschlüsselte Verbindung zulassen sollen, auch wenn sie die Seite später noch einmal aufrufen sollen. Man muß also echt aufpassen, daß man sich und die Besucher nicht aussperrt. Genauso wäre es aber auch, wenn LE seinen Dienst plötzlich einstellen oder kostenpflichtig machen würde.

Es wäre daher wünschenswert, wenn es neben LE einen ähnlichen kostenlosen Dienst geben würde.

Autonomes Fahrzeuge verursacht tödlichen Unfall

Ein autonomes Auto der Firma Uber verursacht einen Unfall und tötet dabei eine Fußgängerin. Das ist tragisch. Nun wird darüber heftig diskutiert, ob der Unfall hätte verhindert werden können. Ich will hier niemanden verurteilen und niemanden in Schutz nehmen. Aber ich finde es gut, daß über die Ursachen diskutiert wird und wie der Unfall hätte vermieden werden können. Das sollte eigentlich bei jedem schlimmen Verkehrsunfall passieren.

Die Leute dachten wohl immer, Technik sei unfehlbar. Das ist sie aber nicht. Genauso wenig ist der Mensch unfehlbar, vielleicht etwas mehr oder vielleicht etwas weniger. Autonome Autos haben ihre Berechtigung, wenn sie weniger Todesfälle verursachen, als menschliche Fahrer. Ich las in den letzten Tagen irgendwo die Aussage eines US-Amerikaners, daß in X Jahren autonom fahrende Autos jeden Tag 10 Menschen töten werden, aktuell werden aber jeden Tag (!) 100 durch Menschen am Steuer getötet.

Wenn wir wirklich die Zahl der Verkehrstoten auf ein Zehntel reduzieren könnten, dann müsste man auch nicht ewig über unrealistische Szenarien wie das Trolley-Problem nachdenken, denn das würde ein Mensch in einer Stresssituation sicherlich auch nicht innerhalb von Sekundenbruchteilen lösen können.