Das Internet gefährdet die Macht Machthabender – Update

Das Internet ist doch was schönes. Mit ihm können Menschen kommunizieren, ganz unabhängig, wo sie sich gerade befinden. Das Internet bietet auch gewaltige Wissensschätze (neben einem Haufen Verschwörungsschrott), die Menschen in aller Welt nutzen können, um sich sich weiter zu bilden.

Aber manche Machthaber schätzen diese Freiheit nicht. Insbesondere wenn sie es sowieso nicht so sehr mit der Demokratie und der Freiheit der Bürger haben. Dann ist der informierte, aufgeklärte Bürger eine Gefahr, vor allem, wenn er sein Wissen mit Anderen teilen können.

Deswegen ist in manchen Ländern das Internet auch zensiert. Inhalte aus dem eigenen Land werden streng reglementiert und nach außen, zu anderen Ländern, gibt es Filter, die nur bestimmte Inhalte durchlassen. Das bekannteste Beispiel ist die “Great Firewall of China”

Aber auch in anderen Ländern wird die Freiheit der Bürger nicht so geachtet. So kam es im “Arabischen Frühling” in verschiedenen Ländern immer mal wieder zur Abschaltung des Internets durch die Behörden. Auch in Ländern wie Bangladesh oder Simbabwe kam es in jüngster Zeit immer mal wieder zu “Ausfällen”. Alles natürlich immer nur zum Schutze vor Ausschreitungen. Die sogenannte Reichstagsbrandverordnung diente ja auch nicht dazu ein Terrorregime zu installieren und Europa in den Abgrund zu stürzen, sondern “zur Abwehr kommunistischer staatsgefährdender Gewaltakte“.

Nun will Russland mal probieren, wie es so ohne Internet ist. Dazu sollen alle Verbindungen ins Ausland gekappt werden. Natürlich ist das auch nur ein Test, um im Ernstfall Angriffe aus dem Ausland abzuwehren. Schon klar. “Niemand hat die Absicht eine Mauer zu errichten.”

Mal sehen, wann die Freunde aus der Türkei oder Ungarn ähnliche Versuche starten. Denn auch hier gibt es berechtige Regimekritik staatszersetzende Auslandspropaganda.


Update 25.06.2019
Wieder ein Fall in der die Kommunikation eingeschränkt wird. Diesmal in Myannmar.

Neuer PC – Teil 1 – Die Hardware

Der PC ist nicht tot. Meiner war nur etwas alt. Nach neun Jahren und diversen Aufrüstaktionen und Reparaturen sollte mal ein neues Gerät her. Früher habe ich meine Geräte selbst zusammen geschraubt. Irgendwann wurde mir das aber zu viel, weil sich manche Komponenten einfach nicht vertrugen und vor allem wurde die Kühlung des Systems immer wichtiger und komplizierter. Also habe ich mir dann mal ein Komplettmodell von Dell gekauft. Zu dieser Zeit hatte man noch weitreichende Konfigurationsmöglichkeiten, etwa beim RAM, Massenspeicher oder Prozessor. Ich war ganz zufrieden mit dem Gerät und habe mich wieder bei dem Hersteller umgesehen. Aber statt Vielfalt gab es nur Eintönigkeit. Das Einzige wo man noch mehr Optionen hatte, war bei der Wahl der der zusätzlichen Garantie- und Versicherungspakete.

Als Abonnent der c’t habe ich schon im Vorjahr aufmerksam das alljährliche Selbstbauprojekt angesehen und gedacht, dass ich so einen Bauvorschlag nachbauen möchte. Ich habe schon Ende des Jahres ganz gespannt auf die Ankündigung der Artikelserie gewartet. Als es endlich soweit war, habe ich am bereits am Freitag online die entsprechenden Artikel gelesen. Ich entschied mich für den Ryzen-Allrounder, den ich allerdings wie folgt erweitert habe:

  • Ryzen 7 2700X statt Ryzen 5 2600
  • 32 GB RAM statt 16 GB
  • MSI GeForce GTX 1060 Gaming X 6G statt MSI GeForce GT 1030
  • 1 TB SSD statt 500 GB SSD
  • zusätzlich 3 TB Harddisk als Datenhalde (Altbestand)
  • zusätzlich DVD-Brenner/BluRay-Laufwerk (Altbestand)

Ich hätte gerne noch einen internen Kartenleser dazugenommen, fand aber keinen, so dass ich mir schließlich einen externen USB-Hub mit SD- und Micro-SD-Slots gekauft habe.

Bei der Bestellung habe ich den Online-Preisvergleich von Heise genutzt. Die entsprechenden Einzelartikel waren schon auf einer Einkaufliste zusammengestellt, so dass man relativ einfach die Preise vergleichen konnte. Auch schön fand ich eine Funktion, bei der man angibt, dass man nur bei einer bestimmten Anzahl von Händler bestellen möchte und nicht jede Komponente woanders.

Ich habe bei drei verschiedenen Shops bestellt. Die Bestellung ging noch am Freitag raus und nach etwa einer Woche sind alle Sachen angekommen. Im Forum habe ich gelesen, dass es bei manchen Teilen, wie etwa dem Lüfter, später zu Lieferengpässen kam. Frühes Bestellen ist also sinnvoll, zumal die Händler und Paketdienste in der Vorweihnachtszeit eh schon gut ausgelastet sind.

Vor dem Zusammenbau empfiehlt es sich, die komplette Artikelserie durch zu lesen, da manche Tipps nur in einem Nachbarartikel auftauchen. Eigentlich ging der Zusammenbau einfach, aber eine Sache war doch etwas schwieriger: der ATX-12-V-Stecker in der Ecke des Boardes. Hier hatte man wenig Spielraum, und es war recht eng. Aber am Ende hat es doch geklappt. Außerdem musste man zwischendurch noch ein- zweimal genauer hinsehen, um zu erkennen, wie man die Kabel am besten verschwinden lässt.

Vor Inbetriebnahme sollte man unbedingt auf die Internetseite des Projektes gehen. Nur dort sind die BIOS- und vor allem Lüftereinstellungen dokumentiert. Und die sind essentiell für ein leises Gerät.

Mit dem BIOS gab es dann auch noch ein paar Probleme. Es wurde generell empfohlen die aktuellste Version zu nutzen. Getestet wurde der Bauvorschlag mit der BIOS-Version F3. Zwischenzeitlich erschien aber die Version F4, die aber zu Problemen im Standby-Betrieb führte. Diese Version wurde dann schnell von Gigabyte zurück gezogen. Allerdings erschien das fehlerhafte Update genau in dem Zeitraum, in dem viele c’t-Leser ihren PC zusammengebaut haben.

Übrigens war ich von dem BIOS-Update selbst überrascht. Ich kenne noch Updates über Disketten von denen man ein DOS gestartet hat. Das war damals eigentlich schon eine völlig veraltete Methode. Dass man nun aus dem BIOS heraus das Update von einem USB-Stick laden kann, finde ich ziemlich komfortabel.

Wie es mit der Softwareinstallation weiter geht, beschreibe ich in einem folgenden Artikel.

2 Tipps zur Mobilen Datensicherheit

Viele Leute freuen sich, wenn sie Ihr mobiles Endgerät in der Öffentlichkeit aufladen und per WLAN nutzen können. Grundsätzlich sollte man gegenüber fremden Infrastrukturen misstrauisch sein. In öffentlichen WLANs können die Daten von Unbekannten mitgelesen werden und ein Gerät per USB anzuschließen kann unbegrenzten Zugriff Dritter auf dieses Gerät ermöglichen. Dazu reicht es schon, nur ein fremdes Kabel anzustöpseln

Dabei gibt es zwei einfache, aber wirkungsvolle Lösungen.

  • Das Laden sollte nie direkt über einen angebotenen USB-Port gehen. Man sollte sich einfach eine Powerbank zulegen, diese laden und dann damit den Handyakku speisen. Zur Sicherheit zeitversetzt, also nicht direkt, wenn die Powerbank geladen wird. Man kann nie sicher sein, ob Steuersignale nicht irgendwie durchgeschleift werden.
  • Öffentliche WLANs sollte man nur über ein VPN nutzen. Dabei baut man einen stark verschlüsselten Tunnel zwischen Mobiltelefon und einem bestimmten Endpunkt auf, durch die die gesamten Kommunikation läuft. Wird der WLAN-Traffic abgehört, kann niemand mit den Daten etwas anfangen. Viele Router bieten die Möglichkeit, sie als VPN-Endpunkt zu nutzen (Anleitung für Fritz-Boxen). Einen Dienst wie my-fritz, der in der Anleitung erwähnt wird kann, muß man aber nicht, nutzen. Eine Alternative wäre etwa ein anderer DYNDNS-Dienst oder die eigene Domain.

Ist der PC tot?

Die Umsätze der PC-Hersteller sinken und Viele fragen sich, ob der PC, in der jetzigen Form, tot ist?

Ich sehe das nicht so. Es gibt ihn und es wird ihn weiter geben. Er hat durchaus seine Berechtigung, verliert aber an Bedeutung.

Ende der Neunziger/Anfang der Nuller war wohl die Hochzeit des Desktop-Rechners. Die Technik wurde günstiger, leistungsfähiger, ausgereifter. Die Betriebssysteme wurden komfortabler und die Anwendungsmöglichkeiten wurden vielfältiger, gerade auch in Hinblick auf das Internet, welches immer mehr Leute nutzten.

Illegale Softwarekopien waren, wie schon in früheren Zeiten, an der Tagesordnung und ohne diese Verbreitung wären viele Computerplattformen niemals so erfolgreich geworden. Junge Leute kratzen sich das Geld für die Hardware zusammen und am Ende war kein Geld mehr für Software vorhanden.

Mein Einstieg in die PC-Welt begann 1992. Vorher besaß ich die üblichen Heim-Computer (VC-20, C64, Amiga 500). Ich kaufte mir für stolze 3000 DM einen fertigen Computer bei einem kleinen Keller-Händler, der mir von einem Bekannten empfohlen wurde. Die damaligen Elektroketten wie Schaulandt hatten noch richtig viele PCs im Angebot. Da mußte man eher zu Escom oder Vobis gehen.

Später wurde der Rechner immer wieder aufgerüstet, bis vom ursprünglichen Gerät nur noch das Netzteil und das Gehäuse übrig waren. Im Laufe der Jahre habe ich immer wieder am Gerät rumgeschraubt und Komponenten ausgetauscht oder erweitert. Zwischendurch gab es auch mal größere Umbauten, so dass auch tatsächlich mal das Gehäuse und das Netzteil erneuert wurden. Ich habe mir aber nie ein komplett neues Gerät, nicht als Ganzes und nicht aus Einzelteilen, zugelegt. Die Bastelei machte mir auch Spaß.

Irgendwann verlor ich jedoch die Lust am Selbstbauen. Ich sah auch, daß gerade die Kühlung ein großes Thema war, bei dem man viel falsch machen konnte und las von vielen Inkompatibilitäten unterschiedlicher Bauteile. Außerdem habe ich auf der Arbeit gesehen, was für tolle Gehäuse Markenhersteller mittlerweile anbieten. Also entschloss ich mich Ende 2009 für einen Kauf eines Komplettsystem der Marke Dell. Der Online-Shop bot damals noch umfangreiche Konfigurationsmöglichkeiten des Systems.

Der PC beinhaltete den gerade neuen Intel i7-870, eine 1,5 TB-Festplatte,  sowie das neu erschienene Windows 7. Das System nutze ich noch heute. Allerdings habe ich auch dieses erweitert. Relativ schnell habe ich den Speicher von 4 auf 12 GB erweitert und weitere Festplatten ergänzt. Die Grafikkarte wurde auch schon zweimal erneuert. Schäden gab es auch. Lüfter (Gehäuse und CPU) mussten gewechselt werden, ebenso das Netzteil und dann gab der DVD-Brenner den Geist auf (wahrscheinlich zerkratzte Linse). Einen letzten Schub hat der PC bekommen, als ich eine SSD einbaute, auf dem nun Windows und die Programme lagen. Der Prozessor ist nun schon 9 Jahre im Einsatz

Geplant ist ein kompletter Neukauf schon seit mehreren Jahren. Dieses Jahr soll es endlich so weit sein. (Dazu in einem anderen Artikel mehr). Aber man sieht daran, daß der Leidensdruck nicht sehr hoch war. Ansonsten hätte ich mir schon früher ein neues Gerät gekauft. Und so geht es sicherlich vielen PC-Nutzern.

Früher gab es immer irgendetwas, was man am PC nicht ordentlich machen konnte, da dieser nicht leistungsstark genug war. Zuerst war das Audiobearbeitung, dann Videobearbeitung, dann Videobearbeitung in HD und jetzt Videobearbeitung in 4K. Das geht alles. Einzig und allein Spiele fordern einen PC noch so richtig. Wobei dort in erster Linie auch die Grafikkarte gefragt ist. Ansonsten sind die Unterschiede zwischen dem was man mit älterem und einem neuen PC anfangen kann, nicht mehr so groß.

Für viele Leute ist ein PC mittlerweile auch verzichtbar, da sie viele Dinge, für die sie früher den Desktop-Rechner benutzten, heute auf den Taschencomputer aka Smartphone zurückgreifen. Auch Tabletts und Smart-TVs nehmen dem PC-Markt Konsumenten weg.

Aber alle, die sich etwas für Computer interessieren, werden mindestens einen PC oder Laptop als zentrales Arbeitsgerät besitzen. Wobei ich eindeutig den PC gegenüber dem Laptop bevorzuge. Allein wegen der besseren Bedienbarkeit, der Flexibilität beim Arbeiten und vor allem wegen der Möglichkeit zum Aufrüsten.

Auch im Büro wird der PC sicherlich noch lange die zentrale Büromaschine sein. Thin Clients werden immer mal wieder als Alternative erwähnt, doch in der Praxis zeigt sich oft, dass das nicht problemlos funktioniert.

Daher denke ich, dass der PC-Markt sicherlich nicht mehr die Bedeutung haben wird, wie zur Jahrtausendwende, aber ich vermute, dass sich das so etwa auf dem heutigen Niveau halten wird.

The Return of “Probleme mit EBay-Mailsever”

Nachdem ich Anfang des Jahres Probleme damit hatte E-Mail von Ebay zu empfangen und ich das langem Probieren hingekriegt habe, klappt die Kommunikation schon wieder nicht.

Ich habe tatsächlich mal wieder ein paar Sachen auf Ebay kaufen wollen, so ganz klassisch mit Auktion. Daß ich keine Gebotsbestätigung per E-Mail bekommen habe, kann ich verschmerzen, aber über das Ergebnis, also ob ich überboten wurde oder den Zuschlag bekommen habe, hätte ich schon gerne eine Nachricht bekommen. Leider kam da nichts.

Ich habe auch keine Ahnung, was den Ebay-Mailserver nun stört, ob ich wieder eine obskure Einstellung vornehmen muß. Bei mir tauchen keine Verbindungsversuche auf, der Ebay-Server gibt schon vorher auf. Leider kann ich von deren Seite ja keine Hilfe erwarten, man kann niemanden mit entsprechenden technischen Kenntnissen erreichen.

Die wollen irgendwie nicht, daß man ihre Dienste nutzt.

IP-Telefonie

Wenn dann der Breitbandanschluß tatsächlich kommt, dann wird natürlich auch der Telefonanschluß auf IP umgestellt. Das ist ja mittlerweile so üblich. Wirkliche Telefonhardware gibt es ja kaum noch, weder für die Betreiber noch für die Kunden. Man sollte aber meinen so eine Technik sei ja eigentlich nicht so kompliziert. Man muß einfach ein paar Audioströme von A nach B senden. Außerdem scheint es ja schon seit vielen Jahren IP-Telefonie zu geben, doch wenn man tatsächlich damit konfrontiert wird, wird es kompliziert.

Als die Deutsche Telekom angekündigt, sie wolle alle Telefonanschlüsse zwangsweise auf IP umstellen, fragten wir im Büro unseren Firmenkundeberater. Der meinte ein Termin stehe noch nicht fest, man würde ja aber 6 Monate vorher informiert. Das hat uns nicht beruhigt, sondern eher das Gegenteil bewirkt. Es bestand ein großes Informationsdefizit, welches gefüllt werden wollte. Wir wollten vorbereitet sein, wir wollten Angebote für eine neue Telefonanlage haben, denn wir mussten das ja auch irgendwie im Budget einplanen. Wir fragten auch bei dem Telekomberater nach doch der kam erst nach mehreren Nachfragen mit einem Angebot und weiteren Informationen rüber. Zeitgleich meldete sich ein Unternehmen aus der unmittelbaren Umgebung, welches TK-Leistungen vermittelt. Mit Hilfe dieses Unternehmens, haben wir Internetzugang und Telefonie neu strukturiert und eine TK-Anlage geplant. Alles ohne Leistungen und Leitungen der Telekom. Die dortigen Verträge, zu denen zwischenzeitlich Umstellungsankündigungen kamen, wurden alle gekündigt. Tja, liebe Telekom, das kann passieren, wenn man zwangsweise alle Anschlüsse umstellen will und den Kunden im Regen stehen läßt.

Die Anschlüsse wurden geschaltet, die Anlage installiert und eingerichtet. Doch leider hatte der Dienstleister mit vielen Konfigurationsproblemen zu kämpfen, was verwunderlich ist, da wir hier im Büro keine so ungewöhnlichen Anforderungen haben. Vor allem wenn man sich mal die Software ansieht, die weit aus mehr Funktionen hat, als wir brauchen. Aber trotzdem kam es häufig zu Verbindungsabbrüchen oder Telefonieren war gar nicht möglich. Einfache Funktionen wie Heranholen wurden erst später umgesetzt. Was überhaupt nicht ging, war das Fax. OK, Fax ist nicht unbedingt die modernste Technik, aber in vielen Betrieben und Behörden ein wichtiges Kommunikationsmittel. Zwischenzeitlich wurde nicht die entsprechende Hardware mehrfach getauscht, auch der Dienstleister wurde, auf Anraten des Softwareherstellers, gewechselt. Aber auch der hat das Faxgerät nicht zum Laufen gekriegt. Das Ding wurde außer Betrieb gesetzt. Der Empfang erfolgt nun direkt über die TK-Anlage, ein Versenden ist aber bis heute nicht möglich.

Irgrendwie haben wir von allen Seiten gehört, die IP-Telefonie sei noch nicht ausgereift. Ich habe mich immer gefragt, wie machen das andere Unternehmen, die wurden/werden doch auch alle auf IP umgestellt.

Aufgrund dieser schlechten Erfahrung, habe ich auch ein wenig Bauchschmerzen, wenn zu Hause der Anschluß umgestellt wird.

Interessant ist die historische Entwicklung: Anfangs gab es Telefon, dann kam das Internet dazu, welches wir mittels Modem nutzen konnten. Da wurden die Bits und Bytes in akustische Signale übertragen. Dann kam DSL. Das ging zwar auch über die gleiche Kupferleitung ging, aber über von der Telefonie getrennte Frequenzbereiche; um diese zu trennen gab es einen Splitter, der einen Telefonansugang und einen DSL-Ausgang hat. Und nun schmeißen wir das Telefonsignal ganz raus und kodieren alles in einen Bitstrom.

Telekom vs. Glasfaser

Dass die Deutsche Telekom sich wenig um den eigenen Glasfaserausbau kümmert habe ich ja schon mal geschrieben und stattdessen lieber Förderungen für Ihr Vectoring (“schnelles Internet für Wenige”) kassier, ebenso dass sie Konkurrenten, die tatsächlich Glasfaser leben, torpediert..

Nun habe ich aber wieder zwei Dinge gehört, die mich in meiner Meinung, daß die Deutsche Telekom der größte Bremser beim Glasfaserausbau ist, bestärkt.

Es gab ja schon Berichte, daß die Telekom doch mal Glasfaser verlegt, wenn ein Konkurrent dieses auch gerade macht. Die Telekom darf die Kabel sogar in die Gräben der Konkurrenz gleich mit ein bauen. Wie das kommt? Nun eigentlich wollte man erreichen, dass bei öffentlichen Baumaßnahmen Telekommunikationsanbieter gleich ihre Glasfaser in die Baugrube legen kann, um den Breitbandausbau voranzutreiben und doppelte Bauarbeiten zu verhindern. Leider zählen auch viele Breitbandprojekte zu diesen öffentlichen Baumaßnahmen; nämlich dann wenn etwa Stadtwerke oder ein Zweckverband den Ausbau koordiniert. Auch dann kann die Telekom die Faser gleich mit reinlegen und spart sich nicht nur jede Menge Baukosten, sondern auch Kosten für Planung oder Werbung für die neue Technik.

Und ansonsten hat die Deutsche Telekom ja immer noch die Möglichkeit, den schlechten Verlierer zu spielen. Wie etwa im bayerischen Glonn. Seit dort Glasfaser ausgebaut wird, vernachlässigt die Telekom das Netz und es kommt zu Ausfällen.

Warum lässt die Politik so ein Handeln zu? Immerhin ist der Staat mittel- und unmittelbar noch mit über 30% am Telekom-Konzern beteiligt.


Nachtrag 24.08.2018

Ein weiteres Beispiel wir die Deutsche Telekom den Ausbau schädigt. Sie baut plötzlich selbst in Gebieten aus, in denen durch Dritte eine Förderung beantragt wurde. Zur Erklärung: Förderfähig sind nur solche Anschlüsse, die unterversorgt sind, also laut aktueller Definition weniger als 30 MBit-Downstream (real, keine “bis-zu-Angaben”) haben. Wenn die Telekom nun plötzlich doch ausbaut, egal welche Technik, also etwa das Vectoring über die alten Kupferkabel, gibt es keine Förderung mehr.

He, Telekom: Ihr seid selbst Schuld daran, wenn ihr in Zukunft viele Kunden verliert. Ihr habt lange Zeit den Netzausbau komplett ignoriert. Lieber ein paar Leuten auf einfache Art und Weise schnelleres Internet geben, als flächendeckend in die Infrastruktur zu investieren. Aber den anderen so zwischen die Beine zu grätschen ist echt unterste Schublade. Lest mal in Eurem Code of Conduct unter Punkt 2.7 nach:

Die Deutsche Telekom […] bekennen sich zu fairen Wettbewerb in allen geschäftlichen Beziehungen.
[…] noch strebt sie auf andere unlautere oder missbräuchliche Weise Wettbewerbsvorteile an.

Der BND darf uns weiterhin alle bespitzeln

Letzte Woche kam es zu einer Gerichtsverhandlung vor dem Bundesverwaltungsgericht. Der Betreiber des weltweit größten Internetknoten DE-CIX hat geklagt, weil er verpflichtet wurde, dem Bundesnachrichtendienst (BND) Zugang zu den durchgeleiteten Daten zu ermöglichen. Das bedeutet nicht nur einen enormen technischen Aufwand, sondern auch einen ungeheuren Grundrechtseingriff. Fast alle Provider sind am DE-CIX angeschlossen, so daß man ausgehen kann, daß ein Großteil des deutschen Internet-Traffics über diesen Knoten geht. Zum überwiegenden Teil Traffic deutscher Nutzer. Nur kurz zur Erinnerung: Der BND ist eigentlich ein Auslandsnachrichtendienst. Die Überwachung im Inland unterliegt gewissen Beschränkungen, die rechtlich fraglich sind. Das anlasslose Massenüberwachung ist in dieser Form sicherlich verfassungswidrig.

Das Bundesverwaltungsgericht hat nach einer nur kurzen Anhörung innerhalb weniger Stunden für diese Überwachungsmaßnahme entschieden. Ich bezweifle mal, daß das Gericht sich überhaupt mit dem Ausmaß der Überwachungsaktion und den technischen Gegebenheiten eingehend beschäftigt hat.

Der DE-CIX-Betreiber hat nun aber schon angekündigt, vor das Bundesverfassungsgericht oder den Europäischen Gerichtshof für Menschenrechte zu ziehen.

Die Github-Seuche

Microsoft will Github kaufen und plötzlich aktiveren alle den Panikmodus.

Ich fand es schon immer unverständlich, warum mindestens 90% aller freien Software bei Github gehostet wird. Github ist kein Projekt der Oopen-Source-Community. Github war schon länger ein Unternehmen, welches auf Profit ausgerichtet war. Deswegen gibt es nicht nur kostenfreie Basis-Accounts, sondern auch kostenpflichtige. Und es wäre durchaus denkbar, wenn Github beigeht und die Funktionen der kostenlosen Accounts nach und nach einschränkt, um mehr zahlende Kunden zu gewinnen. Bei so einem Quasi-Monopol ist das nicht unrealistisch.

Natürlich argumentieren Entwickler darauf angesprochen, daß die Idee von git (also der Versionierungssoftware für die Github Server bereitstellt) auf Dezentralismus baut. Das stimmt, man kann einfach den Code auf eigene Rechner oder andere Server klonen. Allerdings geht es ja nicht nur um den Code. so ist es meines Wissens nach nicht möglich etwa die ganzen Issues (also z.B. eingereichte Fehlermeldungen) auf ein anderes System zu transferieren. Hier hat man also wieder einen typischen Lock-In-Effekt.

Vor allem Open-Source-Entwickler sollten doch eigentlich gegen Kommerz und gegen Monopole sein. Warum vertrauen sie ihr Projekt dann einem Unternehmen an? Das war schon vor dem Kauf durch Microsoft nicht gut. Mal sehen, was sich in den nächsten Wochen/Monaten auf Seiten der Entwickler und auf Seiten von Github tun wird. Ein wenig mehr Diversifikation wäre auch jeden Fall wünschenswert.

Windows aufräumen – schwer gemacht

In der Ausgabe 08/2018 der c’t gab es eine Artikelstrecke, wie man ein Windowssystem aufräumen kann, wenn etwa die Windows-Partition voll ist. Hat mich eigentlich nicht so interessiert, da meinen Windowsrechner stets ganz gut im Blick habe.

Über Ostern hatte ich es aber mit einem Rechner eines Verwandten zu tun. Der soll auch “voll” sein und gehe nur noch wenig. Der Laptop war noch original, wie vom Hersteller mit Windows 7 installiert und konfiguriert; es wurden neben den üblichen Updates noch ein paar zusätzliche Programme installiert. Das eine Laufwerk des Laptops war in zwei Hauptpartitionen (C und D), neben internen Recovery-Partionen, eingeteilt. Die erste hatte eine Größe von ca. 70 GB und die zweite von 700 GB. C war fast voll, D war praktisch unbenutzt. Ist ja auch kein Wunder. Das Home-Verzeichnis und damit alle Bilder, Videos, Dokumente, Downloads, temporären Dateien usw. legt Windows nun mal auf C an. Erst durch manuelles Eingreifen, kann man Windows dazubringen, bestimmte Sachen automatisch auf einer anderen Partition zu speichern. Der normale User interessiert sich nicht für solche Sachen und er sollte sich darum auch nicht kümmern müssen. Er will einfach seine Fotos auf dem Rechner speichern.

Wer richtet so einen Mist ein? Früher hat man mal gesagt, man solle System und Daten trennen, um leichter eine Datensicherung zu machen. Dafür braucht man heutzutage aber keine Partitionen mehr, dafür gibt es das Benutzer-Verzeichnis. Wenn man eine kleine SSD UND eine große Festplatte im PC stecken hat, dann kann so eine Trennung sinnvoll sein. Aber dann sollte das System so konfiguriert sein, daß es auch tatsächlich zu speichern von Daten “D” benutzt, ansonsten hat der Hersteller geschlampt.

Ich gehe aber noch einen Schritt weiter und unterstellte dem Hersteller Absicht. Der kann auf dem Karton oder in der Online-Anzeige mit einer 800 GB-Festplatte werben. Dem unbedarften Nutzer stehen davon aber nur 10% zu Verfügung. Wenn er dann merkt, daß der Platz zu neige geht, braucht er wohl einen neuen Rechner.

Ich habe dem Verwandten es jetzt so eingerichtet, daß seine Bilder- und Videoverzeichnisse auf “D” liegen und ihm so reichlich Platz geschaffen. Besser wäre es natürlich gewesen, die Partitionen zu verschmelzen. – Vielleicht ein anderes Mal.