RIP Bitcoin

Bitcoin ist tot. Zumindest viele grundlegende Ideen dahinter.

Bitcoin sollte Schwächen von konventionellen Zahlungsmitteln abschaffen, etwa eine Dezentralisierung des Geldsystems durch die Blockchain. Das ist grandios gescheitert. Vor Jahren haben noch viele Menschen, bzw. deren Rechner, am Schürfen von Bitcoins von Verifizieren von Transaktionen mitgearbeitet. Heute sind das nur noch wenige Serverfarmen, die mit einem immensen technischen Aufwand und einem gigantischen Stromverbrauch an der Blockchain herum rechnen. Sollte jemand Zugriff auf mehr als die Hälfte der Rechenkapazität des Bitcoin-Mining-Netzes haben, so kann dieser theoretisch auch Transaktionen fälschen. Diese Gefahr rückt in immer.

Und da rein konzeptionell das Mining immer schwieriger wird, ist es sehr unwahrscheinlich, daß sich die Situation grundlegend ändern wird.

Auch die Leistungsfähigkeit des Netzwerkes zur Zahlungsabwicklung ist immer noch schwach. Zwar gab es schon einige Verbesserungen, die mehr Transaktionen pro Sekunde erlauben. Sollte Bitcoin irgendwann mal als Zahlungsmittel richtig durchstarten sollen, müssten da noch gravierende Veränderungen geschehen. Hin und wieder gibt es mal Forks, die neue Ideen einbringen. Allerdings gibt es noch eine weitere Kryptowährung, die niemand wirklich braucht.

Aktuell ist Bitcoin (BTC) nur dadurch so erfolgreich, das es ein gutes Spekulationsobjekt ist. Dadurch kommt es auch immer wieder in die Schlagzeilen. Es kann sein, daß man selbst jetzt noch gut mit BTC spekulieren kann, aber es ist eine riesige Blase, die irgendwann platzen wird. Wer da nicht rechtzeitig aussteigt, kann alles verlieren. Einige Bitcoinbefürworter widersprechen dem zwar, denn sie argumentieren, daß dadurch daß die Summe aller Bitcoins begrenzt ist eine Deflation zum Prinzip dazugehört.

Irgendwann wird es sich nicht mehr lohnen BTC zu schürfen. Die Kosten dafür sind durch die Technik und vor allem durch den Strom exorbitant hoch. Dann soll sich das Ganze System durch die Transaktionsgebühren finanzieren. Wenn allerdings keine nennenswerten Zahlungen mit Bitcoin durchgeführt werden, gibt es nicht genug Transaktionsgebühren. Spätestens dann ist Bitcoin tot.

Tastentöne

Woher kommt eigentlich diese Unsitte mit den Tastentönen? Wer braucht eine auditive Rückmeldung, daß er gerade einen Knopf gedrückt hat?

Ich vermute mal, das Ganze hat den Ursprung im Mehrfrequenzwahlverfahren bei Telefonen. Dort gab es für jeden Taste einen speziellen Wählton. In Deutschland war das lange Zeit nicht so verbreitet, da hier oft das Impulswahlverfahren benutzt wurde. Beim Telefon war es also einfach eine technische Notwendigkeit. Aber muß jedes Mobiltelefon, jeder Fotoapparat oder jeder Fernseher einen Tastendruck akustisch quittieren?

Mich stört das Ganze und das erste was ich bei neuen Geräten mache, ist eventuelle Tastentöne abzustellen. Denn gerade wenn ein Gerät neu ist, will man es doch ausprobieren, alle Menüs durchsuchen, alle Knöpfe und Schaltflächen drücken. Und wenn dann immer ein leiser Piep kommt, nervt das nur ungemein.

Ich bin für eine Opt-In-Lösung. Von mir aus dürfen diese Geräte die Fähigkeit haben Tastentöne abzusondern, aber diese Option sollte standardmäßig deaktiviert sein. Falls es tatsächlich irgendwo einen Menschen geben sollte, der unbedingt diese Töne braucht, kann er sie ja anschalten.

RIP Flattr

Ich habe Flattr gerne benutzt. Es war ein Dienst, über den man kleine Geldbeträge etwa Inhalteproduzenten, wie etwa Verlagen oder Podcastern, zukommen lassen konnte. Man hat monatlich ein festen Betrag als Budget festgelegt, den man ausgeben wollte. Fand man einen Beitrag im Web gut und hat der Anbieter Flattr unterstützt, so konnte man diesen Beitrag durch den entsprechenden Button „flattrn“. Am Monatsende wurde das monatliche Budget auf alle Flattrs gleichmäßig verteilt.

Das Prinzip finde ich sehr gut. Man kann einerseits Inhalte im Web bezahlen (ohne das man das muß) und gleichzeitig sieht der der Anbieter, welche Beiträge besonders gefallen haben.

Leider hat Flattr sich selbst kaputt gemacht. Es gab einmal einen Relaunch, nach dem aber längst nicht mehr alle vorherigen Funktionalitäten zur Verfügung standen. So gab es etwa keine E-Mails mehr, etwa über die monatlichen Flattrs oder eine Benachrichtigung, daß man wieder Geld einzahlen sollte. Auch die Webseite ließ zu Wünschen übrig. Der endgültige Todesstoß kam dann aber, als bekannt wurde, daß Eyeo Flattr übernimmt.

Eyeo ist die Firma hinter dem Browser-Plugin Adblock-Plus. Eyeo hat das Geschäftsmodell entwickelt, daß Werbung geblockt wird, aber das man sich von diesem Blocken freikaufen kann. Ich finde das moralisch doppelt verwerflich. Als Nutzer nutze ich einen Adblocker, weil ich eben KEINE Werbung haben möchte. Lässt er absichtlich etwas durch, ich das nicht in Ordnung. Wäre ich jemand der Online-Werbung schaltet, hätte für mich das Angebot meine Werbung gegen Bezahlung eines bestimmten Betrages doch nicht zu blocken, irgendwie den Anschein einer digitalen Wegelagerei.

Aber nein! Eyeo tut „natürlich“ auch was für das Geld. Sie prüfen nämlich, ob die Werbung ihren Richtlinien für nichtnervende Werbung entspricht, und DIESER Aufwand kostet Geld.

Also für mich ist das höchst unseriös. Ich habe deswegen meinen Flattr-Account gelöscht. Ich bin mir allerdings nicht sicher ob, die Löschung geklappt hat. Es kam keine weitere Meldung, aber ich kann mich auch nicht mehr einloggen. Naja, so ist das halt bei vielen Diensten. Account löschen bedeutet eher nur, ihn zu deaktivieren. Die schönen Kundendaten will man ja weiterhin behalten.


Nachtrag 13.10.2017

Flattr will den eigenen Tod noch beschleunigen, indem sie nur noch US-Dollar als Währung führen und nur noch Kreditkarten als Zahlungsmittel akzeptieren. Das Umrechnen von Währungen beherrschen sie wohl nicht und habe auch nicht erkannt, daß der Dollar immer mehr an Bedeutung verliert.

So Long, and Thanks for All the Fish

Firefox und die Addons

Ich nutze schon eine Ewigkeit Firefox. Ganz früher habe ich den Internet Explorer genutzt, weil er einfach kostenlos war. Die damalige Alternative, der Netscape Browser, war nämlich zwischendurch auch mal kostenpflichtig gewesen. Und dann bin ich nicht gewechselt, weil Netscape immer riesiger und bohrte sich so tief ins Betriebssystem wir vorher vor die AOL- oder T-Online-Software.

Dann bekam ich den Tipp, ich solle doch mal Firefox ausprobieren. Den kann man auch leicht wieder runterwerfen, ohne das ganze System zu beschädigen und der Download ist auch nur ein paar Megabyte groß. – Irgendwie hatte ich im Gedächtnis, daß mir jemand sagte, die Datei passe sogar auf eine Diskette (1,44 MB). Diese Erinnerung war aber falsch.

Nun bin ich noch immer Firefox-Nutzer, weil ich gerne freie Software nutze, aber Google-Software generell nicht vertraue.

Firefox ist ja auch durch seine Addons so flexibel geworden. Für fast jede individuelle Fragestellung gab es, mindestens, ein Plugin 1 Der Firefox-Hersteller Mozilla hat aber die Schnittstellen für die Addons immer mal wieder geändert, so daß manche Addons nicht mehr funktionierten, da die Entwickler die Umstellung auf die neue Schnittstelle nicht leisten konnten oder wollten.

Nun will Mozilla diesem Plugin-Sterben ein Ende bereiten. Wie? [Trommelwirbel, Tada!] Mit einer neuen Addon-Schnittstelle!

Randall Munroe, xkcd.com

Aktuell in Firefox 55 gibt es noch beide Schnittstellen. Die alte im November 2017, wenn Firefox 57 erscheint, abgeschaltet werden. Die alten Addons werden dann nicht mehr funktionieren.

Ich habe hier zehn Addons installiert. Von diesen zehn unterstützt nur ein einziges bereits die neue Schnittstelle. Wenn sich die Entwickler nicht noch ins Zeug legen, werden in zwei Monaten viele Dinge nicht mehr funktionieren.

Ich weiß nicht, ob Mozilla sich damit einen Gefallen macht. Firefox wird ja zunehmend von Google Chrome und Microsoft Edge verdrängt. Sollte ein Großteil der Addons in absehbarer Zeit nicht mehr funktionieren, verliert Firefox weiter an Attraktivität.

Wir bekommen FTTH

Die Deutsche Telekom versucht ja immer wieder gegen den großflächigen Ausbau von Glasfasernetzen bis ins Gebäude anzureden. Mal warnt sie vor den hohen Kosten oder behauptet, auch mit der alten Kupferdoppelader kann man schnell Daten übertragen und dann plötzlich wird gesagt, die Telekom sei ja überhaupt der Betreiber des größten Glasfasernetzes Deutschlands.

Ich verstehe nicht, wie sich ein Unternehmen sich FTTH (Fibre-to-the-home) (also die Glasfaser bis direkt zur Wohnung) so vehement verweigert. Man kann vielleicht mit etwas Glück aus dem Kupferkabel noch etwas rausquetschen, aber eben auch nur für die Haushalte, wo der Verteilerkasten in der Nähe und selbst mit Glasfaser angebunden ist. Zukunftsfähig ist die Technik ist. Das Ende der Kupferdoppelader ist unaufhaltsam. Nur Glasfaser verspricht auch noch in 10 oder 20 Jahren noch zeitgemäße Übertragungsraten. Aktuell werden meistens Pakete mit höchstens „nur“ 1 GBit/s angeboten. Technisch ist auf der Faser, auch schon jetzt, viel mehr möglich.

Nun soll bei uns (fast) der gesamte Kreis mit Glasfaser versorgt werden. Dazu hat der Zweckverband eine neue Sparte gegründet, dem die meisten Gemeinden beigetreten sind. Die anderen Gemeinden planen ihre eigene Lösung. Der Zweckverband hat eine Ausschreibung erstellt und Fördermittel eingeworben. Insgesamt hat das Projekt ein Volumen von ca. 100 Millionen Euro, der Bundeszuschuß beträgt 75 Millionen und vom Land kommen noch einmal 15 Millionen Euro. Aus der Ausschreibung kam ein regionaler Anbieter heraus, der das Netz bauen und betreiben wird. Das Netz selbst wird dem Zweckverband gehören und dieser verpachtet es dann den Betreiber.

Das komplette Ausbaugebiet wird in verschiedene Gebiete, sogenannte Cluster, unterteilt. Jeder Cluster wird für den Ausbau für sich betrachtet. Um die Förderung für einen Cluster zu erhalten, muß der Betreiber in diesem Bereich 100% aller Haushalte Glasfaser zur Verfügung stellen, auch dem abgelegensten Bauernhof. Damit sich das wirtschaftlich rechnet, soll im Vorfeld eine Anschlußquote von 60% erreicht werden. Also wenn 60% aller Haushalte einen Glasfaseranschluß haben wollen und einen entsprechenden Vertrag abschliessen, wird dieser Cluster zu 100% ausgebaut.

Die Fördermittel gibt es aber nur für Haushalte, die breitbandmäßig unterversorgt sind. Nach aktueller Definition sind dies Anschlüsse mit weniger als 30 MBit/s. Das sind die sogenannten weißen Flecken. Die Bereiche denen mehr als 30 MBit/s zur Verfügung stehen, sind die schwarzen Flecken. Die werden wohl auch ausgebaut, allerdings gibt es dort keine Fördermittel. Bei einer genauen Betrachtung kam aber heraus, daß manche Haushalte in den schwarzen Flecken gar nicht die versprochene Bandbreite erreichen. Die schwarzen Flecken sind also tatsächlich kleiner, als angenommen.

Neulich gab es bei uns im Dorf eine Infoveranstaltung, bei der die Pläne vorgestellt wurden. Das ganze soll relativ zeitnah umgesetzt werden. Wir sind in der zweiten Ausbaustufe. Bis Mitte Dezember sollen die 60% Zustimmung erreicht werden. Und dann würde der Bereich innerhalb von 6 bis 9 Monaten komplett mit Glasfaser versorgt werden. Die ganze Konditionen sind wirklich sehr gut. Der neue Anschluß wird etwa mit 300 MBit/s nicht mehr kosten als mein jetziger Anschluß mit 2,5 MBit/s. Bei Vertragsabschluß bis Mitte Dezember entfallen auch Anschlußgebühren und die ersten 20 Meter Erdbauarbeiten auf dem eigenen Grundstück sind frei.

Für Applaus hat bei der Infoveranstaltung die Aussage gesorgt, daß man den Internetanschluß sofort nutzen könnte, wenn er angeschlossen ist. Die Gebühren würden aber erst erhoben, wenn der Telefonanschluß von der Telekom auf den neuen Betreiber übergegangen ist. Ich finde das wirklich äußerst kulant, besonders wenn man bedenkt, daß die Telekom ja gerne mal den einen oder anderen Kunden verwirren will und einen neuen Vertrag mit neuer Laufzeit andrehen will.

G20 offenbart Datenchaos in Verbrecherdateien

„Wer nichts zu verbergen hat, hat nichts zu befürchten“ lautet ja immer das Credo der Überwachungsbefürworter. Daß das nicht stimmt, habe ich hier ja schon mehrfach dargelegt. Bei Überwachung durch staatliche Stellen werden außerdem die angeblich ach so strengen gesetzlichen Regelungen hervorgehoben, die Mißbrauch und Fehler qua Gesetz praktisch unmöglich machen.

Während des G20-Gipfels wurden ja einigen Journalisten, die Akkreditierungen entzogen. Zu den Gründen hielt man sich bedeckt. Nun ist ans Tageslicht gekommen, daß es bei manchen Reporten, keine Gründe gab, die Zulassung zu entziehen. Die Datenbasis, auf Grund die Entscheidungen fielen, war in mehrfacher Hinsicht fehlerhaft. Es wurden dort Vermutungen oder Beschuldigungen erfasst, die nie gerichtlich überprüft wurden.

So wurde einem Reporter „Herbeiführung einer Sprengstoffexplosion“ unterstellt. Er befand sich während einer Demo als Berichterstatter in der Nähe eines gezündeten Feuerwerkskörper. Die Staatsanwaltschaft hatte damals ein Verfahren gegen ihn eingestellt. In den Daten der Ermittlungsbehörden war dieser Vorwurf noch vorhanden, als Tatsache.

Bei einem Journalisten gab es „einfach“ eine Namensverwechslung. Ein Namensvetter ist als sogenannter Reichsbürger in Erscheinung getreten. Das sind ja schon Bild-Zeitungs-Methoden, die im Internet nach Fotos von (mutmaßlichen) Verbrechern oder Opfern suchen und dabei schon mal Portraits von dem falschen Facebookprofil geklaut haben.

Und das sind alles Daten mit denen unserer Sicherheistbehörden arbeiten. Chaos, Schlamperei, Vorsatz, Unfähigkeit? Man weiß gar nicht welche Wörter man dafür benutzen soll. Es zeigt nur, daß der Staat eben nicht unfehlbar ist und die Datensammlung nicht automatisch dadurch sicher sind, daß der Staat sie verwaltet. Man mag gar nicht daran denken, welche Fehlschlüsse noch alles gespeichert werden, wenn immer mehr Daten automatisiert erfasst werden, etwa durch die Vorratsdatenspeicherung.

Stomausfall – und dann?

Zur Zeit läuft auf 3sat die achtteilige Reihe „Blackout“; eine fiktive Dokumentation über einen tagelangen Stromausfall in Europa.

Ich habe schon vor einiger Zeit das Buch „Blackout – Morgen ist es zu spät“ von Marc Elsberg gelesen und war erschüttert, welche Auswirkungen ein längerer großflächiger Stromausfall haben kann. In wenigen Tagen versinkt die Zivilisation im Chaos. Man muß ja nicht gleich zum Prepper werden, aber man sollte sich doch mal Gedanken machen, wie man eine solche Situation angehen kann. Natürlich macht es einen großen Unterschied, wie lange der Strom ausfällt, je länger der Ausfall andauert umso bedeutend schwieriger wird es, mit der Situation klar zu kommen. Nach dem Schneechaos 2005 im Münsterland und dem damit einhergehenden Stromausfall haben sich meine damaligen Vermieter ein Notstromaggregat gekauft, damit sie zumindest die Heizung betreiben können.

Ohne Strom funktionieren nicht nur unsere heimischen Geräte nicht, sondern etwa auch die der Energie- und Wasserversorger, so wird dann auch irgendwann die Wasserversorgung zusammenbrechen. Auch die Benzin- und Dieselversorgung wird nicht mehr funktionieren. Wichtige Bereiche werden zwar mit Notstromgeneratoren abgesichert, aber auch die haben nur einen Treibstoffvorrat für eine bestimmte Zeit und wenn dann dann kein Nachschub geliefert werden kann, da die Pumpen an den Tankstellen nicht funktionieren, wird auch damit irgendwann Schluß sein.

Auch nahezu unsere gesamte Kommunikation wird wegfallen. Vielleicht wird es noch eingeschränkt Rundfunk gehen, aber wer hat, außer im Auto noch ein UKW-Radio, welches er mit Batterien betreiben kann? An dieser Stelle möchte ich auf eine Ungereimtheit in den ersten beiden Folge der 3sat-Reihe hinweisen. Ein Rolle spielt auch das Fernsehen bzw. der Rundfunk. Dort gab es auch Notstrom um den Sendebetrieb aufrecht zu erhalten. Allerdings gab es eine Szene, in der an einem Radio der Sender gewechselt wurde und auf dem einen Sender lief Musik. Ich kann mir nicht vorstellen, daß man in so einer Situation den knappen Strom nutzen wird, um ein Unterhaltungsprogramm auszustrahlen. Die Information der Bevölkerung ist doch das Wichtigste.

Im ersten Teil der 3sat-Reihe sieht man wie eine Familie viele Kerzen anzündet, um es im Haus ein wenig heller zu machen. Wenn man wüsste, daß der Stromausfall deutlich länger dauern wird, würde man mit diesen Ressourcen sicherlich besser haushalten. Aber bei einem Stromausfall. Ich bin mal gespannt, wie lange der Akku in dem iPad aushält, mit dem die Tochter die Situation dokumentiert.

Die Serie zeigt aber nicht nur die ganz großen naheliegenden Auswirkungen des Ausfalls, sondern auch andere, die für die Betroffenen durchaus deutliche Auswirkungen haben. So funktioniert in einem Altersheim etwa die Rufanlage nicht mehr, so daß man eigentlich nachts mehr Personal bräuchte um Wache zu halten.

Ich sehe die Gefahr eines langen Stromausfalls durchaus als realistisches Szenario. Die Steuerung des Netzes wird durch die Dezentralisierung sicher nicht einfacher, aber ich sehe hier auch Chancen, daß bei einem Komplettausfall mehr Stominseln geben wird, die sich autark versorgen können.

Responsives Webdesign

Webdesigner setzten ja heutzutage auf „responsives Design“, das bedeutet, daß Websiten auf unterschiedlichen Geräten mit verschiedenen Bildschirmgrößen immer optimal dargestellt werden. Dahinter steckt nicht nur SEO-Schwachsinn, sondern einfach die technische Möglichkeit, den Nutzer eine les- und nutzbare Webseite zu präsentieren.

Flash ist im Web ja glücklicherweise mittlerweile so gut wie tot. Allerdings benutzen viele Webdesigner andere Techniken, die sicherheits- und datenschutzmäßig sehr bedenklich sind. Da werden Javascript-Bibliotheken von verschiedenen Servern geladen, APIs von externen Dienstleistern eingebunden und aktive Elemente noch und nöcher eingesetzt. Klar das heutige Web ist nicht mehr das von 1995. Aber für mich ist eine gute Website, eine, die mir auch Informationen anzeigt, wenn ich ohne aktives Javascript unterwegs bin und nicht zu Zugriff von x weiteren Webservern zulasse. DAS ist für mich respsonsives Design. Und damit meine ich gar nicht mal die Seiten, die externe Werbung einblenden, die sind noch viel schlimmer.

Wer sich mal im Browser mit diversen Tools ansieht, von welchen Servern überall Seitenelemente geladen werden, wird staunen. Google ist Standard, oft auch Facebook oder Twitter. Mit jeder Anfrage erhalten auch diese Serverbetreiber auch Informationen darüber das man sich gerade eine bestimmte Webseite ansieht. Oft versuchen diese Dritt-Server ebenfalls Cookies abzulegen. Mein Browser ist relativ restriktiv eingestellt. Ich lehne Cookies ab und lasse sie nur in Ausnahmefällen zu. Des weiteren nutze ich NoScript, das die Freigabe von Javascript steuert, und uMatrix. Letzteres läßt zunächst nur Anfragen vom eigentlichen Server durch. Für Drittserver kann man explizit freischalten, welche Elemente nachgeladen werden dürfen. Es ist erschreckend, wie viel man oft freigeben muß, damit die Seite überhaupt irgendwas anzeigt; manchmal erhält man aber auch falsche Fehlermeldung wie etwa „Ihr Browser ist nicht aktuell“. Für mich ist das immer ein Zeichen, daß die Webdesigner ihren Job nicht verstehen. Es gibt aber auch immer wieder positive Ausnahmen, der Seiten auch ohne weiteren Freigaben funktionieren.

Warum müssen etwa Javascriptbibliotheken immer extern geladen werden? Wenn man sie selbst hostet, steht sie immer zur Verfügung, auch wenn der externe Server gerade nicht erreichbar ist. Außerdem kann man sich sicher sein, daß nicht plötzlich eine neue Version der Bibliothek online ist, die plötzlich inkompatibel ist.

Vielleicht kommt ja mal Google darauf, Seiten danach zu bewerten, wie datensparsam sie sind und wie viele externe Server sie kontaktieren. Dann hätten die ganzen SEO-Leute wieder eine Menge zu tun und würden dabei gleich etwas Gutes machen.

Kündigung web.de

Weil ich ja alle meine Verträge bei United Internet auflöse, muß also auch mein altes web.de-E-Mail-Konto dran glauben.

Eigentlich habe ich es nie benutzt; nur ab und zu als Testaccount. Es war auch stets unzeitgemäß. Ich weiß die genauen Zahlen nicht mehr, aber Dateianhänge durften nicht größer als 2 MB sein und das ganze Postfach nicht mehr als 20 MB. Der Abruf per E-Mail-Programm per POP3 war nur alle 10 Minuten gestattet. Wollte man mehr, musste man  „Club-Mitglied“ werden, also ein kostenpflichtigen Vertrag abschließen.

Trotz der seltenen Nutzung ist relativ viel Spam eingetrudelt. Highlight war aber, das eine reale Baufirma ihre E-Mail-Adresse nicht kannte und hin und wieder meine web.de-Adresse angegeben hat. So bekam ich nicht nur regelmäßig Werbung für Baumaschinen, sondern auch hin und wieder mal eine Ausschreibung für Straßenbauarbeiten. Einmal kamen sogar Mahnungen an diese Firma, eskalierend von der ersten Mahnung bis nach einigen Wochen Androhung von einem Mahnbescheid. Tja, wenn die Baufirma zu doof ist, ihre eigene E-Mail-Adresse anzugeben und der Lieferant so doof ist, eine falsche E-Mail-Adresse zu benutzen…

Die Kündigung ging übrigens problemlos vonstatten. Die Registrierung damals war deutlich aufwendiger. Man bekam sogar einen Brief per Post mit einem Aktivierungscode, um die Anschrift zu überprüfen.

Ich werde aber weder die Baumaschinenangebote noch web.de vermissen.

Glasfaser als Selbstzweck

Wenn irgendwo Breibandausbau mit Glasfaser stattfindet, ist die Deutsche Telekom selten dabei. Eigentlich komisch. Hier bei uns gab es ein Ausschreibungsverfahren, welcher Zugangsanbieter das Netz des örtlichen Versorgers betreiben will. Das wird woanders ähnlich sein, aber es ist meistens NICHT die Telekom.

Die Telekom versucht ja ihr altes Kupferkabel weiter an den Mann zu bringen und will mit Vectoring nicht nur das letzte aus der Doppelader rausquetschen, sondern auch gleich die Wettbewerber von ihren Kabeln verbannen.

Nun spricht sich der Telekom-Vorstand Van Damme gegen den im Koalitionsvertrag der künftigen Nordrhein-Westfälischen Landesregierung präferieren Glasfaserausbau aus.

„Glasfaser dürfe nicht zum Selbstzweck werden“ – Nein, aber nur Glasfaser hat genug Potential um auch noch in Jahrzehnten ausreichend Bandbreite zu übertragen.

„Bis 2018 können durch die Telekom 95 % der Haushalte mit mindestens 50 Megabit versorgt werden.“ – Und was ist mit den restlichen 5%? Die fallen dann mal wieder unter den Tisch. Beim hiesigen Ausbau werden 100% aller Haushalte einen Anschluß erhalten können, auch abgelegene Höfe.

„Bis Ende 2018 sollen 86% Anschlüsse eine Bandbreite von bis zu 100 Megabit erhalten können“. – „Bis zu“ diese Fomulierung kennt ja bereits, auch ISDN-Geschwindigkeit fällt darunter. Und was ist hier wieder mit dem Rest?

Das Ende des Kupferkabels ist unabwendbar. Rein technisch sind zwar noch höhere Geschwindigkeiten möglich, mit denen die Telekom auch gerne mal öffentlichkeitswirksam wirbt, allerdings dürfen die Entfernungen zwischen Verteilerkasten und Hausanschluss immer kürzer werden. Dieser ganze VDSL-Vectoring-Kram mag ja eine Übergangslösung sein, langfristig ist das aber eine Sackgasse. Die Telekom muß endlich mal einsehen, daß sie mit ihrem Kupferkabel ein totes Pferd reiten; ansonsten werden sie der große Verlierer sein.