Firefox und die Addons

Ich nutze schon eine Ewigkeit Firefox. Ganz früher habe ich den Internet Explorer genutzt, weil er einfach kostenlos war. Die damalige Alternative, der Netscape Browser, war nämlich zwischendurch auch mal kostenpflichtig gewesen. Und dann bin ich nicht gewechselt, weil Netscape immer riesiger und bohrte sich so tief ins Betriebssystem wir vorher vor die AOL- oder T-Online-Software.

Dann bekam ich den Tipp, ich solle doch mal Firefox ausprobieren. Den kann man auch leicht wieder runterwerfen, ohne das ganze System zu beschädigen und der Download ist auch nur ein paar Megabyte groß. – Irgendwie hatte ich im Gedächtnis, daß mir jemand sagte, die Datei passe sogar auf eine Diskette (1,44 MB). Diese Erinnerung war aber falsch.

Nun bin ich noch immer Firefox-Nutzer, weil ich gerne freie Software nutze, aber Google-Software generell nicht vertraue.

Firefox ist ja auch durch seine Addons so flexibel geworden. Für fast jede individuelle Fragestellung gab es, mindestens, ein Plugin 1 Der Firefox-Hersteller Mozilla hat aber die Schnittstellen für die Addons immer mal wieder geändert, so daß manche Addons nicht mehr funktionierten, da die Entwickler die Umstellung auf die neue Schnittstelle nicht leisten konnten oder wollten.

Nun will Mozilla diesem Plugin-Sterben ein Ende bereiten. Wie? [Trommelwirbel, Tada!] Mit einer neuen Addon-Schnittstelle!

Randall Munroe, xkcd.com

Aktuell in Firefox 55 gibt es noch beide Schnittstellen. Die alte im November 2017, wenn Firefox 57 erscheint, abgeschaltet werden. Die alten Addons werden dann nicht mehr funktionieren.

Ich habe hier zehn Addons installiert. Von diesen zehn unterstützt nur ein einziges bereits die neue Schnittstelle. Wenn sich die Entwickler nicht noch ins Zeug legen, werden in zwei Monaten viele Dinge nicht mehr funktionieren.

Ich weiß nicht, ob Mozilla sich damit einen Gefallen macht. Firefox wird ja zunehmend von Google Chrome und Microsoft Edge verdrängt. Sollte ein Großteil der Addons in absehbarer Zeit nicht mehr funktionieren, verliert Firefox weiter an Attraktivität.

Wir bekommen FTTH

Die Deutsche Telekom versucht ja immer wieder gegen den großflächigen Ausbau von Glasfasernetzen bis ins Gebäude anzureden. Mal warnt sie vor den hohen Kosten oder behauptet, auch mit der alten Kupferdoppelader kann man schnell Daten übertragen und dann plötzlich wird gesagt, die Telekom sei ja überhaupt der Betreiber des größten Glasfasernetzes Deutschlands.

Ich verstehe nicht, wie sich ein Unternehmen sich FTTH (Fibre-to-the-home) (also die Glasfaser bis direkt zur Wohnung) so vehement verweigert. Man kann vielleicht mit etwas Glück aus dem Kupferkabel noch etwas rausquetschen, aber eben auch nur für die Haushalte, wo der Verteilerkasten in der Nähe und selbst mit Glasfaser angebunden ist. Zukunftsfähig ist die Technik ist. Das Ende der Kupferdoppelader ist unaufhaltsam. Nur Glasfaser verspricht auch noch in 10 oder 20 Jahren noch zeitgemäße Übertragungsraten. Aktuell werden meistens Pakete mit höchstens „nur“ 1 GBit/s angeboten. Technisch ist auf der Faser, auch schon jetzt, viel mehr möglich.

Nun soll bei uns (fast) der gesamte Kreis mit Glasfaser versorgt werden. Dazu hat der Zweckverband eine neue Sparte gegründet, dem die meisten Gemeinden beigetreten sind. Die anderen Gemeinden planen ihre eigene Lösung. Der Zweckverband hat eine Ausschreibung erstellt und Fördermittel eingeworben. Insgesamt hat das Projekt ein Volumen von ca. 100 Millionen Euro, der Bundeszuschuß beträgt 75 Millionen und vom Land kommen noch einmal 15 Millionen Euro. Aus der Ausschreibung kam ein regionaler Anbieter heraus, der das Netz bauen und betreiben wird. Das Netz selbst wird dem Zweckverband gehören und dieser verpachtet es dann den Betreiber.

Das komplette Ausbaugebiet wird in verschiedene Gebiete, sogenannte Cluster, unterteilt. Jeder Cluster wird für den Ausbau für sich betrachtet. Um die Förderung für einen Cluster zu erhalten, muß der Betreiber in diesem Bereich 100% aller Haushalte Glasfaser zur Verfügung stellen, auch dem abgelegensten Bauernhof. Damit sich das wirtschaftlich rechnet, soll im Vorfeld eine Anschlußquote von 60% erreicht werden. Also wenn 60% aller Haushalte einen Glasfaseranschluß haben wollen und einen entsprechenden Vertrag abschliessen, wird dieser Cluster zu 100% ausgebaut.

Die Fördermittel gibt es aber nur für Haushalte, die breitbandmäßig unterversorgt sind. Nach aktueller Definition sind dies Anschlüsse mit weniger als 30 MBit/s. Das sind die sogenannten weißen Flecken. Die Bereiche denen mehr als 30 MBit/s zur Verfügung stehen, sind die schwarzen Flecken. Die werden wohl auch ausgebaut, allerdings gibt es dort keine Fördermittel. Bei einer genauen Betrachtung kam aber heraus, daß manche Haushalte in den schwarzen Flecken gar nicht die versprochene Bandbreite erreichen. Die schwarzen Flecken sind also tatsächlich kleiner, als angenommen.

Neulich gab es bei uns im Dorf eine Infoveranstaltung, bei der die Pläne vorgestellt wurden. Das ganze soll relativ zeitnah umgesetzt werden. Wir sind in der zweiten Ausbaustufe. Bis Mitte Dezember sollen die 60% Zustimmung erreicht werden. Und dann würde der Bereich innerhalb von 6 bis 9 Monaten komplett mit Glasfaser versorgt werden. Die ganze Konditionen sind wirklich sehr gut. Der neue Anschluß wird etwa mit 300 MBit/s nicht mehr kosten als mein jetziger Anschluß mit 2,5 MBit/s. Bei Vertragsabschluß bis Mitte Dezember entfallen auch Anschlußgebühren und die ersten 20 Meter Erdbauarbeiten auf dem eigenen Grundstück sind frei.

Für Applaus hat bei der Infoveranstaltung die Aussage gesorgt, daß man den Internetanschluß sofort nutzen könnte, wenn er angeschlossen ist. Die Gebühren würden aber erst erhoben, wenn der Telefonanschluß von der Telekom auf den neuen Betreiber übergegangen ist. Ich finde das wirklich äußerst kulant, besonders wenn man bedenkt, daß die Telekom ja gerne mal den einen oder anderen Kunden verwirren will und einen neuen Vertrag mit neuer Laufzeit andrehen will.

G20 offenbart Datenchaos in Verbrecherdateien

„Wer nichts zu verbergen hat, hat nichts zu befürchten“ lautet ja immer das Credo der Überwachungsbefürworter. Daß das nicht stimmt, habe ich hier ja schon mehrfach dargelegt. Bei Überwachung durch staatliche Stellen werden außerdem die angeblich ach so strengen gesetzlichen Regelungen hervorgehoben, die Mißbrauch und Fehler qua Gesetz praktisch unmöglich machen.

Während des G20-Gipfels wurden ja einigen Journalisten, die Akkreditierungen entzogen. Zu den Gründen hielt man sich bedeckt. Nun ist ans Tageslicht gekommen, daß es bei manchen Reporten, keine Gründe gab, die Zulassung zu entziehen. Die Datenbasis, auf Grund die Entscheidungen fielen, war in mehrfacher Hinsicht fehlerhaft. Es wurden dort Vermutungen oder Beschuldigungen erfasst, die nie gerichtlich überprüft wurden.

So wurde einem Reporter „Herbeiführung einer Sprengstoffexplosion“ unterstellt. Er befand sich während einer Demo als Berichterstatter in der Nähe eines gezündeten Feuerwerkskörper. Die Staatsanwaltschaft hatte damals ein Verfahren gegen ihn eingestellt. In den Daten der Ermittlungsbehörden war dieser Vorwurf noch vorhanden, als Tatsache.

Bei einem Journalisten gab es „einfach“ eine Namensverwechslung. Ein Namensvetter ist als sogenannter Reichsbürger in Erscheinung getreten. Das sind ja schon Bild-Zeitungs-Methoden, die im Internet nach Fotos von (mutmaßlichen) Verbrechern oder Opfern suchen und dabei schon mal Portraits von dem falschen Facebookprofil geklaut haben.

Und das sind alles Daten mit denen unserer Sicherheistbehörden arbeiten. Chaos, Schlamperei, Vorsatz, Unfähigkeit? Man weiß gar nicht welche Wörter man dafür benutzen soll. Es zeigt nur, daß der Staat eben nicht unfehlbar ist und die Datensammlung nicht automatisch dadurch sicher sind, daß der Staat sie verwaltet. Man mag gar nicht daran denken, welche Fehlschlüsse noch alles gespeichert werden, wenn immer mehr Daten automatisiert erfasst werden, etwa durch die Vorratsdatenspeicherung.

Stomausfall – und dann?

Zur Zeit läuft auf 3sat die achtteilige Reihe „Blackout“; eine fiktive Dokumentation über einen tagelangen Stromausfall in Europa.

Ich habe schon vor einiger Zeit das Buch „Blackout – Morgen ist es zu spät“ von Marc Elsberg gelesen und war erschüttert, welche Auswirkungen ein längerer großflächiger Stromausfall haben kann. In wenigen Tagen versinkt die Zivilisation im Chaos. Man muß ja nicht gleich zum Prepper werden, aber man sollte sich doch mal Gedanken machen, wie man eine solche Situation angehen kann. Natürlich macht es einen großen Unterschied, wie lange der Strom ausfällt, je länger der Ausfall andauert umso bedeutend schwieriger wird es, mit der Situation klar zu kommen. Nach dem Schneechaos 2005 im Münsterland und dem damit einhergehenden Stromausfall haben sich meine damaligen Vermieter ein Notstromaggregat gekauft, damit sie zumindest die Heizung betreiben können.

Ohne Strom funktionieren nicht nur unsere heimischen Geräte nicht, sondern etwa auch die der Energie- und Wasserversorger, so wird dann auch irgendwann die Wasserversorgung zusammenbrechen. Auch die Benzin- und Dieselversorgung wird nicht mehr funktionieren. Wichtige Bereiche werden zwar mit Notstromgeneratoren abgesichert, aber auch die haben nur einen Treibstoffvorrat für eine bestimmte Zeit und wenn dann dann kein Nachschub geliefert werden kann, da die Pumpen an den Tankstellen nicht funktionieren, wird auch damit irgendwann Schluß sein.

Auch nahezu unsere gesamte Kommunikation wird wegfallen. Vielleicht wird es noch eingeschränkt Rundfunk gehen, aber wer hat, außer im Auto noch ein UKW-Radio, welches er mit Batterien betreiben kann? An dieser Stelle möchte ich auf eine Ungereimtheit in den ersten beiden Folge der 3sat-Reihe hinweisen. Ein Rolle spielt auch das Fernsehen bzw. der Rundfunk. Dort gab es auch Notstrom um den Sendebetrieb aufrecht zu erhalten. Allerdings gab es eine Szene, in der an einem Radio der Sender gewechselt wurde und auf dem einen Sender lief Musik. Ich kann mir nicht vorstellen, daß man in so einer Situation den knappen Strom nutzen wird, um ein Unterhaltungsprogramm auszustrahlen. Die Information der Bevölkerung ist doch das Wichtigste.

Im ersten Teil der 3sat-Reihe sieht man wie eine Familie viele Kerzen anzündet, um es im Haus ein wenig heller zu machen. Wenn man wüsste, daß der Stromausfall deutlich länger dauern wird, würde man mit diesen Ressourcen sicherlich besser haushalten. Aber bei einem Stromausfall. Ich bin mal gespannt, wie lange der Akku in dem iPad aushält, mit dem die Tochter die Situation dokumentiert.

Die Serie zeigt aber nicht nur die ganz großen naheliegenden Auswirkungen des Ausfalls, sondern auch andere, die für die Betroffenen durchaus deutliche Auswirkungen haben. So funktioniert in einem Altersheim etwa die Rufanlage nicht mehr, so daß man eigentlich nachts mehr Personal bräuchte um Wache zu halten.

Ich sehe die Gefahr eines langen Stromausfalls durchaus als realistisches Szenario. Die Steuerung des Netzes wird durch die Dezentralisierung sicher nicht einfacher, aber ich sehe hier auch Chancen, daß bei einem Komplettausfall mehr Stominseln geben wird, die sich autark versorgen können.

Responsives Webdesign

Webdesigner setzten ja heutzutage auf „responsives Design“, das bedeutet, daß Websiten auf unterschiedlichen Geräten mit verschiedenen Bildschirmgrößen immer optimal dargestellt werden. Dahinter steckt nicht nur SEO-Schwachsinn, sondern einfach die technische Möglichkeit, den Nutzer eine les- und nutzbare Webseite zu präsentieren.

Flash ist im Web ja glücklicherweise mittlerweile so gut wie tot. Allerdings benutzen viele Webdesigner andere Techniken, die sicherheits- und datenschutzmäßig sehr bedenklich sind. Da werden Javascript-Bibliotheken von verschiedenen Servern geladen, APIs von externen Dienstleistern eingebunden und aktive Elemente noch und nöcher eingesetzt. Klar das heutige Web ist nicht mehr das von 1995. Aber für mich ist eine gute Website, eine, die mir auch Informationen anzeigt, wenn ich ohne aktives Javascript unterwegs bin und nicht zu Zugriff von x weiteren Webservern zulasse. DAS ist für mich respsonsives Design. Und damit meine ich gar nicht mal die Seiten, die externe Werbung einblenden, die sind noch viel schlimmer.

Wer sich mal im Browser mit diversen Tools ansieht, von welchen Servern überall Seitenelemente geladen werden, wird staunen. Google ist Standard, oft auch Facebook oder Twitter. Mit jeder Anfrage erhalten auch diese Serverbetreiber auch Informationen darüber das man sich gerade eine bestimmte Webseite ansieht. Oft versuchen diese Dritt-Server ebenfalls Cookies abzulegen. Mein Browser ist relativ restriktiv eingestellt. Ich lehne Cookies ab und lasse sie nur in Ausnahmefällen zu. Des weiteren nutze ich NoScript, das die Freigabe von Javascript steuert, und uMatrix. Letzteres läßt zunächst nur Anfragen vom eigentlichen Server durch. Für Drittserver kann man explizit freischalten, welche Elemente nachgeladen werden dürfen. Es ist erschreckend, wie viel man oft freigeben muß, damit die Seite überhaupt irgendwas anzeigt; manchmal erhält man aber auch falsche Fehlermeldung wie etwa „Ihr Browser ist nicht aktuell“. Für mich ist das immer ein Zeichen, daß die Webdesigner ihren Job nicht verstehen. Es gibt aber auch immer wieder positive Ausnahmen, der Seiten auch ohne weiteren Freigaben funktionieren.

Warum müssen etwa Javascriptbibliotheken immer extern geladen werden? Wenn man sie selbst hostet, steht sie immer zur Verfügung, auch wenn der externe Server gerade nicht erreichbar ist. Außerdem kann man sich sicher sein, daß nicht plötzlich eine neue Version der Bibliothek online ist, die plötzlich inkompatibel ist.

Vielleicht kommt ja mal Google darauf, Seiten danach zu bewerten, wie datensparsam sie sind und wie viele externe Server sie kontaktieren. Dann hätten die ganzen SEO-Leute wieder eine Menge zu tun und würden dabei gleich etwas Gutes machen.

Kündigung web.de

Weil ich ja alle meine Verträge bei United Internet auflöse, muß also auch mein altes web.de-E-Mail-Konto dran glauben.

Eigentlich habe ich es nie benutzt; nur ab und zu als Testaccount. Es war auch stets unzeitgemäß. Ich weiß die genauen Zahlen nicht mehr, aber Dateianhänge durften nicht größer als 2 MB sein und das ganze Postfach nicht mehr als 20 MB. Der Abruf per E-Mail-Programm per POP3 war nur alle 10 Minuten gestattet. Wollte man mehr, musste man  „Club-Mitglied“ werden, also ein kostenpflichtigen Vertrag abschließen.

Trotz der seltenen Nutzung ist relativ viel Spam eingetrudelt. Highlight war aber, das eine reale Baufirma ihre E-Mail-Adresse nicht kannte und hin und wieder meine web.de-Adresse angegeben hat. So bekam ich nicht nur regelmäßig Werbung für Baumaschinen, sondern auch hin und wieder mal eine Ausschreibung für Straßenbauarbeiten. Einmal kamen sogar Mahnungen an diese Firma, eskalierend von der ersten Mahnung bis nach einigen Wochen Androhung von einem Mahnbescheid. Tja, wenn die Baufirma zu doof ist, ihre eigene E-Mail-Adresse anzugeben und der Lieferant so doof ist, eine falsche E-Mail-Adresse zu benutzen…

Die Kündigung ging übrigens problemlos vonstatten. Die Registrierung damals war deutlich aufwendiger. Man bekam sogar einen Brief per Post mit einem Aktivierungscode, um die Anschrift zu überprüfen.

Ich werde aber weder die Baumaschinenangebote noch web.de vermissen.

Glasfaser als Selbstzweck

Wenn irgendwo Breibandausbau mit Glasfaser stattfindet, ist die Deutsche Telekom selten dabei. Eigentlich komisch. Hier bei uns gab es ein Ausschreibungsverfahren, welcher Zugangsanbieter das Netz des örtlichen Versorgers betreiben will. Das wird woanders ähnlich sein, aber es ist meistens NICHT die Telekom.

Die Telekom versucht ja ihr altes Kupferkabel weiter an den Mann zu bringen und will mit Vectoring nicht nur das letzte aus der Doppelader rausquetschen, sondern auch gleich die Wettbewerber von ihren Kabeln verbannen.

Nun spricht sich der Telekom-Vorstand Van Damme gegen den im Koalitionsvertrag der künftigen Nordrhein-Westfälischen Landesregierung präferieren Glasfaserausbau aus.

„Glasfaser dürfe nicht zum Selbstzweck werden“ – Nein, aber nur Glasfaser hat genug Potential um auch noch in Jahrzehnten ausreichend Bandbreite zu übertragen.

„Bis 2018 können durch die Telekom 95 % der Haushalte mit mindestens 50 Megabit versorgt werden.“ – Und was ist mit den restlichen 5%? Die fallen dann mal wieder unter den Tisch. Beim hiesigen Ausbau werden 100% aller Haushalte einen Anschluß erhalten können, auch abgelegene Höfe.

„Bis Ende 2018 sollen 86% Anschlüsse eine Bandbreite von bis zu 100 Megabit erhalten können“. – „Bis zu“ diese Fomulierung kennt ja bereits, auch ISDN-Geschwindigkeit fällt darunter. Und was ist hier wieder mit dem Rest?

Das Ende des Kupferkabels ist unabwendbar. Rein technisch sind zwar noch höhere Geschwindigkeiten möglich, mit denen die Telekom auch gerne mal öffentlichkeitswirksam wirbt, allerdings dürfen die Entfernungen zwischen Verteilerkasten und Hausanschluss immer kürzer werden. Dieser ganze VDSL-Vectoring-Kram mag ja eine Übergangslösung sein, langfristig ist das aber eine Sackgasse. Die Telekom muß endlich mal einsehen, daß sie mit ihrem Kupferkabel ein totes Pferd reiten; ansonsten werden sie der große Verlierer sein.

Datenreichtum – warum?

Immer wieder wird gesagt, Daten seien das neue Öl. Damit wird unterstellt, daß die Daten Reichtum bringen und einen Fortschritt vorantreiben. Eigentlich ist das Bild bei genauerer Betrachtung gar nicht mal so schlecht. Öl hat ein paar wenige Menschen sehr reich gemacht, viele Unternehmen profitieren davon. Viele sind davon abhängig. Die Nutzung des Öls (also das Verbrennen) hat nachhaltig negative Folgen, die man erst später wahrgenommen hat. Jetzt wird weltweit versucht vom Öl los zu kommen, da die Umweltfolgen katastrophal sind und wichtige Rohstoffquellen in unsicheren oder autoritären Staaten liegen.

Natürlich hat Öl einen wirtschaftlichen Schwung gebracht, aber mit welchen Konsequenzen? Wenn jetzt jemand vor negativen Konsequenzen von der übermäßigen Erfassung, Sammlung und Auswertung von Daten warnt, wird nur stets gesagt, er stelle sich damit dem Forschritt in den Weg. Aber vielleicht wäre es mal gut, etwas zu hinterfragen, ob das alles wirklich so gut ist, oder da vielleicht etwas reguliert, gebremst oder gar verboten werden sollte?

Die Industrielle Revolution brachte ja nicht nur gute Dinge. Die Arbeitskraft der Menschen wurde nun auch industriell ausgebeutet. Erst später wurden den Arbeitnehmern mehr Rechte zugesprochen. Könnte man nicht einmal nachdenken, bevor man handelt?

Müssen den überhaupt überall Daten erfasst werden? Warum sollen Unternehmen Daten über mich, mein Verhalten und MEINE gekauften Gegenstände (Fernseher, Auto) nutzen, wenn ich das gar nicht möchte?

Ich habe neulich das Buch „Zero – Sie wissen, was du tust“ von Marc Elsberg gelesen. Dort wurde die Datensammelwut von Unternehmen auf die Spitze getrieben, der Mensch war nur noch so viel wert wie seine Daten, stets in Konkurrenz zu allen anderen. Ausgedrückt durch den Manrank der laufend aus allen zur Verfügung stehenden Daten aktualisiert wurde. Es gibt in dieser Geschichte nur Verlierer, die einen verlieren ihre Privatheit und ihre Eigentümlichkeit, im positiven Sinne und die anderen die nicht mitmachen wollen oder ganz unten an der Skala sind, sind praktisch von allem ausgeschlossen.

Ich versuche möglichst datensparsam zu sein. Ich nutze ein abgespecktes Smartphone von dem ich zumindest vermute, daß es nichts oder nicht so viel von mir ausplaudert. Regelmäßig aktiviere ich den Flugmodus, um weniger Bewegungsdaten zu erzeugen. Ich habe bewusst einen dummen Fernseher gekauft, der ohne smarte Funktionen auskommt. Onlinekommunikation versuche ich größtenteils über eigene Server laufen zu lassen. Soziale Netzwerke nutze ich nicht und online, etwa in Foren, nutze ich unterschiedliche Pseudonyme mit unterschiedlichen E-Mail-Adressen. der Webbrowser ist sehr restriktiv eingestellt mit Adblocker, NoScript, uMatrix usw.

Ich möchte das auch weiterhin können, nicht weil ich Unternehmen nicht ihren Erfolg gönne, sondern ganz einfach weil es andere einen Scheißdreck angeht, was ich mache. Wenn ich möchte, das Samsung weiß, das ich letztens RTL2 gesehen habe, werde ich mich bei denen schon melden und es selbst mitteilen.

Die deutschen Unternehmen sollten den Datenschutz nicht als Hemmnis sehen, sondern als Chance.

Das Auto ist ja für viele Deutsche ja der Heilige Gral. Ich hatte gehofft, daß es hier zumindest einen Aufschrei gibt, wenn klar wird, welche Daten in welchem Umfang an welche Empfänger gehen. Aber leider kam es bisher nicht dazu, und ich befürchte, daß die Datensammelei bald so integraler Bestandteil eines PKWs sein wird, daß man sich dann gar nicht mehr dagegen wehren kann. Jedem der nicht versteht, daß diese Datensammlung schlecht ist, sage ich dann provokant, daß die Daten auch automatisch an die Bußgeldbehörden gehen, die so ganz leicht Geschwindigkeitsübertretung oder ähnliches ahnden können.

Selbst autonome Fahrzeuge müssen ihre Daten nicht an die Hersteller, Versicherungen oder andere interessierte Stellen weitergeben. Hier würde eine Kommunikation von Auto zu Auto genügen. Das muß nicht über zentrale Server laufen und Herr Oettinger muß auch nicht Netzneutralität abschaffen.

Dyn-DNS mit eigener Domain – Teil 2

Im einem vorherigen Beitrag schrieb ich ja bereits, wie ich mit einer eigenen Domain DynDNS nutzen kann, ohne NoIP oder andere Dienste nutzen zu müssen. Ich realisierte das Ganze über Strato. Im Zuge der Übernahme von Strato durch United Internet habe ich aber alle 1&1- und auch Strato-Verträge gekündigt.

Meine Domains halte ich jetzt bei Core-Networks. Dort habe ich nur die Domains liegen und nutze den DNS-Server. Die DNS-Einstellungen sind bei Core-Networks viel weitreichender als etwa bei Strato und 1&1; allerdings braucht man auch etwas mehr technisches Hintergrundwissen. Außerdem bietet Core-Networks auch die Möglichkeit DynDNS zu zu nutzen. Ich habe das eingerichtet und es funktioniert einwandfrei.

P.S. Dieser Blog ist bewußt werbefrei. Dieser Artikel ist keine Werbung oder eine Empfehlung für oder gegen irgendwelche Anbieter oder Produkte.

Messenger – Teil 3 (Die Lösung?)

In meiner kleinen Reihe über Messenger schrieb ich im ersten Teil warum ich WhatsApp nicht nutzte und im zweiten, was gegen Alternativen spricht. Hier möchte ich über (m)eine Lösung schreiben.

In der Radio-Tux-Sendung vom August 2016 wurde ich auf die App Conversations aufmerksam. Das ist eine Messenger-App, die das XMPP-Netzwerk nutzt. XMPP, oder früher „Jabber“, ist ein relativ altes Protokoll für Messenger. Es wird eine dezentrale Struktur, mit mehreren Servern benutzt. Die Vielseitigkeit von XMPP ist aber auch schon wieder das größte Manko. Es gibt nicht DEN EINEN XMPP-Client und nicht DEN EINEN XMPP-Server. Man muß sich also für einen Client und einen Server entscheiden. Das ist für die meisten Menschen schon zu viel. Bei den Clients hat sich Conversations hervor getan, da dieser recht modern ist und die neue Verschlüsselungsmethode OMEMO unterstützt. Das Design und die Funktionalitäten lehnen sich an anderen Messegern an. Conversations ist zwar OpenSource, wird allerdings im Google Play Store für drei Euro angeboten. Wer den FDroid-App-Store nutzt, kann Conversations kostenlos herunterladen. Natürlich freuen sich die Entwickler über eine kleine Spende.

Conversations löst auch gleich ein weiteres Problem, nämlich die Erstellung eines Accounts auf einem XMPP-Server. Die Entwickler bieten nämlich auch gleich einen Server an. Man kann den Account sechs Monate lang kostenlos nutzen, danach muß man acht Euro pro Jahr für den Zugang zahlen. Ich finde das fair, ist aber ebenso wie der Preis der App für viele ein Hindernis.

Man kann aber auch andere Server nutzen. Man kann das Ganze mit E-Mail vergleichen. Auch dort muß man sich irgendwo bei einem Dienstleister (Posteo, GMX, Google, etc.) anmelden und kann dieses Konto mit verschiedenen Programmen nutzen. Verwirrend mag vielleicht auch sein, daß eine XMPP-Adresse genau wie eine E-Mail-Adresse aussieht, also etwa christian@example.com. Es gibt viele freie XMPP-Server. Im Internet finden sich viele Listen, in denen diese freien Server geführt werden. Unklar ist oft, wer sich hinter dem Angebot versteckt; ob das seriöse Anbieter sind, oder jemand nur als Hobby einen Server betreibt und den öffentlich zur Verfügung stellt und wie zuverlässig der Server ist. Nutzer des einen Servers können übrigens mit Nutzern auf einem anderen Server kommunizieren. Auch hier gilt wieder die Analogie zum E-Mail-Service. Die einzelnen Server leiten die Daten an den richtigen Server weiter.

Wer sich allerdings ein wenig mit Linux auskennt und irgendwo im Internet einen kleinen Server laufen hat, kann sich recht einfach einen eigenen XMPP-Server aufsetzen. Thomas Leister hat dazu eine schöne Anleitung veröffentlicht. Natürlich erfordert so ein Server einen gewissen Wartungsaufwand (Updates, Backups, etc.). Aber wer bereits einen eigenen Server betreibt, sollte das ohnehin wissen.

Ich fahre mit der Lösung sehr gut. Das einzige Problem ist nur, daß ich bisher wenige Leute dazu bringen konnte, ebenfalls XMPP zu nutzen. Ich hoffe das wird sich ändern.