Webdesigner setzten ja heutzutage auf “responsives Design”, das bedeutet, daß Websiten auf unterschiedlichen Geräten mit verschiedenen Bildschirmgrößen immer optimal dargestellt werden. Dahinter steckt nicht nur SEO-Schwachsinn, sondern einfach die technische Möglichkeit, den Nutzer eine les- und nutzbare Webseite zu präsentieren.
Flash ist im Web ja glücklicherweise mittlerweile so gut wie tot. Allerdings benutzen viele Webdesigner andere Techniken, die sicherheits- und datenschutzmäßig sehr bedenklich sind. Da werden Javascript-Bibliotheken von verschiedenen Servern geladen, APIs von externen Dienstleistern eingebunden und aktive Elemente noch und nöcher eingesetzt. Klar das heutige Web ist nicht mehr das von 1995. Aber für mich ist eine gute Website, eine, die mir auch Informationen anzeigt, wenn ich ohne aktives Javascript unterwegs bin und nicht zu Zugriff von x weiteren Webservern zulasse. DAS ist für mich respsonsives Design. Und damit meine ich gar nicht mal die Seiten, die externe Werbung einblenden, die sind noch viel schlimmer.
Wer sich mal im Browser mit diversen Tools ansieht, von welchen Servern überall Seitenelemente geladen werden, wird staunen. Google ist Standard, oft auch Facebook oder Twitter. Mit jeder Anfrage erhalten auch diese Serverbetreiber auch Informationen darüber das man sich gerade eine bestimmte Webseite ansieht. Oft versuchen diese Dritt-Server ebenfalls Cookies abzulegen. Mein Browser ist relativ restriktiv eingestellt. Ich lehne Cookies ab und lasse sie nur in Ausnahmefällen zu. Des weiteren nutze ich NoScript, das die Freigabe von Javascript steuert, und uMatrix. Letzteres läßt zunächst nur Anfragen vom eigentlichen Server durch. Für Drittserver kann man explizit freischalten, welche Elemente nachgeladen werden dürfen. Es ist erschreckend, wie viel man oft freigeben muß, damit die Seite überhaupt irgendwas anzeigt; manchmal erhält man aber auch falsche Fehlermeldung wie etwa “Ihr Browser ist nicht aktuell”. Für mich ist das immer ein Zeichen, daß die Webdesigner ihren Job nicht verstehen. Es gibt aber auch immer wieder positive Ausnahmen, der Seiten auch ohne weiteren Freigaben funktionieren.
Warum müssen etwa Javascriptbibliotheken immer extern geladen werden? Wenn man sie selbst hostet, steht sie immer zur Verfügung, auch wenn der externe Server gerade nicht erreichbar ist. Außerdem kann man sich sicher sein, daß nicht plötzlich eine neue Version der Bibliothek online ist, die plötzlich inkompatibel ist.
Vielleicht kommt ja mal Google darauf, Seiten danach zu bewerten, wie datensparsam sie sind und wie viele externe Server sie kontaktieren. Dann hätten die ganzen SEO-Leute wieder eine Menge zu tun und würden dabei gleich etwas Gutes machen.