RSS-Fahne

webgo Blog

Alles rund um Webspace, Hosting-Trends, Serverleistung & mehr

Beitrag vom 25. April 2017

Performance Optimierung

Schneller ist eben besser: Wie Website Performance Optimierung Besucher und Suchmaschinen glücklich macht

Mehr multimediale Inhalte, umfangreiche JavaScript-Bibliotheken – das sind zwei der größten Faktoren, die Webseiten in den letzten Jahren immer größer gemacht haben. Immer größer heißt natürlich: mehr Ladezeit, mehr Wartezeit für den Besucher. Und der Website-Besucher ist bekanntlich äußerst ungeduldig und klickt sich schnell zu einer anderen Seite weiter – zur Konkurrenz.
Mehr über Performance erfahren…


keine Kommentare  |  Kommentar schreiben

Beitrag vom 26. Juli 2016

SSL als Rankingsignal für Google

Bereits 2014 hat Google darauf hingewiesen, dass das Verschlüsselungsprotokoll SSL ein Rankingsignal sei. Trotzdem verzichten derzeit noch viele Seitenbesitzer auf die Verschlüsselung, einerseits, weil die Auswirkungen auf das Ranking oft nur minimal und von bestimmten Faktoren abhängig sind, andererseits, weil sie meinen, der Aufwand sei es nicht wert. Der heutige Beitrag zeigt Ihnen, warum Sie das SSL-Zertifikat trotzdem einbinden und was Sie in technischer Hinsicht beachten sollten.

SSL – die Fakten zum Verschlüsselungsprotokoll

Die Bezeichnung SSL ist bei der aktuellen Verschlüsselungs-Thematik nicht ganz korrekt, denn eigentlich handelt es sich bei SSL – Secure Sockets Layer – um die Vorgängerbezeichnung zum aktuell für HTTPS-Seiten genutzten TLS – Transport Layer Security. Dennoch wird die alte Bezeichnung noch sehr oft für das aktuelle Protokoll verwendet.

SSL gewährleistet eine sichere Verbindung beim Webseitenzugriff, indem es den Datenaustausch vom Server zum Client verschlüsselt. Dadurch können also nur der Nutzer und die Website die Daten sehen, die der Nutzer eingibt. Ohne die Verschlüsselung kann im Prinzip jeder Server auf die Daten zugreifen, während sie ihren „Weg zum Zielort“ antreten. Sichtbar ist die Verschlüsselung in der Browserleiste: Dort ist ein grünes Schloss und die Kennzeichnung „https“ zu sehen. Bei sogenannten EV Zertifikaten ist auch der Firmenname in Grün zu sehen.

Googles Aussagen zur SSL-Verschlüsselung

Nachdem Google das erste Mal die Aussage getroffen hatte, SSL sei ein Rankingsignal, sind viele Webmaster „auf den Zug aufgesprungen“, wechselten auf HTTPS und erhofften sich damit einen Sprung in den Suchmaschinenergebnissen. Es zeigte sich aber, und Google wies einige Zeit später auch direkt darauf hin, dass diese Auswirkungen nur sehr gering sind. Konkret bedeutet das: Wenn zwei Seiten zu einem Suchbegriff gleich ranken, beide alle wichtigen Kriterien von Google erfüllen, aber nur eine von beiden verschlüsselt ist, dann wird die Seite mit der SSL-Verschlüsselung bevorzugt und rankt deshalb über der anderen. Als Folge hielten sich viele Webseitenbesitzer erst mal zurück mit der SSL-Einrichtung.

Google hat aber immer wieder betont, wie wichtig die Datensicherheit bei einer Website ist und darauf hingewiesen, dass SSL in Zukunft ein wichtigerer Faktor für die Platzierung im Suchergebnis werden könnte. Genauere Aussagen gibt es bis jetzt allerdings noch nicht.

Datensicherheit – ein wichtiges Signal für Google und den Nutzer

Inwieweit SSL in Zukunft also ein stärkeres Rankingsignal sein wird, steht jetzt noch nicht fest. Fakt ist aber, dass Google die Sicherheit einer Seite in den Mittelpunkt rückt und Sie daher genau überlegen sollten, ob Sie wirklich auf den Umstieg auf HTTPS verzichten möchten. Denn neben Google gibt es einen ebenso wichtigen Faktor: den Nutzer. Die Verschlüsselung ist ein wichtiges Trust-Signal für den Nutzer. Sieht er schon durch die symbolische und farbliche Markierung in der Browserzeile, dass es sich um eine sichere Seite handelt, kann das ausschlaggebend für den weiteren Aufenthalt auf der Seite sein. Ein schneller Ausstieg oder eine lange Verweildauer sind wiederum ein schlechtes Signal für die Suchmaschine.

SSL-Zertifikat richtig implementieren

HTTPS sollte zum Standard werden, so viel steht fest. Nur gilt auch wie bei anderen Implementierungen: Es funktioniert nur dann, wenn man es richtig macht. Voraussetzungen sind u.a.:

– korrektes Zertifikat
– richtige Verschlüsselung
– richtige Serverkonfiguration

Weitere Fallstricke gibt es in Hinsicht auf SEO. Falsche Implementierungen können beispielsweise dazu führen, dass Weiterleitungen vergessen werden oder dass es zu Duplicate Content Problemen kommt.

Achten Sie daher beim Einbinden des SSL-Zertifikats auf die folgenden Punkte:

Umleitungen/Canonicals und interne Verlinkungen:

Leiten Sie die HTTP-URLs und die Canonicals per 301 weiter, damit im Index von vornherein nicht mehrere Versionen existieren. Überprüfen Sie weiterhin die Verlinkungs-Struktur – die internen Links müssen ebenfalls auf die HTTPS-Seiten weisen, am besten in Form von relativen Links, also lediglich mit dem Pfad zur gewünschten Seite.

Gültige Zertifikate beachten:

Das Zertifikat muss für alle Domains bzw. Subdomains gültig sein und einen Mindestverschlüsselungs-Standard besitzen, d.h. Minimum ist ein 2.048-Bit-Schlüssel. Auch die Gültigkeit der Zertifikate müssen Sie im Blick behalten, denn es unterliegt einer bestimmten zeitlichen Begrenzung.

Seitengeschwindigkeit:

Eine schlechte SSL-Konfiguration kann dazu führen, dass sich die Website-Geschwindigkeit stark verschlechtert, was natürlich ein negatives Rankingsignal ist. Zwar führt die SSL-Verschlüsselung zu einer minimalen Verzögerung, die ist aber für den Nutzer nicht bemerkbar und spielt auch für Google keine Rolle. Bei einer deutlichen Geschwindigkeitsverringerung nach der Implementierung sollten Sie also aktiv werden.

Sichere Daten mit webgo – SSL-Zertifikate für Ihre Website

Natürlich gibt es auch bei webgo SSL Zertifikate für Ihre Domains. Wir haben natürlich die herkömmlichen DV, EV oder Wildcard Zertifikate, die kostenpflichtig sind. Alternativ haben wir aber auch die neuen und kostenlosen Let’s Encrypt Zertifikate im Angebot, die Sie bei fast allen Webhosting Paketen und bei unseren Managed Servern problemlos und ganz einfach per Mausklick installieren und aktivieren können.

Kontaktieren Sie einfach unseren Kundenservice. Wir beraten Sie gerne!


keine Kommentare  |  Kommentar schreiben

Beitrag vom 26. April 2016

ntld – SEO-Vorteile?

Die neuen Top Level Domains – Relevanz für SEO
Seit März 2013 werden Schritt für Schritt neue generische Domains eingeführt, z.B. .berlin und .shop. Durch die vielen neuen Domain-Gestaltungsmöglichkeiten rückt auch der Punkt SEO in den Fokus, denn gerade die Kennzeichnungen in regionaler oder branchenspezifischer Hinsicht lassen vermuten, dass sich hier an der Ranking-Schraube drehen lässt. Inwieweit die neuen TLDs für SEO Vorteile bringen und für wen sie überhaupt sinnvoll sind, zeigen wir im heutigen Beitrag.

Nähe und Zugehörigkeit betonen
Mit einer Domain-Endung wie .berlin oder .florist können Unternehmern nun viel besser ihren Standort oder das Geschäftsumfeld betonen. Damit ergeben sich eine Reihe interessanter Kombinationsmöglichkeiten und viele bekommen doch noch Ihre Wunschdomain, die ihnen mit den bisher üblichen Endungen wie .com oder .de nicht mehr zur Verfügung stand. Durch die neuen Domainendungen ist nun ein viel präziserer Bezug auf eine Region, einen Ort, eine Branche oder sogar eine Nische möglich. Das ruft wiederum SEOs auf den Plan, die neben der Keyword-Optimierung in der URL auch die Domainendung zur Verbesserung des Rankings nutzen möchten.

Besseres Ranking dank genauerer Domainzuordnung?
Dass dieser regionale oder branchenspezifische Bezug Vorteile für SEO bringt, wird aber von Google, genauer gesagt vom Webmaster Trends Analyst John Mueller, bestritten. Laut seiner Aussage würden die neuen TLDs genauso behandelt wie andere generische TLDs, ein Keyword in der Domainendung würde keinen Rankingvorteil bringen. Eine ähnliche Aussage gab es übrigens auch schon kurz nach der Einführung der neuen Domains im März 2013 von Matt Cutts. Er sagte, es hätte keinen Sinn, sich nur eine neue Domain mit neuer Endung registrieren zu lassen in der Hoffnung, damit besser zu ranken.

Soweit die Aussagen von Google. Untersuchungen in der SEO-Szene haben jedoch gezeigt, dass es beim lokalen Ranking doch Vorteile gibt. Das hat z.B. Searchmetrics Mitte 2014 in einer Ad-Hoc-Untersuchung zur Domainendung .berlin festgestellt. Allerdings gab es zu diesem Zeitpunkt nur sehr wenig Vergleichsmöglichkeit, da nur wenige URLs mit dieser Endung existierten. Und das hat sich bis zum heutigen Tag kaum geändert. Momentan nutzen nur etwa 0,018 % aller vergebenen Domains eine der neuen TLDs. Deshalb kann man zum jetzigen Zeitpunkt auch nur wenig Aussagen darüber treffen, inwieweit sie sich auf das Userverhalten auswirken. Denn immerhin ist mit den neuen Domainendungen nicht nur die Zuordnung zu einer Region oder Branche möglich. Es ergeben sich auch sehr viele kreative Möglichkeiten, die bei der Google-Suche durchaus den Unterschied zwischen Klick und Weitersuchen machen können.

Neue TLDs – für wen sind sie geeignet?
Auch wenn die neuen Top Level Domains aus algorithmischer Sicht keinen Vorteil bringen mögen, so sind sie zumindest unter ganzheitlichen, langfristig ausgerichteten Marketingaspekten eine Überlegung wert. Allerdings nur für diejenigen, die eine neue Website erstellen. Für bereits bestehende Seiten, die schon unter der alten Domain etabliert sind, ist ein Wechsel höchstwahrscheinlich mit mehr Aufwand statt Nutzen verbunden. Hier ist es in den meisten Fällen sinnvoller, Zeit und Geld in die Optimierung der schon vorhandenen Seite zu setzen.

Wir bieten bereits jetzt fast alle aktuell verfügbaren ngTLDs an. Und es kommen jeden Monat weitere TLDs hinzu.

Eine Übersicht unserer günstigen Domainpreise finden Sie unter dem folgenden Link:

webgo Domainpreise


keine Kommentare  |  Kommentar schreiben

Beitrag vom 27. Januar 2016

Responsive Webdesign – noch große Diskrepanz zwischen Unternehmens- und Nutzereinschätzungen

Von Jahr zu Jahr steigt die Anzahl der Suchanfragen über mobile Geräte. 2014 übertraf sie erstmals den klassischen Desktop Traffic. Unternehmen müssen das Responsive Webdesign also ganz oben auf die Agenda setzen, wenn sie es nicht schon umgesetzt haben. Eine kürzlich von Crisp Research veröffentlichte Studie zeigt aber, dass es momentan noch große Unterschiede zwischen der Einschätzung von Unternehmen und Nutzern bzgl. der responsiven Website-Optik gibt.

Studie von Crisp Research zu Mobile Web Experience

Die Mobile Web Experience Studie hat ergeben, dass Nutzer mit vielen mobilen Seiten unzufrieden sind, weil sie nicht ihren Ansprüchen an ein Responsive Webdesign entsprechen und dementsprechend eine schlechte User Experience bieten. Diese Beurteilung widerspricht aber den Aussagen vieler Unternehmer, die ihre mobile Seite deutlich besser einschätzen. Es scheint hier also eine Kluft zwischen den Nutzeranforderungen und der „mobilen Realität“ zu geben.

Hinzukommt, dass zum Zeitpunkt der Studie nur etwa 41 Prozent ein Responsive Design umgesetzt haben. In Hinblick auf die Nutzerbeurteilungen stehen die restlichen 59 Prozent also unter einem hohen Druck, entsprechende technische Maßnahmen umzusetzen.

Weiterhin zeigt die Studie, dass die Probleme oft auf Ebene der Geschäftsführer bzw. der CEOs liegt. Während die jeweiligen Website-Fachbereiche des Unternehmens die Bedeutung des Responsive Webdesign sehr wohl erkannt haben, herrscht bei der Führungsetage noch Skepsis.

Aber auch wenn sich alle Unternehmensbereiche dieser Web Experience bewusst sind, heißt das nicht, dass diese erfolgreich umgesetzt wird. Viele Unternehmen geben hier an, sie seien bei der technischen Umsetzung auf externe Unterstützung angewiesen.

Responsive Webdesign und Google

In Zukunft wird kein Unternehmen am Responsive Webdesign vorbeikommen, wenn es sich im Internet behaupten will. Seit diesem Jahr werden Seiten, die nicht für Mobilgeräte optimiert sind, sogar von Google abgestraft. Denn das wichtigste Anliegen der Suchmaschine ist es, dem Nutzer ein bestmögliches Ergebnis für seine Anfrage zu geben. Läuft also die Suche über ein Smartphone oder Tablet, erkennt das Google und ordnet die Ergebnisse so, dass responsive Seiten den Vorrang haben. Sollte das Responsive Design dennoch nicht den Nutzerwartungen entsprechen, weil z.B. die Navigation erschwert wird, wirkt sich das ebenfalls auf den Rang in den Suchergebnissen aus.

Webseitenbesitzer, die bereits ihr Design für Mobilgeräte angepasst haben, sollten dem Responsive Design demnach einen genauso hohen Stellenwert zumessen, wie Unternehmen, die bisher noch keine Maßnahmen in dieser Richtung ergriffen haben.


keine Kommentare  |  Kommentar schreiben

Beitrag vom 19. Januar 2016

Website-Analyse-Tools: Die Google Search Console

Mithilfe der Webanalyse können Sie viele wichtige Performance-Faktoren Ihrer Website überprüfen und entsprechend optimieren. Technische Bereiche werden genauso unter die Lupe genommen wie inhaltliche Bereiche bzw. Aspekte, die unter die Benutzerfreundlichkeit fallen. Für die Analyse stehen zahlreiche kostenlose und kostenpflichtige Tools zur Verfügung, von denen wir einige in unserer neuen Beitragsreihe in regelmäßigen Abständen vorstellen möchten.

Den Anfang nimmt die Google Search Console (bis April 2015 „Webmaster-Tools“). Wir zeigen, wie Sie sich bei der Search Console anmelden und was Sie damit auf Ihrer Website überprüfen bzw. optimieren können.

Website bei Search Console anmelden

Die Anmeldung läuft über folgende Adresse: www.google.com/webmasters/tools/. Wenn Sie schon einen Google-Dienst nutzen, können Sie dessen Anmeldedaten verwenden, da alle Google-Dienste verknüpft sind.

Wenn Sie sich bei der Search Console eingeloggt haben, fügen Sie Ihre Website hinzu. Danach müssen Sie noch verifizieren, dass Sie der Besitzer dieser Website sind. Nutzen Sie hierfür am besten die von Google empfohlene Methode per HTML-Datei-Upload, da dies in der Regel am einfachsten umzusetzen ist: Sie laden sich eine HTML-Bestätigungsseite herunter und laden diese dann per FTP in das Hauptverzeichnis der Domain. Die Bestätigung der Verifizierung erhalten Sie in der Search Console unter „Nachrichten“.

Falls Sie keinen FTP-Zugriff haben, können Sie die Verifizierung auch über die folgenden Vorgehensweisen hinzufügen:

– Meta-Tag in HTML-Code hinzufügen
– neuen DND Datensatz hinzufügen
– Google-Analytics oder Tag Manager Konto nutzen

Eine detaillierte Anleitung gibt es in der Google Search Console Hilfe.

Die eigene Website aus den Augen Googles sehen

Das kostenlose, einfach überschaubare Tool liefert Ihnen wertvolle Hinweise dazu, wie Google bzw. die Crawler Ihre Seite sehen. Wir gehen im Folgenden die Hauptoptionen durch und beschreiben kurz, was Sie daraus für die Optimierung Ihrer Website entnehmen können.

Darstellung der Suche

Unter diesem Punkt zeigt Ihnen das Tool an, ob Sie strukturierte Daten verwenden. Diese sind ein wichtiges Signal für Google, denn sie helfen dabei, eindeutig die Webseiteninhalte an die Suchmaschine zu übermitteln. Weiterhin können Sie hier mithilfe des Data Highlighters Ihren Produkten oder Dienstleistungen zusätzliche Informationen hinzufügen, die in den Suchergebnissen als sogenannte Rich Snippets angezeigt werden. Im Bereich HTML-Verbesserungen zeigt Ihnen das Tool Verbesserungsmöglichkeiten für den HTML-Code an, z.B. bei den Meta-Description oder den Title-Tags.

Suchanfragen

In diesem Bereich erfahren Sie, über welche Keywords Ihre Seiten angezeigt werden (Impressionen) und bei welchen Keywords die meisten Klicks zu verzeichnen sind. Einschränkungen der Analyse sind z.B. nach Land, Suchtyp, Gerät und Zeitraum möglich.

Außerdem können Sie unter „Suchanfragen“ herausfinden, welche Seiten auf Ihre Seiten verweisen, d.h. wie Ihre Backlinkstruktur aussieht, und wie gut Ihre Seiten auf Mobilgeräten funktionieren.

Google-Index

Die Rubrik „Google-Index“ verrät, wie viele bzw. welche Seiten indexiert sind. Weiterhin können Sie hier erkennen, wie Google Ihre Seite hinsichtlich der Keywords einordnet: Sie geben ein Keyword ein und erhalten anschließend eine Übersicht darüber, wie oft es auf der gesamten Website sowie auf den Unterseiten vorkommt. Dadurch können Sie z.B. überprüfen, ob Google eine Seite wirklich so „interpretiert“, wie Sie es sich wünschen.

Crawling

Hier geht es um wichtige technische Funktionen der Website wie z.B. die robots-txt, Weiterleitungen und Sitemaps. Sie können z.B. Seiten crawlen lassen, um sicher zu gehen, dass sie auch indexiert werden.

Fazit:

Mit der Search Console bleiben Sie immer auf dem Laufenden über die Performance Ihrer Website. Sie erkennen schnell, ob es technische oder inhaltliche Fehler gibt und erhalten genaue Angaben darüber, wo diese Fehler liegen. Wichtig ist natürlich, dass Sie das Tool regelmäßig nutzen, um schnell Fehler erkennen und entsprechend beheben zu können.


1 Kommentar  |  Kommentar schreiben

Beitrag vom 15. Dezember 2015

Ladezeiten optimieren – Tipps für eine bessere Websiteperformance

Die Ladezeiten einer Website wirkt sich auf deren Ranking aus, auch wenn die Zeit nur ein kleiner Faktor von vielen ist. Noch wichtiger ist die Ladezeit aber in Hinblick auf die Nutzererfahrung. Oder möchten Sie etwa ständig warten, bis sich die Seite aufgebaut hat? Sicher nicht. Es ist daher enorm wichtig, dass Sie die Ladezeiten optimieren, um Ihren Besuchern ein bestmögliches Surferlebnis bieten zu können.

Wir stellen Ihnen die Ursachen vor, die derartige Verzögerungen auslösen und zeigen Ihnen ein paar Beispiele, wie Sie die Ladezeit Ihrer Seite verbessern.

Erst analysieren, dann Ladezeiten optimieren

Die Ladezeit einer Website kann durch sehr viele technische Aspekte beeinflusst werden. Ursachen sind z.B.:

– große Datenmengen auf der Website
– große Bilder
– Server ist zu langsam
– Komprimierungen sind nicht aktiviert
– Datenbanken arbeiten langsam

Sie müssen also zuerst herausfinden, wo der der Fehler liegt. Dafür gibt es eine Reihe von Analyse-Tools. Auch Google stellt ein derartiges Tool zur Verfügung: Google PageSpeed Insights. Das Tool ist kostenlos und analysiert den gesamten Ladevorgang. Es testet also nicht einfach die Zeit, bis die Seite vollständig geladen ist, sondern überprüft mehrere Faktoren. Als Ergebnis erhalten Sie einen Wert (PageSpeed) zwischen 1 und 100. Je höher der Wert, desto besser ist die Performance Ihrer Website.

Das Tool liefert aber nicht nur den Wert, sondern gibt auch an, wo die Schwachstellen liegen und wie diese behoben werden können. Es ist allerdings kaum möglich, den maximalen Wert zu erreichen und das ist auch nicht sinnvoll. Bereits ein Wert, der höher als 90 liegt, verlangt, dass Sie alle interaktiven Features und externe Scripte deaktivieren, die sich natürlich deutlich beim Laden bemerkbar machen. Das wiederum würde aber die Nutzbarkeit der Seite negativ beeinflussen.

Arbeiten Sie also nicht stur auf einen bestimmten Wert hin, sondern überlegen Sie immer, wie wichtig die Funktion ist, um den Nutzern ein positives Erlebnis auf Ihrer Website zu ermöglichen.

Beispiele zur Ladezeitenoptimierung

Im Folgenden stellen wir Ihnen 5 konkrete Fälle vor, die sich auf die Ladezeit auswirken und zeigen Ihnen die Optimierungsmöglichkeiten:

Javascript und CSS Datensätze zu groß

Auch Kleinigkeiten können die Ladezeit verbessern, wenn sie in einer großen Masse auftreten wie die sogenannten Whitespaces in CSS und Javascript. Durch die Entfernung dieser unnötigen Leerzeichen können Sie die Webseitengröße um bis zu 21 Prozent verringern. Das lässt sich über Tools realisieren wie z.B. JSMin oder YUI Compressor.

Position von CSS- und Javascript-Dateien im Quellcode

Wenn Sie die JS- und CSS-Dateien an den Anfang im Code stellen, könnte es bei einem langsamen Server sein, dass der Bildschirm eine ganze Weile weiß bleibt – so lange, bis die ganze Java-Datei geladen ist. Das können Sie dadurch lösen, indem Sie JS in den Footer des Quellcodes einbauen und CSS in den Header. Der Nutzer sieht dann sofort den für ihn wichtigen Webseiteninhalt. Call-To-Action-Buttons, die erst etwas später im „Laufe des Webseitenbesuchs“ eine Rolle spielen, werden eben erst etwas später nach dem Klick geladen.

Zu große Bilder

Da Bilddateien wesentlich größer als Textelemente sind, bilden sie oft auch den höchsten Datenanteil an einer Seite. Am besten optimieren Sie die Bilder schon vor dem Einfügen durch ein Bildbearbeitungsprogramm wie Photoshop. Speichern Sie sie einfach im Webseitenformat ab und reduzieren Sie damit die Datengröße.

Möglich ist auch die Auslagerung der Bilder durch ein CDN, ein Content Delivery Netzwerk, sofern sehr viele Bilder auf der Website vorhanden sind. Sie liegen dabei auf einem externen Server, was ein schnelleres Laden ermöglicht.

Dokumente auf dem Server sind zu groß

Achten Sie darauf, die Dokumente in komprimierter Form zur Verfügung zu stellen. Möglich ist das z.B. in Form von gzip-komprimierten Inhalten. Das funktioniert sowohl mit IIS-Servern als auch mit Apache-Servern.

Servercache

Der Servercache sollte nur in Ausnahmefälle geleert werden, z.B. bei wichtigen Updates, die sofort umgesetzt werden müssen. Bei im Browser-Cache gehaltenen Daten, die per HTTP übertragen werden, empfiehlt es sich, ein Ablaufdatum einzurichten. Hier sollten Sie aber darauf achten, einen guten Mittelweg zu finden zwischen: Datum nicht zu knapp bemessen und Webseiteninhaltsanzeige nicht behindern.

Dieser Beitrag soll Ihnen erstmal einen groben Überblick über die Möglichkeiten der Ladezeitoptimierung geben. Wir werden in künftigen Blogbeiträgen noch detaillierter auf die einzelenen Möglichkeiten der Optimierung eingehen.


5 Kommentare  |  Kommentar schreiben

Beitrag vom 23. Januar 2015

WebGo24 schaltet den Turbo ein. Ab sofort bis zu 300% schnellere Ladezeiten

Seit Donnerstag, dem 22. Januar 2015 bieten wir all unseren Kunden eine deutlich gesteigerte Performance. Als eines der ersten deutschen Unternehmen hat WebGo24 auf die Webserver-Software nginx zur Verteilung der Rechenlast und Reduzierung der Zugriffszeiten umgestellt. Die ersten Testergebnisse waren fantastisch – wir kommen nun für die meisten Websites unserer Kunden auf bis zu 300% schnellere Ladezeiten.

Die Umstellung verlief erfolgreich und erfüllte Erwartungen voll und ganz. Die meisten Kunden werden den Wechsel gar nicht mitbekommen haben. Der einzige Unterschied sind die nun deutlich besseren Zugriffszeiten. Für die meisten Websites bedeutet das Ladezeiten von deutlich unter einer Sekunde. Das wirkt sich auch positiv auf die Suchergebnissen aus, denn für Google & Co sind die Ladezeiten von Websites ein wichtiger Faktor.

Mit der Umstellung auf nginx reagiert WebGo24 auf die erfolgreiche Entwicklung der schnellen und kompakten Software. Da die meisten Webapplikationen derzeit auf eine Apache Konfiguration setzen und nginx deutlich schnellere Ladezeiten liefert, wurden von uns, aus beiden Systemen, die Vorteile miteinander kombiniert, um dem Besucher eine optimale Performance zur Verfügung zu stellen.

nginx Perfomance Vergleich


keine Kommentare  |  Kommentar schreiben

Beitrag vom 15. Juni 2012

ICANN stellt Bewerberliste für neue TLDs online

ICANN LogoEs ist soweit! Die offizielle Bewerberliste für die neuen gTLDs steht fest und wurde von der Domain-Verwaltungsorganisation ICANN diese Woche veröffentlicht. Bereits mehrmals haben wir hier im Blog darüber berichtet, dass nun jeder (der genug Geld hat 😉 ) bei der ICANN seine eigene Domainendung (TLD) beantragen kann und somit selbst zur Registry werden kann. Trotz der hohen finanziellen Hürde von mehreren hundertausend Dollar, haben sich einige Bewerber gefunden. Insgesamt sind bei der ICANN 1930 Anträge aus 60 Ländern eingegangen. 230 Bezeichnungen sind mehrfach beantragt worden – etwa die Endungen .movie und .music, um die sich jeweils acht Unternehmen beworben haben. Derartige Interessenskonflikte gibt es bei 751 Anträgen.
Auch viele deutsche Unternehmen befinden sich unter den Bewerbern. So befinden sich in der Liste z.B. die Autohersteller Audi (.audi), BMW (.bmw) und VW (.volkswagen), dem Automobilclub ADAC (.adac), den Baumarktketten Obi (.obi) und Bauhaus (.bauhaus), dem Discounter Lidl (.lidl), der Deutschen Post und ihrer Logistiktochter DHL (.deutschepost / .dhl), dem Pharmariesen Boeringer Ingelheim (.boeringer),  Bosch (.bosch) sowie der Vermögensberatung Allfinanz (.allfinanz, .allfinanzberater, .allfinanzberatung). Außerdem sind auch deutsche Städte- und Länderdomains .berlin, .bayern, .cologne, .koeln, .hamburg, .nrw und .saarland beantragt worden.

Auch US – Amerikanische Unternehmen sind zahlreich vertreten. Allen voran natürlich die Global Player der Branche: Google, Amazon, Apple und Microsoft. Allein Google zeigt sich für mehr als 100 Anträge verantwortlich, Amazon hat mehr als 70 Bewerbungen eingereicht und Microsoft beansprucht immerhin elf TLDs. Überraschend bescheiden gibt sich hingegen Apple: lediglich .apple will der Konzern aus Cupertino künftig unter seine Fittiche nehmen.

Bis die erste neue TLD genutzt werden kann, wird noch einige Zeit vergehen. Die ersten neuen TLDs werden frühestens im ersten Quartal kommenden Jahres freigeschaltet. Das dahin ist für die ICANN noch viel zu tun. So müssen die Anträge nicht nur zunächst evaluiert und geprüft werden, auch verschiedene Kommentierungs- und Einspruchsfristen sind noch einzuhalten. Beginnend ab Juli könnten daher bis zu 20 Monate vergehen, bevor alle Bewerbungen tatsächlich bearbeitet seien, so ICANN-Chef Rod Beckstrom.

Eine Liste aller offiziellen Bewerber finden man unter folgendem Link: http://newgtlds.icann.org/en/program-status/application-results/strings-1200utc-13jun12-en


keine Kommentare  |  Kommentar schreiben

webgo Experten-Support

365 Tage im Jahr für Sie da!

040/605900399 Telefon-Support
online
Persönlich erreichbar: Montag–Freitag: 9–20 Uhr, Samstag, Sonntag und Feiertags: 11–18 Uhr