Häufige Ursachen für komplexe URLs – Best Practices für SEO-freundliche URLs

Posted On: Sep 14, 2018

Categories: Prestashop SEO

Jede Seite oder Datei auf Ihrer Website hat eine URL, die sie im Internet repräsentiert. Es gibt verschiedene Arten von URLs, die existieren, wie:

Hässliche/Komplexe URLs

Dies sind die Arten von URLs, die verschiedene Parameter enthalten, wie z. B. Session-IDs, Tags, Suchoperatoren, Sortierparameter usw. Lassen Sie uns einige Beispiele und Ursachen für hässliche/komplexe Webseitenadressen besprechen:

Tipp:

Sie können hässliche/komplexe URLs loswerden, indem Sie das Prestashop friendly url Modul installieren.

Häufige Ursachen für hässliche URLs

Filter

Sie werden feststellen, dass einige Websites verschiedene Suchfilter anbieten, um Benutzern bei der Anpassung der Suchkriterien zu helfen und die Suchergebnisse einzuschränken, z. B. Sie können nach Begriffen wie "Hotels am Strand", "Hotels am Strand mit Fitnesscenter" usw. suchen. Angenommen, es gibt ein Hotel am Strand mit einem Fitnesscenter, dann können beide oben genannten Suchbegriffe dieses Hotel in den Suchergebnissen anzeigen. Das eigentliche Problem hierbei ist jedoch, dass die Anzahl der URLs für die Hotelseite mehr als eine sein wird, was es für Suchmaschinen schwierig macht, die richtige Version zu identifizieren. Hier sind einige Beispiele;

SEO URL Filter

Diese beiden URLs verweisen tatsächlich auf eine einzige Webseite. Ähnlich kann es eine Vielzahl von Suchfiltern geben, die die URL in zu viele redundante Links aufspalten, was ein schwerwiegendes Problem für Suchmaschinen darstellt, da sie die Suchergebnisse aus einer kleinen Anzahl von Listen anzeigen müssen.

Parameter

Parameter wie Session-IDs, Suchoperatoren, Tags können massive Mengen von Duplikaten erzeugen. Hier sind einige Beispiele;

Sortierparameter

E-Commerce-Websites ermöglichen es Benutzern, Produkte auf verschiedene Arten zu sortieren, was eine größere Anzahl von duplizierten URLs erzeugt. Hier ist ein Beispiel;

Ungültige Parameter:

Dies sind Arten von URL-Parametern, die unnötig sind, z. B. Empfehlungsparameter, die mehrere URLs erzeugen, die auf dieselbe Seite verweisen. Hier ist ein Beispiel;

Kalenderprobleme:

Dynamisch generierte Kalender können Links zu zukünftigen und vergangenen Daten erzeugen und erneut eine massive Anzahl von Duplikatlinks zu derselben Seite erzeugen. Hier ist ein Beispiel;

Broken Links & Dynamische Inhalte:

Dynamische Inhalte können unterschiedliche URLs erzeugen, z. B. verschiedene Arten von Anzeigen und Zählern können mehrere Links erzeugen. Ebenso können defekte Links aufgrund von unendlichen Pfadproblemen Probleme verursachen. Hier ist ein Beispiel:

http://www.example.com/index.shtml/discuss/category/school/061121/html/interview

Nachteile von hässlichen/komplexen URLs

  • Doppelte Links verursachen Probleme mit doppelten Inhalten und können schwere Google-Strafen wie Panda und Penguin auslösen.
  • Komplexe URLs sind benutzerunfreundlich, sowohl für Benutzer als auch für Suchmaschinen. Daher geben Suchmaschinen ihnen den geringsten Wert.
  • Komplexe Webadressen können Probleme für Crawler verursachen, indem sie zu viele URLs erstellen, die auf eine ähnliche Seite auf Ihrer Website verweisen.
  • Zu viele URLs bedeuten, dass der Crawler zu viel Zeit damit verbringen muss, Seiten von Ihrer Website herunterzuladen. Dies kann die Serverantwortzeit verlangsamen, und Crawler werden weniger wahrscheinlich auf Ihre Website kommen, um Webseiten herunterzuladen.
  • Irrelevante Seiten können gerankt werden. Suchmaschinen versuchen, die richtige Version der URL zu erraten, aber bei ihrer Vermutung können sie eine falsche Version Ihrer Seite auswählen, die Sie nicht ranken möchten.

Schritte zur Lösung dieses Problems – Google Best Practices

Um Probleme zu vermeiden, die durch komplexe URLs verursacht werden können, befolgen Sie die unten von Google empfohlenen Praktiken.

  • Implementieren Sie Pretty URLs auf Ihrer Website, setzen Sie insbesondere für E-Commerce-Websites kanonische Links. Das kanonische HTML-Meta-Tag legt die bevorzugte Version Ihrer Seite für Suchmaschinen fest.
  • Verwenden Sie die robots.txt-Datei, um den Zugriff von Suchmaschinen auf unerwünschte URLs zu blockieren. Sie sollten alle dynamischen URLs und andere Arten von oben genannten komplexen Adressen mithilfe von regulären Ausdrücken blockieren.
  • Verwenden Sie Cookies anstelle von Session-IDs, wenn Sie die Sitzung verfolgen müssen.
  • Versuchen Sie, Ihre URL so kurz wie möglich zu gestalten, fügen Sie keine unnötigen Parameter hinzu.
  • Verwenden Sie das no-follow-Attribut für unendliche Kalenderlinks.
  • Überprüfen Sie immer defekte relative Links.
  • Verwenden Sie Satzzeichen in den URLs, z. B. verwenden Sie http://www.example.com/green-dress.html anstelle von http://www.example.com/greendress.html.
  • Organisieren Sie den Inhalt so, dass die URLs logisch aufgebaut sind und den Inhalt intelligent repräsentieren.
  • Falls Sie Links aktualisieren, stellen Sie sicher, dass Sie eine ordnungsgemäße Umleitung von alten zu neuen Links anwenden. (Diese Funktion ist im Pretty URLs-Modul verfügbar).
  • Ändern Sie URLs nicht ohne triftigen Grund. Idealerweise sollten URLs nur aktualisiert werden, wenn Sie HÄSSLICHE URLs haben und sie sauber machen möchten.

FREUNDLICHE URL PRESTASHOP