Technische SEO für PrestaShop meistern: Sitemaps und Robots.txt

Egal, ob Sie einen PrestaShop-Händler sind oder einen Shop auf einer anderen Plattform betreiben, Sie wissen um die Bedeutung von Keywords, Produktbeschreibungen und Backlinks. Diese gehören zwar alle zur Onpage-SEO, aber Sie sollten auch die technische SEO Ihres Shops berücksichtigen, die Ihnen sicherlich ebenfalls zu hervorragenden Ergebnissen verhelfen wird.

Technische Suchmaschinenoptimierung (SEO) ist der Prozess, eine Website so zu gestalten, dass sie für Suchmaschinen leicht zugänglich ist und gecrawlt, indexiert und gerankt werden kann. Stellen Sie sich das wie die inneren Abläufe Ihres Onlineshops vor – ohne sie könnten Suchmaschinen Ihren Shop nicht richtig navigieren.

Die beiden wichtigsten Werkzeuge für Ihre technische SEO? Sitemaps und robots.txt-Dateien. Sitemaps sind wie eine Landkarte, die Suchmaschinen zu jedem Winkel Ihres Katalogs führt. Robots.txt-Dateien hingegen funktionieren wie Verkehrspolizisten und weisen Suchmaschinen an, welche Seiten sie besuchen und welche nicht. In diesem Blogbeitrag erklären wir Sitemaps und robots.txt für PrestaShop, wie sie korrekt konfiguriert werden und wie man häufige technische SEO-Fehler vermeidet.

Warum Sitemaps und Robots.txt wichtig sind

Suchmaschinen wie Google verwenden Crawler, um Inhalte zu indexieren und zu finden. Wenn sie Ihre Seiten nicht finden können, werden diese Produkte nicht in den Suchergebnissen angezeigt, egal wie gut Ihre Titel und Beschreibungen optimiert sind.

Sitemaps – Die Roadmap Ihres Shops

Eine Sitemap ist eine XML-Datei, die die Links Ihrer Website hierarchisch oder textuell organisiert darstellt und die Struktur der Website enthält, die von Suchmaschinen-Bots durchsucht werden soll. In PrestaShop sind dies Ihre Produkte, Kategorien, CMS-Seiten und gegebenenfalls Bilder. Sie dient Suchmaschinen als Wegweiser, wenn diese den Quellcode erhalten.

  • Stellen Sie sicher, dass jedes Produkt, auch in einem umfangreichen Katalog, indexiert werden kann.
  • Die Daten liegen in einer anderen Sprachversion Ihrer Seiten vor; Sie müssen Crawler anweisen, die richtigen Seiten aufzurufen.
  • Bei Google oder jeder anderen Suchmaschine erscheinen neue Produkte oder aktualisierte Kategorien immer schneller in den Suchergebnissen.

Ohne Sitemap könnten Suchmaschinen viele Seiten verpassen oder müssten sie sehr langsam durchsuchen.

Der Traffic-Controller Ihres Shops

Dies ist lediglich eine einfache Textdatei im Stammverzeichnis Ihrer Website. Sie enthält Anweisungen für Suchmaschinen, welche Inhalte gescannt und welche ignoriert werden sollen.

Zum Beispiel:

  • Wenn Sie möchten, dass Crawler eine Reihe doppelter Filter-URLs (? sort=price) oder Checkout-Seiten ignorieren.
  • Das Blockieren solcher irrelevanter oder doppelter Inhalte spart außerdem Crawling-Budget, sodass Google die Seiten crawlen kann, die tatsächlich relevant sind.

Kombinierte Auswirkung

Sitemaps und robots.txt gewährleisten gemeinsam Folgendes:

    Die Indexierung relevanter Seiten erfolgt schnell. Doppelte oder inhaltsarme Seiten beeinträchtigen Ihre SEO-Autorität nicht.
  • Suchmaschinen nutzen ihre Zeit auf Ihrer Website effizienter.
  • Technische Dateien sind gut implementiert, da sie einer der Hauptgründe dafür sind, warum E-Commerce-Shops kein gutes Ranking erzielen, selbst wenn ihre Onpage-SEO recht solide ist.

Sitemaps in PrestaShop konfigurieren

PrestaShop verfügt über eine integrierte Sitemap-Funktion, die jedoch etwas eingeschränkt ist, insbesondere bei großen oder mehrsprachigen Shops. Sie können die Sitemap selbst erstellen oder ein spezielles SEO-Plugin verwenden. So geht's:

Manuelle Sitemap-Einrichtung

In PrestaShop kann mit dem integrierten Modul eine Sitemap generiert werden. Dadurch wird eine Liste von Links ausgegeben, die Sie in der Google Search Console hinzufügen können. Das funktioniert zwar, hat aber folgende Einschränkungen:

  • Die Seite wird möglicherweise nicht automatisch aktualisiert, wenn Sie neue Produkte zu Ihrem Shop hinzufügen.
  • Mehrsprachige Unterstützung ist nicht sehr effektiv.
  • Die Indizierung von Bildern (insbesondere von auf einem CDN gehosteten Dateien) ist nicht immer gegeben.

Daher ist die manuelle Einrichtung für sehr kleine Shops in Ordnung, kann aber mit zunehmender Kataloggröße mühsam werden.

SEO-Modul-Sitemap-Generator-Skript

Eine bessere Vorgehensweise ist die Verwendung eines SEO-Moduls mit Sitemap-Generator, wie beispielsweise das PrestaShop SEO-Modul von FME Modules.

Dieses Tool bietet noch mehr:

Automatische Aktualisierungen

  • Sitemaps werden automatisch aktualisiert, wenn neue Produkte, Kategorien oder CMS-Seiten erstellt werden.
  • Dateien müssen nicht mehr manuell reproduziert werden.

Mehrsprachige Unterstützung

  • Erstellt eine separate Sitemap für jede Sprache.
  • Unterstützt Google bei der korrekten Indexierung Ihres Shops in übersetzten Sprachen.

Bild-Sitemaps mit CDN-Unterstützung

  • Wird mit Produktfotos geliefert, die möglicherweise in der Google-Bildersuche angezeigt werden.
  • Funktioniert mit externen CDNs, sodass auch extern gehostete Bilder indexiert werden.
  • Bearbeitbare Prioritäten und Frequenzen
  • Priorisieren Sie Kategorien und Bestseller.
  • Definieren Sie die „Aktualisierungshäufigkeit“ (täglich, wöchentlich, monatlich), um Crawler zu steuern.
  • Integration mit der Google Search Console

Für eine bessere Prestashop SEO reichen Sie Ihre Website manuell per Sitemap ein. Verwenden Sie dazu den direkten Link zu Ihrer Sitemap, damit sie schneller indexiert wird!

Beispiel:

Wir haben außerdem Sitemap-Dateien für einen mehrsprachigen PrestaShop-Modeshop in Englisch, Französisch und Spanisch erstellt. Produkt-URLs und Bilder aller Sprachen sind indexiert, sodass die internationale Suchmaschinenoptimierung (SEO) gewährleistet ist.

Durch die Automatisierung des Prozesses stellen Sie sicher, dass Suchmaschinen stets über eine aktuelle Übersicht Ihres Shops verfügen, was in einer schnelllebigen Branche wie dem E-Commerce einen entscheidenden Vorteil darstellt.

Robots.txt für PrestaShop optimieren

Genau wie Sitemaps benötigt auch robots.txt eine narrensichere Konfiguration, um Indexierungsfehler zu vermeiden.

Automatische Generierung der Datei robots.txt

PrestaShop generiert bei der Installation eine einfache robots.txt-Datei. Diese Datei reagiert jedoch nicht sehr sensibel auf die tatsächlichen Daten und muss oft angepasst werden. Beispielsweise können Sie damit keine doppelten Filter-URLs, Layered Navigation oder interne Suchergebnisse blockieren.

Anpassen der robots.txt-Datei mit einem SEO-Modul

Mit einem Modul geht es einfacher. Hier erfahren Sie, was das PrestaShop SEO-Modul bietet.

Vordefinierte Regeln

  • Irrelevante URLs wie /cart, /checkout oder Sitzungs-IDs automatisch blockieren
  • Blöcke, die Filter anzeigen (z. B. Filterfarbe=rot), um doppelte Inhalte zu verhindern.

Benutzerdefinierte Direktiven

  • Benutzerdefinierte Regeln können hinzugefügt werden, um bestimmte Verzeichnisse oder Abfrageparameter zu blockieren.
  • Beispiel: Disallow: /search verhindert das Crawlen interner Suchergebnisseiten.

Wichtige Assets zulassen

  • Sorgen Sie dafür, dass CSS- und JS-Dateien crawlbar sind. Sie werden möglicherweise nicht korrekt angezeigt.

Testen und Validieren

  • Wie Googlebot Ihre robots.txt-Dateien interpretiert. Einige beste Module bieten einen Testmodus, mit dem Sie sehen können, wie Googlebot Ihre robots.txt-Datei nach Ihren Änderungen interpretiert.
  • Dies verhindert, dass wichtige Inhalte fälschlicherweise blockiert werden.

Beispiel für robots.txt-Regeln

  • User-Agent: *
  • Disallow: /cart
  • Disallow: /checkout
  • Disallow: /search
  • Zulassen: /img
  • Sitemap: https://mystore.com/sitemap.xml

Eine schlecht konfigurierte robots.txt-Datei kann die Suchmaschinenoptimierung (SEO) erheblich beeinträchtigen. Vermeiden Sie es, versehentlich die Seiten /category oder /product zu blockieren, da dies dazu führen kann, dass Ihr gesamter Shop aus dem Google-Index entfernt wird. Die Verwendung eines Moduls ist eine Möglichkeit, dies zu verhindern.

Häufige technische SEO-Fehler und einige Lösungen

Selbst wenn Sitemaps und robots.txt korrekt gespeichert sind, leiden PrestaShop-Shops immer noch unter technischen SEO-Fehlern. Einige der häufigsten Probleme und deren Behebung mithilfe eines SEO-Moduls werden im Folgenden erläutert:

  1. Defekte Links

Problem:Wenn Nutzer auf veraltete Produkt-URLs gelangen, die 404-Fehler generieren, ist das eine schlechte Nutzererfahrung und eine Verschwendung von Linkkapital.

Lösung:Verwenden Sie 301-Weiterleitungen. Die SEO-Funktion bietet die Möglichkeit, alte URLs massenhaft auf neue URLs umzuleiten.

  1. Doppelte URLs

Problem: PrestaShop erstellt mehrere URLs für dasselbe Produkt, z. B. mit und ohne ID usw.)

Behebung: Richten Sie ein Canonical-Tag ein und entfernen Sie IDs mithilfe der URL-Bereinigungsfunktion des Moduls.

  1. Nicht indizierte Bilder

Problem:Sie haben Bilder verwendet, die von externen CDNs gehostet wurden.

Behebung: Erstellen Sie Bild-Sitemaps mit CDN-Unterstützung, damit diese korrekt indexiert werden.

  1. Verschwendetes Crawl-Budget

Problem: Crawler können beim Crawlen der Facettennavigation (? sort=price,? size=large) „hängen bleiben“.

Korrektur:Verwenden Sie die robots.txt-Einstellungen, falls diese konfiguriert sind, um unnötige Eingaben zu verhindern.

5. Fehlende Sitemap-Einreichungen

Herausforderung:Händler vergessen, Sitemaps an die Google Search Console zu senden.

Fix: Automatisieren Sie Einreichungen von Ihrem Modul-Dashboard aus.

Durch die Behebung dieser Fehler können Sie Ihre Crawling-Effizienz deutlich verbessern und sicherstellen, dass Ihre profitabelsten Produkte und Kategorien die Aufmerksamkeit erhalten, die sie verdienen.

Zum Mitnehmen

Technische SEO klingt vielleicht nicht besonders spannend, ist aber für PrestaShop unerlässlich. Sitemaps leiten Suchmaschinen zu den richtigen Seiten, und die robots.txt-Datei verhindert, dass sie Zeit mit Duplikaten oder irrelevanten Inhalten verschwenden. Zusammen bilden sie die Grundlage für einen gesunden, crawlbaren und indexierbaren Onlineshop.

PrestaShop bietet von sich aus recht einfache Funktionen, aber mit dem PrestaShop SEO-Modul von FME Modules und dessen Automatisierung wird die Verwaltung deutlich einfacher. Mehrsprachige Sitemaps für flexible robots.txt-Konfigurationen sparen Zeit, reduzieren Fehler und maximieren die Sichtbarkeit.