Verständnis von technischem SEO - Warum ist es wichtig?
Inhaltsverzeichnis
- Einführung in technisches SEO
- Die Bedeutung von technischem SEO
- Die noindex-Meta-Tag
- Die robots.txt-Datei
- Sitemaps
- Weiterleitungen
- Der Canonical-Tag
- Technisches SEO für WordPress
- Best Practices für technisches SEO
- Zusammenfassung
Einführung in technisches SEO
Willkommen zum Abschlussmodul des Ahrefs' SEO-Kurses für Anfänger. In den nächsten beiden Lektionen werden wir über technisches SEO sprechen. Technisches SEO bezieht sich auf den Prozess der Optimierung Ihrer Website, um Suchmaschinen bei der Auffindbarkeit, Verständnis und Indexierung Ihrer Seiten zu unterstützen.
Für Anfänger muss technisches SEO nicht besonders kompliziert sein. In diesem Modul werden wir uns auf die Grundlagen konzentrieren, damit Sie regelmäßige Wartungsarbeiten an Ihrer Website durchführen können und sicherstellen können, dass Ihre Seiten von Suchmaschinen gefunden und indexiert werden können.
Lasst uns loslegen!
Die Bedeutung von technischem SEO
Warum ist technisches SEO eigentlich so wichtig? Ganz einfach: Wenn Suchmaschinen nicht ordnungsgemäß auf Ihre Seiten zugreifen, sie lesen, verstehen oder indexieren können, werden Sie nicht gerankt und im schlimmsten Fall überhaupt nicht gefunden.
Um unschuldige Fehler zu vermeiden, wie beispielsweise das Entfernen Ihrer Seiten aus dem Google-Index oder das Verdünnen von Backlinks, sprechen wir über vier Dinge, die Ihnen dabei helfen können.
Die noindex-Meta-Tag
Das Hinzufügen des "noindex" Meta-Tags zu Ihrer Seite bedeutet, dass Sie Suchmaschinen mitteilen, dass sie diese nicht in ihren Index aufnehmen sollen. In den meisten Fällen möchten Sie dies jedoch nicht tun.
Es kommt häufiger vor, als Sie denken, dass während der Entwicklung einer Website auf einer Subdomain gearbeitet wird und das "noindex" Meta-Tag verwendet wird. Nachdem das Design genehmigt wurde, wird die Website auf die Hauptdomain migriert. Dabei wird jedoch oft vergessen, das "noindex" Meta-Tag zu entfernen, was dazu führt, dass Ihre Seiten aus dem Google-Suchindex entfernt oder nie darin aufgenommen werden.
Es gibt jedoch Zeiten, in denen es sinnvoll ist, bestimmte Seiten mit dem "noindex" Tag zu kennzeichnen. Bei unserem Blog beispielsweise sind die Autorenseiten "noindex", da diese aus SEO-Sicht nur einen geringen Wert für Suchmaschinen bieten. Aus Sicht der Benutzererfahrung kann jedoch argumentiert werden, dass diese Seiten vorhanden sein sollten, da einige Benutzer ihre Lieblingsautoren auf dem Blog haben und nur deren Inhalte lesen möchten.
Bei kleinen Websites brauchen Sie sich in der Regel keine Sorgen um das "noindex" Meta-Tag zu machen, es sei denn, Sie haben kürzlich eine Neugestaltung durchgeführt. In diesem Fall sollten Sie Ihre Seiten genau prüfen, um sicherzustellen, dass keine ungewollten "noindex" Tags vorhanden sind.
Die robots.txt-Datei
Die robots.txt-Datei ist eine Textdatei, die normalerweise auf Ihrer Root-Domain liegt und über Ihre Domain-URL abgerufen werden kann. Diese Datei enthält Regeln für Suchmaschinen-Crawler und teilt ihnen mit, welche Bereiche Ihrer Website sie durchsuchen dürfen und welche nicht.
Wichtig ist zu beachten, dass eine Website mehrere robots.txt-Dateien haben kann, insbesondere wenn Subdomains verwendet werden. Wenn Sie beispielsweise einen Blog auf Ihrer Hauptdomain haben, haben Sie eine robots.txt-Datei für die Hauptdomäne, aber Sie haben wahrscheinlich auch eine separate robots.txt-Datei für Ihren Online-Shop, der auf store.domain.com liegt.
Die Regeln in der robots.txt-Datei werden mithilfe von "Direktiven" erstellt. Es ist nicht erforderlich, alle Direktiven zu kennen oder zu verstehen. Es gibt jedoch zwei Direktiven, die in Bezug auf die Indexierung wichtig sind.
Die erste ist "User-agent", mit der der Crawler definiert wird, auf den die Regel angewendet werden soll. Zum Beispiel ist der Googlebot der Crawler von Google. Die zweite Direktive ist "Disallow". Mit "Disallow" können Sie festlegen, welche Seiten oder Verzeichnisse auf Ihrer Domain der User-Agent nicht durchsuchen darf.
Es gibt Zeiten, in denen es sinnvoll ist, bestimmte Teile Ihrer Website oder bestimmte Crawler zu blockieren. Wenn Sie beispielsweise eine WordPress-Website haben und nicht möchten, dass der Ordner "wp-admin" gecrawlt wird, können Sie den User-Agent auf "All Crawlers" setzen und den "Disallow" Wert auf "/wp-admin/" festlegen.
Wenn Sie ein Anfänger sind, müssen Sie sich nicht zu sehr um Ihre robots.txt-Datei kümmern. Wenn es jedoch zu Indexierungsproblemen kommt, ist dies einer der ersten Orte, an dem Sie nachsehen sollten.
Sitemaps
Sitemaps sind XML-Dateien, in denen wichtige URLs Ihrer Website aufgelistet sind. Sie können Seiten, Bilder, Videos und andere Dateien enthalten. Sitemaps helfen Suchmaschinen wie Google dabei, Ihre Website intelligenter zu durchsuchen.
Das Erstellen einer XML-Datei kann kompliziert sein, wenn Sie nicht wissen, wie man programmiert, und es ist fast unmöglich, sie manuell zu pflegen. Wenn Sie jedoch ein CMS wie WordPress verwenden, gibt es Plugins wie Yoast und Rank Math, die automatisch Sitemaps für Sie generieren.
Um Suchmaschinen dabei zu helfen, Ihre Sitemaps zu finden, können Sie die Sitemap-Direktive in Ihrer robots.txt-Datei verwenden und sie auch in der Google Search Console einreichen.
Weiterleitungen
Eine Weiterleitung leitet Besucher und Bots von einer URL zu einer anderen weiter. Ihr Zweck besteht darin, Signale zu konsolidieren. Wenn Sie beispielsweise zwei Seiten auf Ihrer Website zu den besten Golfbällen haben, würde es Sinn machen, die alte Seite zur aktuellen Version weiterzuleiten. Durch die Konsolidierung dieser Seiten geben Sie Suchmaschinen das Signal, die Signale von der umgeleiteten URL auf die Zielseite zu übertragen.
Der Canonical-Tag
Der Canonical-Tag ist ein HTML-Codeschnipsel, der dazu dient, Suchmaschinen die bevorzugte URL für eine Seite mitzuteilen. Dies hilft bei der Lösung von Problemen mit doppeltem Inhalt. Wenn Ihre Website beispielsweise unter beiden "http://yourdomain.com" und "https://yourdomain.com" erreichbar ist und aus irgendeinem Grund keine Weiterleitung verwendet werden kann, würden sich diese URLs genau duplizieren. Durch das Festlegen einer kanonischen URL teilen Sie Suchmaschinen mit, dass es eine bevorzugte Version der Seite gibt. Als Ergebnis werden Signale wie Links an die kanonische URL weitergegeben, damit sie nicht auf zwei verschiedenen Seiten verdünnt werden.
Es ist wichtig zu beachten, dass Google Ihren kanonischen Tag ignorieren kann. Wenn wir uns das vorherige Beispiel ansehen und den kanonischen Tag auf die unsichere HTTP-Seite setzen, würde Google wahrscheinlich die sichere HTTPS-Version bevorzugen.
Wenn Sie eine einfache WordPress-Website betreiben, müssen Sie sich nicht allzu sehr um dies kümmern. CMS sind standardmäßig ziemlich gut und kümmern sich um viele dieser grundlegenden technischen Probleme.
Das waren einige grundlegende Dinge, die Sie über die Indexierung wissen sollten, die wahrscheinlich wichtigste Komponente von SEO. Denn wenn Ihre Seiten nicht indexiert werden, spielt nichts anderes wirklich eine Rolle.
Wir werden nicht tiefer in dieses Thema eingehen, da Sie sich wahrscheinlich nur mit Indexierungsproblemen befassen müssen, wenn Probleme auftreten. Stattdessen konzentrieren wir uns auf bewährte technische SEO-Praktiken, um Ihre Website in gutem Zustand zu halten. Diese Lektion wird später in dieser Woche veröffentlicht, also abonnieren Sie unseren Kanal, damit Sie nichts verpassen.
Falls Sie diesen Kurs zu einem späteren Zeitpunkt ansehen, finden Sie Links zu den anderen Lektionen in der Kursbeschreibung.
Bis zur nächsten Lektion!