Was ist technisches SEO?
Technisches SEO umfasst alle Massnahmen, die sicherstellen, dass eine Website von Suchmaschinen gecrawlt, indexiert und optimal dargestellt werden kann.
Es geht also nicht um Inhalte oder Backlinks, sondern um die technische Grundlage einer Website.
Eine gut funktionierende technische Grundlage sorgt dafür, dass die Inhalte der Website optimal in den Suchergebnissen dargestellt werden.
Weitere Punkte, mit denen sich das technische SEO als Teilbereich der Suchmaschinenoptimierung beschäftigt, sind die Verbesserung der Ladegeschwindigkeit, die Sicherstellung der mobilen Nutzbarkeit (Mobile-Friendliness) und die Vermeidung von technischen Fehlern wie 404-Seiten oder Weiterleitungsschleifen.
Abgrenzung zu OnPage SEO und OffPage SEO
Technisches SEO konzentriert sich auf die technischen Aspekte der Website, wie Crawlbarkeit, Indexierbarkeit, Ladezeit, HTTPS, strukturierte Daten und die Mobile-Friendliness.
OnPage SEO bezieht sich hingegen auf die inhaltlichen und strukturellen Aspekte der Website, wie die Optimierung von Meta-Tags, der internen Verlinkung und der Content-Qualität.
OffPage SEO umfasst alle externen Massnahmen, die ausserhalb der eigenen Website stattfinden, wie der Aufbau von Backlinks, Social Signals und Online-Reputation.
Gemeinsam bilden diese drei Disziplinen die Grundlage für eine erfolgreiche SEO-Strategie.
Technisches SEO liefert damit die Basis, auf der OnPage- und OffPage-Massnahmen ihre volle Wirkung entfalten können.
Ist technisches SEO überhaupt noch ein wichtiger Ranking-Faktor?
Technisches SEO ist heute nicht mehr so wichtig wie früher.
Der Grund dafür liegt in der technologischen Entwicklung der Content-Management-Systeme (CMS).
Moderne CMS wie WordPress, Shopify oder Webflow sorgen automatisch für akzeptable Ladezeiten und eine grundsätzlich crawlbare Struktur.
Dennoch bleibt technisches SEO eine notwendige Grundlage, um in den Suchmaschinen mitzuspielen.
Der folgende Vergleich verdeutlicht das gut:
Technisches SEO ist wie das Eintrittsticket zu einem Casino.
Ohne Ticket kommst du gar nicht erst rein.
Aber ein Ticket allein reicht nicht aus, um den Jackpot zu knacken.
Dafür musst du am Tisch Platz nehmen und mitspielen.
Ähnlich verhält es sich mit SEO.
Das Ticket (technisches SEO) bringt dich ins Spiel, aber die Gewinne werden mit OnPage- und OffPage-SEO eingefahren.
Besonders wichtig ist dabei die mobile Version deiner Website.
Seit Juli 2024 crawlt Google Websites “mobile-first”, das heisst, die mobile Version deiner Seite ist die primäre Grundlage für die Bewertung durch Google.
Wenn die mobile Version technisch sauber und schnell ist, hast du einen klaren Vorteil.
Auch die Core Web Vitals — zentrale Metriken zur Nutzererfahrung — haben an Bedeutung verloren.
Das wurde auf der Google-Entwicklerkonferenz im Dezember 2024 bestätigt.
Google hat erklärt, dass Core Web Vitals nicht mehr das Gewicht haben, das sie einst hatten.
Das heisst aber nicht, dass sie irrelevant sind.
Gute Ladezeiten und eine reibungslose Nutzererfahrung sorgen weiterhin dafür, dass Besucher auf der Website bleiben und konvertieren.
Technisches SEO ist also die Grundlage, um überhaupt eine Chance auf gute Rankings in der Suchmaschine zu haben.
Es reicht aber nicht aus, um allein Top-Rankings zu sichern.
Dafür braucht es zusätzlichen Einsatz durch OnPage- und OffPage-Optimierungen.
Hauptziele einer technischen SEO-Optimierung im Jahr 2025
Eine gut durchdachte technische Suchmaschinenoptimierung ist die Basis für jedes erfolgreiche Online-Marketing-Projekt.
Ohne eine optimierte Website-Struktur, effizientes Crawling und eine durchdachte Indexierung bleiben selbst die besten Inhalte in den Suchmaschinen unentdeckt.
Technical SEO umfasst dabei viele Bereiche – von der Optimierung der Core Web Vitals über die korrekte Verwendung von hreflang-Tags bis hin zur Erstellung einer klaren URL-Struktur.
Diese Aspekte sind nicht nur ein Must-Have für die Nutzererfahrung, sondern auch eine Voraussetzung für bessere Rankings und die ideale Darstellung der Inhalte in den Suchergebnissen.
In den nächsten Abschnitten fokussieren wir uns auf die zentralen Optimierungsmassnahmen, die du im Jahr 2025 kennen solltest.
Schnelleres Crawling & Indexierung
Das Crawling und die Indexierung sind sehr wichtige Prozesse in der technischen Suchmaschinenoptimierung für eine bessere Sichtbarkeit in der Suchmaschine.
Suchmaschinen-Crawler durchforsten die Seiten einer Website und entscheiden, welche Inhalte in den Index aufgenommen werden.
Ein effizienter Crawl-Prozess sorgt dafür, dass wichtige Inhalte schneller in den Suchergebnissen erscheinen.
Hier spielen die URL-Struktur, die robots.txt-Datei und der Quellcode eine wichtige Rolle.
Websites mit klarer URL-Struktur und einer gut durchdachten internen Verlinkung ermöglichen es den Crawlern, effizient zu navigieren.
Die Verwendung von strukturierten Daten verbessert zusätzlich die Darstellung der Inhalte in den Suchergebnissen.
Du solltest deshalb darauf achten, dass der Quellcode sauber ist und die Ladezeiten optimiert sind, da das direkte Auswirkungen auf den Crawl-Budget-Verbrauch hat.
Die Verwaltung der Crawling-Frequenz und die Einrichtung einer benutzerfreundlichen 404-Seite gehören ebenfalls zu den Best Practices.
Empfohlene Optimierungsmassnahmen
- Überprüfung der robots.txt-Datei
- Erstellung einer SEO-konformen URL-Struktur
- Nutzung von strukturierten Daten (Schema.org)
- Sicherstellen einer funktionalen und ansprechenden 404-Seite
- Optimierung der internen Verlinkung für eine bessere Navigation der Crawler
Bessere UX durch optimierte Performance
Eine schnelle Website ist einer der Ranking-Faktoren und verbessert die Nutzererfahrung (UX) nachhaltig.
Google misst die Performance mit den Core Web Vitals, die Ladezeit, Interaktivität und visuelle Stabilität einer Seite bewerten.
Eine Website mit schlechter Performance führt zu höheren Absprungraten, was sich negativ auf die Rankings auswirken kann.
Die Optimierung der Ladegeschwindigkeit gehört zu den wichtigsten SEO-Massnahmen.
Zu den konkreten Massnahmen zählen die Reduktion der Dateigrösse, die Minimierung des Quellcodes, die Bildkomprimierung sowie die Verwendung von Caching- und Content Delivery Networks (CDNs).
Schnelle Ladezeiten verbessern nicht nur die Nutzererfahrung, sondern sorgen auch dafür, dass mehr Inhalte vom Crawler erfasst werden.
Empfohlene Optimierungsmassnahmen
- Reduzierung der Ladezeit (Lazy Loading, Bildkomprimierung)
- Implementierung der Core Web Vitals
- Nutzung von Caching und CDNs
- Minimierung von CSS- und JavaScript-Dateien
- Sicherstellen der mobilen Nutzererfahrung (Mobile-First-Ansatz)
Effiziente Seitenstruktur und URL-Hierarchie
Die URL-Struktur und die Seitenhierarchie beeinflussen die Darstellung der Inhalte in den Suchmaschinen und das Nutzererlebnis.
Eine logische Struktur ermöglicht es Nutzern und Suchmaschinen gleichermassen, Inhalte schnell zu finden.
URLs sollten klar, lesbar und frei von unnötigen Parametern sein.
Eine gut durchdachte Seitenstruktur sorgt dafür, dass wichtige Inhalte in der Navigation leicht zugänglich sind.
Flache Hierarchien (maximal drei Klicks bis zum Ziel) und sprechende URLs sind SEO-Grundlagen, die sowohl für Google als auch für Nutzer essenziell sind.
Webseiten mit einer konsistenten Hierarchie haben den Vorteil, dass sie häufiger indexiert werden und bessere Rankings erzielen.
Empfohlene Optimierungsmassnahmen
- Erstellung einer SEO-freundlichen URL-Struktur
- Verwendung sprechender URLs (z. B. /leistungen/seo-audit/ statt /page?id=123)
- Strukturierung der Seiten mit klaren Haupt- und Unterkategorien
- Sicherstellung einer flachen Seitenhierarchie
- Nutzung einer XML-Sitemap zur Unterstützung der Crawler
Internationalisierung & hreflang-Tags
Für international tätige Unternehmen ist die richtige Verwendung von hreflang-Tags sehr sinnvoll, um Inhalte für verschiedene Sprachregionen korrekt zuzuordnen.
Die richtige Darstellung der Inhalte in verschiedenen Ländern sorgt dafür, dass Nutzer die relevanten Seiten in ihrer Sprache sehen.
Fehlerhafte hreflang-Tags führen jedoch zu Verwirrung bei den Suchmaschinen und beeinträchtigen die Darstellung in den Suchergebnissen.
Es ist deshalb wichtig, die Inhalte der verschiedenen Sprachversionen nicht zu duplizieren, sondern sie an die jeweilige Zielgruppe anzupassen.
Empfohlene Optimierungsmassnahmen
- Korrekte Implementierung der hreflang-Tags
- Sicherstellung der Trennung der Sprachversionen (Subdomains oder Verzeichnisse)
- Vermeidung von Duplicate Content durch sprachspezifische Inhalte
- Überprüfung der Internationalisierung mit SEO-Tools wie Screaming Frog
- Nutzung der Google Webmaster Tools zur Überwachung internationaler SEO-Signale
Technische SEO-Grundlagen
Technische SEO bildet die Grundlage jeder erfolgreichen Suchmaschinenoptimierung.
Ohne eine stabile technische Basis bleiben Inhalte für Suchmaschinen oft unsichtbar.
Aspekte wie Crawling, Indexierung und Rendering bestimmen, wie gut eine Website von Google erfasst und in den Suchergebnissen dargestellt wird.
Wer die technischen SEO-Grundlagen vernachlässigt, verschenkt Potenzial bei der Ranking-Optimierung.
Im Folgenden gehen wir auf die wichtigsten Teilbereiche ein, die du kennen solltest, um die Sichtbarkeit deiner eigenen Website zu verbessern.
Wie funktioniert Crawling & Indexierung bei Google?
Bevor Inhalte in den Suchergebnissen erscheinen, müssen sie von Google-Crawlern erfasst und indexiert werden.
Beim Crawling durchsuchen die Crawler (z. B. der Googlebot) die Website, folgen internen Links und analysieren den Quellcode der Seiten.
Die erfassten Inhalte werden dann im Google-Index gespeichert.
Nur indexierte Seiten können in den Suchergebnissen erscheinen.
Wichtige Massnahmen zur Optimierung
- Überprüfung der robots.txt-Datei und der Meta-Tags «noindex»
- Erstellung einer XML-Sitemap zur Unterstützung der Crawler
- Nutzung interner Verlinkungen zur besseren Navigation der Crawler
- Sicherstellung einer sauberen URL-Struktur ohne unnötige Parameter
Strukturierte Daten & Lesbarkeit
Strukturierte Daten ermöglichen es Suchmaschinen, die Inhalte einer Website besser zu verstehen und in den Suchergebnissen ansprechend darzustellen.
Mit Hilfe von Schema.org-Markups können Informationen wie FAQs, Produktdaten, Rezensionen oder Events direkt in den Suchergebnissen angezeigt werden.
Das erhöht die Sichtbarkeit und kann zu höheren Klickraten führen.
Für Produktseiten sind strukturierte Daten besonders wichtig, da sie die Darstellung in Google Shopping und dem Google Merchant Center verbessern.
Wenn die Produktinformationen (wie Preis, Verfügbarkeit und Bewertungen) direkt in den Suchergebnissen angezeigt werden, erhöht das die Reichweite.
Auch FAQs profitieren von strukturierten Daten, da sie als erweiterte Suchergebnisse (Rich Snippets) erscheinen können.
Wichtige Massnahmen zur Optimierung
- Implementierung von Schema.org-Markup für FAQs, Produkte und Veranstaltungen
- Nutzung von Tools zur Überprüfung der strukturierten Daten
- Sicherstellung der Korrektheit der Informationen (z. B. Preise, Verfügbarkeit)
- Vermeidung von doppeltem Content durch Unique Content in den strukturierten Daten
Pagespeed & Core Web Vitals
Die Ladegeschwindigkeit einer Website ist ein weiterer, wichtiger Ranking-Faktor und beeinflusst die Nutzererfahrung (UX) direkt.
Google bewertet die Seitenperformance anhand der Core Web Vitals.
Diese Metriken umfassen Ladezeit (LCP), Interaktivität (FID) und visuelle Stabilität (CLS).
Langsame Ladezeiten führen zu höheren Absprungraten, was sich negativ auf die Rankings auswirken kann.
Um die Performance zu verbessern, sollten Bilder komprimiert, der Quellcode minimiert und Caching verwendet werden.
Auch das Hosting spielt eine zentrale Rolle, da leistungsstarke Server die Ladezeiten positiv beeinflussen.
Schnelle Ladezeiten ermöglichen es den Crawlern, mehr Seiten zu durchsuchen, was wiederum die Indexierungsgeschwindigkeit verbessert.
Wichtige Massnahmen zur Optimierung
- Reduzierung der Dateigrösse von Bildern (z. B. WebP-Format)
- Implementierung von Lazy Loading für Bilder und Videos
- Nutzung von Content Delivery Networks (CDNs)
- Überprüfung und Optimierung der Core Web Vitals mit Tools wie PageSpeed Insights
URL-Struktur & hreflang
Eine klare und logische URL-Struktur ist ein zentraler Bestandteil der technischen SEO.
Sprechende URLs (z. B. /leistungen/seo-audit/ statt /page?id=123) signalisieren Nutzern und Suchmaschinen den Inhalt der Seite.
Eine durchdachte URL-Hierarchie sorgt dafür, dass die wichtigsten Seiten leicht zugänglich sind und eine bessere Crawling- und Indexierungsrate erreichen.
Für mehrsprachige Websites ist zusätzlich die korrekte Verwendung von hreflang-Tags wichtig.
Diese Tags geben an, welche Sprachversion einer Seite für welche Region bestimmt ist.
Fehlerhafte hreflang-Tags können zu Duplicate Content führen und die Darstellung der Inhalte in den Suchergebnissen beeinträchtigen.
Wichtige Massnahmen zur Optimierung
- Erstellung sprechender URLs mit klaren Keywords
- Vermeidung unnötiger Parameter in der URL
- Implementierung der hreflang-Tags für internationale Websites
- Überprüfung der URL-Architektur und Sicherstellung einer flachen Hierarchie
Server- und Hosting-Leistungen (z. B. 5xx-Fehler vermeiden)
Die Infrastruktur der Website beeinflusst die Performance und das Crawling-Verhalten der Suchmaschinen-Crawler.
Wenn Server langsam reagieren oder 5xx-Fehler (Serverfehler) auftreten, können Crawler die Seiten nicht erfassen.
Das wirkt sich negativ auf die Indexierung aus und kann sogar zu einem Crawling-Stopp führen.
Ein schneller und zuverlässiger Hosting-Anbieter sorgt dafür, dass die Website jederzeit erreichbar ist.
Du solltest deshalb sicherstellen, dass dein Server leistungsfähig ist und regelmässige Backups durchgeführt werden.
Die Verwaltung des Servers und der Datenbankinfrastruktur sollte ebenfalls überwacht werden, um Ausfallzeiten zu minimieren.
Wichtige Massnahmen zur Optimierung:
- Vermeidung von 5xx-Fehlern durch zuverlässiges Hosting
- Sicherstellung einer optimalen Server-Geschwindigkeit
- Überwachung der Serverleistung mit Tools wie UptimeRobot
- Nutzung von Server-Caching und stabilen Content Delivery Networks (CDNs)
Unterschied zwischen Crawling, Rendering und Indexierung?
Das Zusammenspiel von Crawling, Rendering und Indexierung ist für die Darstellung der Inhalte in den Suchergebnissen wichtig.
Während das Crawling darauf abzielt, die Inhalte der Website zu erfassen, geht es beim Rendering darum, die Inhalte so zu interpretieren, wie sie für den Nutzer sichtbar sind.
Erst danach entscheidet Google, welche Seiten in den Index aufgenommen werden.
Beim Crawling durchsucht der Crawler die Seite und erfasst den Quellcode.
Rendering bedeutet, dass die Inhalte so dargestellt werden, wie der Nutzer sie sieht – dazu gehören auch dynamische Inhalte, die per JavaScript nachgeladen werden.
Die Indexierung erfolgt, wenn Google entscheidet, ob und wie die Seite in den Suchergebnissen angezeigt wird.
Fehler in der Rendering-Phase (z. B. unvollständig geladene Inhalte) können dazu führen, dass wichtige Informationen nicht indexiert werden.
Wichtige Massnahmen zur Optimierung
- Überprüfung der Darstellung von dynamischen Inhalten mit der Funktion «Als Googlebot rendern» in den Webmaster Tools
- Sicherstellen, dass Inhalte bereits im HTML-Quellcode sichtbar sind
- Überprüfung von JavaScript-Rendering-Problemen mit SEO-Tools wie Screaming Frog
- Nutzung von Server-Side-Rendering (SSR) oder hybriden Rendering-Methoden für Single-Page-Applications (SPAs)
Pagespeed und Core Web Vitals
Die Ladegeschwindigkeit einer Website hat einen direkten Einfluss auf das Nutzererlebnis und die SEO-Performance.
Pagespeed und die Core Web Vitals sind entscheidende Ranking-Faktoren, die darüber bestimmen, wie gut eine Website in den Suchmaschinen abschneidet.
Websites mit schneller Ladezeit und einer stabilen Darstellung sorgen nicht nur für zufriedenere Nutzer, sondern werden auch von Google bevorzugt behandelt.
Im Folgenden werfen wir einen Blick auf die wichtigsten Aspekte rund um Pagespeed und Core Web Vitals.
Was ist Pagespeed und warum ist es wichtig?
Pagespeed bezeichnet die Ladegeschwindigkeit einer Website.
Sie gibt an, wie schnell Inhalte wie Texte, Bilder und Videos auf der Webseite sichtbar werden.
Eine langsame Ladezeit erhöht die Absprungrate, während schnelle Ladezeiten die Nutzererfahrung verbessern und die Conversions fördern.
Für Suchmaschinen wie Google ist Pagespeed ein direkter Ranking-Faktor.
Eine langsame Website kann dazu führen, dass weniger Seiten von den Crawlern indexiert werden.
Zudem wirkt sich eine schlechte Ladezeit negativ auf die Core Web Vitals aus, was wiederum die Darstellung der Inhalte in den Suchergebnissen beeinträchtigen kann.
Was sind Core Web Vitals?
Die Core Web Vitals sind drei zentrale Metriken, mit denen Google die Nutzererfahrung einer Website bewertet.
Sie messen, wie schnell Inhalte geladen werden, wie stabil die Darstellung ist und wie schnell Nutzer mit der Website interagieren können.
Jede dieser Metriken hat definierte Grenzwerte, die erreicht werden müssen, um als «gut» zu gelten.
Largest Contentful Paint (LCP)
Der LCP-Wert zeigt, wie lange es dauert, bis der grösste sichtbare Inhalt einer Seite geladen ist.
Das kann ein Bild, ein Video oder ein Textblock sein.
Der Zielwert liegt bei unter 2,5 Sekunden.
Ein schlechter LCP-Wert kann durch grosse Bilddateien, fehlendes Caching oder langsame Server verursacht werden.
First Input Delay (FID)
Der First Input Delay misst die Zeit zwischen der ersten Nutzerinteraktion (z. B. Klick auf einen Button) und der Reaktion der Website.
Ein guter FID-Wert liegt bei unter 100 Millisekunden.
Lange Wartezeiten entstehen oft durch JavaScript, das zuerst geladen werden muss.
Cumulative Layout Shift (CLS)
Der CLS-Wert misst, ob sich das Layout der Website während des Ladens verschiebt.
Das passiert oft, wenn Bilder oder Werbebanner ohne feste Grössenangaben geladen werden.
Eine unruhige Darstellung der Seite sorgt für eine schlechte Nutzererfahrung und hohe Absprungraten.
Ein CLS-Wert unter 0,1 gilt als optimal.
Wie wird Pagespeed gemessen?
Der Pagespeed wird mit speziellen Tools gemessen, die die Ladezeit, Core Web Vitals und Performance-Daten erfassen.
Google verwendet reale Nutzerdaten (Field Data) sowie Labordaten (Lab Data), um die Leistung der Seite zu bewerten.
Die Tools analysieren den Quellcode, die Bildgrössen, die Nutzung von Caching und viele weitere Aspekte.
Die Messung der Ladegeschwindigkeit sollte regelmässig erfolgen, da Änderungen am Design, neue Inhalte oder Plugins die Ladezeit beeinflussen können.
Die besten Tools für eine Pagespeed-Analyse
Die Pagespeed-Analyse erfordert den Einsatz spezialisierter Tools, die die Ladezeit, Core Web Vitals und potenzielle Optimierungsmöglichkeiten aufdecken.
Neben den Tools von Google gibt es auch externe Plattformen, die tiefere Einblicke in die Ladegeschwindigkeit geben.
Meiner Meinung nach sind die folgenden Tools die besten für die Pagespeed-Analyse:
Google PageSpeed Insights
Dieses Tool misst die Ladezeit von Desktop- und Mobilgeräten, bewertet Core Web Vitals und bietet dir sinnvolle Optimierungsvorschläge an.
Google Lighthouse
Mit Google Lighthouse kannst du SEO-Audits durchführen.
Ausserdem analysiert dieses Tool die Performance, die Barrierefreiheit und die Sicherheit deiner Webseite.
GTmetrix
Dieses Tool bewertet die Ladezeit deiner Seite und liefert dir einen detaillierten Wasserfall-Bericht, der den Ladevorgang Schritt für Schritt zeigt.
WebPageTest
Mit diesem Tool kannst du Tests unter realen Bedingungen durchführen (unterschiedliche Browser, Netzwerke).
Zusätzlich bietet es dir tiefergehende Einblicke in die Ladezeiten.
Was tun, wenn ich den Core Web Vitals Test bestehe, aber die Performance schlecht ist?
Manchmal erfüllt eine Website die Anforderungen der Core Web Vitals, hat aber dennoch schlechte Performance-Werte.
Das liegt daran, dass die Core Web Vitals nur bestimmte Aspekte der Nutzererfahrung messen.
Weitere Performance-Faktoren wie Caching, Server-Antwortzeiten oder die Nutzung von Drittanbieter-Skripten sind nicht direkt in den Core Web Vitals enthalten.
Wenn die Core Web Vitals gut sind, aber die Performance dennoch schlecht ist, sollte man die allgemeine Ladezeit, die Server-Reaktionszeiten und die Bildkomprimierung überprüfen.
Auch Drittanbieter-Skripte, wie Tracking-Tools oder Marketing-Skripte, können die Ladegeschwindigkeit erheblich verlangsamen.
Was man tun kann
- Überprüfung der Serverleistung und Reduzierung der Antwortzeiten
- Entfernung oder Verzögerung von Drittanbieter-Skripten (z. B. Tracking-Tools)
- Nutzung von Lazy Loading für Bilder und Videos
Crawling & Indexierung optimieren
Damit Inhalte in den Suchergebnissen erscheinen, müssen sie zuerst von den Suchmaschinen-Crawlern entdeckt, analysiert und anschliessend indexiert werden.
Ohne effizientes Crawling bleiben wichtige Inhalte unsichtbar.
Daher ist es für jedes Unternehmen wichtig, sicherzustellen, dass alle relevanten Seiten gecrawlt und indexiert werden.
Im Folgenden erkläre ich dir, wie Crawling funktioniert, welche SEO-Massnahmen helfen und welche Tools zur Optimierung des Crawlings beitragen können.
Was ist Crawling?
Crawling ist der Prozess, bei dem Suchmaschinen-Bots (wie der Googlebot) Webseiten durchsuchen, um neue oder aktualisierte Inhalte zu entdecken.
Die Crawler folgen Links innerhalb der Website, durchsuchen den Quellcode und speichern relevante Informationen.
Diese Daten werden anschliessend an die Indexierung weitergeleitet.
Suchmaschinen verwenden Algorithmen, um zu entscheiden, welche Seiten wie oft gecrawlt werden.
Daher ist es wichtig, das Crawling durch eine gute URL-Struktur, eine fehlerfreie robots.txt-Datei und eine saubere Seitenstruktur zu erleichtern.
Wie merke ich, ob meine Seiten gecrawlt wurden?
Ob eine Seite gecrawlt wurde, lässt sich mit verschiedenen Tools überprüfen.
Die Google Search Console ist dabei das wichtigste Tool zur Analyse des Crawling-Status.
Im Abschnitt «URL-Prüfung» kannst du eine bestimmte URL analysieren und sehen, ob sie von Google gecrawlt und indexiert wurde.
Ein weiteres Anzeichen dafür, dass eine Seite gecrawlt wurde, ist die Sichtbarkeit in den Suchergebnissen.
Wenn die Seite bei Google auffindbar ist, wurde sie erfolgreich gecrawlt und indexiert.
Um das zu testen, kann man etwa den Befehl site:beyondweb.ch in die Google-Suche eingeben und sehen, welche Seiten indexiert sind.
Google Search Console: “Abdeckung“-Bericht analysieren
Der «Abdeckung»-Bericht in der Google Search Console liefert Informationen darüber, welche Seiten erfolgreich gecrawlt und indexiert wurden und welche Fehler aufgetreten sind.
Dieser Bericht zeigt auch, welche Seiten ausgeschlossen wurden und warum (z. B. durch «noindex»-Tags oder robots.txt-Einträge).
Besondere Aufmerksamkeit sollte man den Fehlern widmen, wie 404-Seiten oder 5xx-Fehlern, da diese das Crawling beeinträchtigen.
Die regelmässige Überprüfung des Berichts hilft, Crawling-Probleme frühzeitig zu erkennen und zu beheben.
Interne Verlinkung optimieren
Eine starke interne Verlinkung sorgt dafür, dass Crawler einfacher durch die Seiten navigieren können.
Links zu wichtigen Inhalten sollten auf der Startseite oder in den Hauptkategorien vorhanden sein.
Eine gute interne Verlinkung erhöht die Crawling-Frequenz dieser Seiten und signalisiert Suchmaschinen, welche Seiten besonders relevant sind.
Tipps zur Optimierung der internen Verlinkung
- Wichtige Inhalte aus der Hauptnavigation verlinken
- Verlinkung mit sprechenden Ankertexten (z. B. «SEO Audit» statt «Hier klicken»)
- Vermeidung von verwaisten Seiten (Seiten ohne interne Links)
Logfile-Analyse durchführen
Eine Logfile-Analyse gibt Auskunft darüber, wie oft und welche Seiten von Suchmaschinen-Crawlern besucht werden.
Diese Informationen helfen zu erkennen, ob der Crawler bestimmte Seiten ignoriert.
Durch die Logfile-Analyse lässt sich auch überprüfen, wie sich Änderungen an der Seitenstruktur auf das Crawling auswirken.
Warum eine Logfile-Analyse sinnvoll ist
- Erkennung von Crawling-Fehlern
- Identifikation von zu selten gecrawlten Seiten
- Überprüfung des Verhaltens von Suchmaschinen-Crawlern
Crawl-Budget optimieren
Das Crawl-Budget bezeichnet die Anzahl der URLs, die der Googlebot innerhalb eines bestimmten Zeitraums crawlt.
Das Budget ist begrenzt, vor allem bei grossen Websites.
Daher ist es wichtig, dass der Crawler seine Zeit nicht mit unwichtigen Seiten wie Filterseiten, Sortieroptionen oder Duplicate Content verschwendet.
Tipps zur Optimierung des Crawl-Budgets
- Ausschluss von Filterseiten und Suchergebnissen per robots.txt oder noindex
- Vermeidung von Duplicate Content (z. B. durch kanonische URLs)
- Priorisierung wichtiger Seiten durch interne Links und XML-Sitemaps
- Sicherstellung, dass keine unnötigen Weiterleitungen (301/302) vorhanden sind
Duplicate Content vermeiden
Duplicate Content bezeichnet identische Inhalte auf verschiedenen URLs.
Diese Inhalte verschwenden das Crawl-Budget, da der Crawler unnötig Zeit aufwenden muss, um zu entscheiden, welche Version der Inhalt besser indexiert werden soll.
Duplicate Content ist aber nicht nur ein Problem für das Crawling, sondern auch für die Indexierung.
Durch den Einsatz von Canonical-Tags und die Vermeidung von doppelten Inhalten kann sichergestellt werden, dass der Crawler sich auf die wichtigsten Inhalte konzentriert.
Massnahmen zur Vermeidung von Duplicate Content
- Nutzung von kanonischen URLs (Canonical-Tags)
- Vermeidung von Druckversionen und Sortier-URLs im Index
- Konsistente Verwendung der www- oder non-www-Version der Website
- Verwendung von hreflang-Tags bei internationalen Seiten
Lesbarkeit für Google verbessern
Eine bessere Lesbarkeit der Inhalte erleichtert es Google, diese zu verstehen, zu analysieren und korrekt zu indexieren.
Je klarer die Struktur einer Website ist, desto einfacher können Suchmaschinen-Crawler die Inhalte erfassen.
Das hat direkte Auswirkungen auf das Ranking, die Darstellung in den Suchergebnissen (Rich Snippets) und die Nutzererfahrung.
Im Folgenden zeige ich dir, welche Massnahmen du ergreifen solltst, um die Lesbarkeit für Google zu verbessern.
Was bedeutet „bessere Lesbarkeit“ für Google?
Für Google bedeutet «bessere Lesbarkeit», dass Inhalte einfach zu verstehen, zu klassifizieren und zu indexieren sind.
Der Googlebot durchsucht den Quellcode einer Website und analysiert dabei die Textstruktur, die Verwendung von Tags und die Formatierung der Inhalte.
Klare Hierarchien und eine logische Gliederung sind hier wichtig.
Eine verbesserte Lesbarkeit sorgt dafür, dass Google die Inhalte schneller erfassen kann.
Das Ergebnis sind bessere Rankings und Rich Snippets, die die Klickrate (CTR) in den Suchergebnissen erhöhen.
Eine strukturierte Darstellung der Informationen durch Heading-Tags, Meta-Tags und strukturierte Daten (Schema.org) ist daher ein absolutes Must-Have.
Strukturierte Daten (Schema.org, Rich Snippets, FAQ)
Strukturierte Daten helfen Google, die Inhalte der Seite besser zu interpretieren.
Mit Markup von Schema.org lassen sich wichtige Informationen wie FAQs, Bewertungen, Produktdaten und Veranstaltungsinformationen strukturieren.
Diese Daten erscheinen als Rich Snippets direkt in den Suchergebnissen, was die Klickrate (CTR) deutlich steigern kann.
Beispiele für strukturierte Daten
- FAQ-Markup
Fragen und Antworten in einem FAQ-Bereich können als Rich Snippets angezeigt werden. - Produktdaten
Preis, Verfügbarkeit und Bewertungen werden bei Onlineshops direkt in den Suchergebnissen dargestellt. - Veranstaltungsdaten
Events mit Datum, Uhrzeit und Standort erscheinen direkt in den Google-Ergebnissen.
Wichtige Massnahmen
- Implementierung von Schema.org-Markup mit JSON-LD
- Nutzung des Rich Results Testing Tool von Google zur Validierung
- Strukturierte Daten für FAQ, Bewertungen, Produkte und Events hinzufügen
Heading-Tags (H1-H6) korrekt verwenden
Heading-Tags (H1 bis H6) strukturieren den Inhalt einer Seite und geben Google Hinweise darauf, welche Themen besonders wichtig sind.
Die H1 ist der wichtigste Titel der Seite und sollte das Hauptthema der Seite beschreiben.
Untergeordnete Themen werden mit H2, H3 und weiteren Tags strukturiert.
Best Practices bei der Verwendung von Heading-Tags
- Nur eine H1 pro Seite
Die H1 beschreibt das Hauptthema der Seite. - H2 und H3 als Unterkategorien
Verwende H2 für Hauptabschnitte und H3 für Unterthemen. - Keywords in den Headings verwenden
Relevante Keywords in die H2 und H3 integrieren.
Diese klare Hierarchie ermöglicht es Google, die Seite thematisch zu verstehen und den Inhalt besser zu klassifizieren.
Das verbessert nicht nur die Lesbarkeit, sondern auch die Chance, mit den richtigen Keywords zu ranken.
Meta-Tags (Meta-Titel, Meta-Beschreibung) optimieren
Meta-Tags sind kleine Textausschnitte, die Google Informationen über den Inhalt einer Seite liefern.
Der Meta-Titel erscheint als Haupttitel in den Suchergebnissen, während die Meta-Beschreibung den Text darunter bildet.
Beide sind entscheidend für die Klickrate (CTR) und beeinflussen indirekt das Ranking.
Wichtige Massnahmen zur Optimierung
- Meta-Titel optimieren
Der Titel sollte das Haupt-Keyword enthalten und den Inhalt der Seite zusammenfassen.
- Meta-Beschreibung optimieren
Eine klare, ansprechende Beschreibung mit Call-to-Actions (z. B. «Jetzt mehr erfahren») erhöht die Klickrate.
- Zeichenlänge beachten
Meta-Titel sollten maximal 60 Zeichen und Meta-Beschreibungen maximal 160 Zeichen umfassen.
Google verwendet die Meta-Tags, um den Nutzern in den Suchergebnissen eine Vorschau auf die Seite zu geben.
Klare, ansprechende Meta-Tags erhöhen die Klickrate und signalisieren Google, dass der Inhalt relevant ist.
Table of Contents (TOC) einfügen (Inhaltsverzeichnis)
Ein Inhaltsverzeichnis (Table of Contents, TOC) verbessert die Lesbarkeit der Inhalte sowohl für Nutzer als auch für Google.
TOCs bestehen aus Sprungmarken, die es Nutzern ermöglichen, schnell zu den gewünschten Abschnitten zu navigieren.
Für Google erleichtert das Inhaltsverzeichnis die Erfassung der Seitenstruktur und die Darstellung von Sprungmarken in den Suchergebnissen.
Wichtige Vorteile eines Inhaltsverzeichnisses
- Bessere Navigation
Nutzer finden die Informationen schneller. - Sprungmarken in Suchergebnissen
Google kann Sprungmarken direkt in den Suchergebnissen anzeigen. - Verbesserung der Lesbarkeit
Google erkennt die inhaltliche Struktur und kann die Seite besser klassifizieren.
So implementieren Sie ein Inhaltsverzeichnis
- Einfügen eines TOC mit HTML-Ankerlinks (#anchor-link)
- Automatische Inhaltsverzeichnisse mit Plugins (z. B. für WordPress)
- Sicherstellen, dass die Überschriften (H2, H3) die Themen klar beschreiben
Das Inhaltsverzeichnis wird von Google oft als Sprungmarken direkt in den Suchergebnissen angezeigt, was die Klickrate erhöht.
Code-Optimierungen
Ein schlanker, sauberer Quellcode ist die Grundlage für eine schnelle, gut funktionierende Website.
Er reduziert die Ladezeiten, verbessert die Nutzererfahrung und ermöglicht Suchmaschinen, Inhalte schneller zu crawlen und zu indexieren.
Im Gegensatz zu «aufgeblähtem» Code ist schlanker Code effizienter, spart Ressourcen und unterstützt die Optimierung der Core Web Vitals.
Im Folgenden werden die wichtigsten SEO-Massnahmen zur Code-Optimierung erläutert.
SEO-Massnahmen zur Code-Optimierung
Schlanker Code sorgt dafür, dass Websites schneller geladen werden, weniger Speicher benötigen und die Crawling-Effizienz der Suchmaschinen verbessert wird.
Google bevorzugt schnelle Websites mit sauberem Quellcode, was sich direkt auf die Rankings auswirkt.
Jede zusätzliche Millisekunde Ladezeit kann die Nutzererfahrung verschlechtern, die Absprungrate erhöhen und die Conversion-Rate senken.
Unnötige Skripte, zu viele Animationen und komplexer HTML- oder CSS-Code führen zu längeren Ladezeiten.
Für die Crawler von Suchmaschinen wie Google bedeutet das, dass sie mehr Ressourcen benötigen, um die Seite zu verarbeiten.
Mit einem optimierten Code kannst du also sicherstellen, dass die wichtigsten Inhalte schnell erfasst und indexiert werden.
Code lean halten: Vermeide zu viele verschachtelte HTML-Elemente
Verschachtelte HTML-Elemente erhöhen die Komplexität des Quellcodes und verlangsamen die Ladezeit.
Jede zusätzliche Verschachtelung erfordert mehr Rechenleistung und Speicher, was sich negativ auf die Core Web Vitals auswirkt.
Massnahmen zur Optimierung
- Reduzieren von tief verschachtelten Divs, Spans und Containern.
- Vermeiden von «Divitis» (übermäßige Nutzung von <div>-Elementen).
- Einsatz von semantischen HTML-Tags wie <article>, <section> oder <header>, um die Struktur klarer zu definieren.
Ein cleaner Code ermöglicht es Google, die Inhalte der Website schneller zu erfassen und zu verstehen.
Das verbessert das Crawling und kann die Darstellung der Inhalte in den Suchergebnissen optimieren.
Plugins reduzieren: weniger Plugins, leichte Plugins (z. B. WP Rocket)
Zu viele Plugins blähen den Code der Website auf, führen zu längeren Ladezeiten und können zu Sicherheitslücken führen.
Jedes Plugin fügt zusätzliche Skripte, CSS-Dateien oder Funktionen hinzu, die die Performance verlangsamen.
Massnahmen zur Optimierung
- Verwendung von WP Rocket
Ein leichtes Caching-Plugin, das die Performance verbessert. - Reduzierung der Anzahl der Plugins
Nur essentielle Plugins beibehalten. - Vermeidung von Plugins mit übermässigem Funktionsumfang
Es ist besser, mehrere kleine, spezialisierte Plugins zu verwenden als ein «All-in-One»-Plugin, das den Quellcode aufbläht.
Durch die Reduzierung der Plugins wird die Seitenladezeit verkürzt, was die Core Web Vitals verbessert.
Weniger Plugins bedeuten auch weniger Sicherheitsrisiken und eine bessere Server-Performance.
CSS-Code optimieren: Unnötigen CSS-Code reduzieren und minifizieren
Unnötiger CSS-Code erhöht die Ladezeit und vergrössert die Dateigrösse der Website.
Das verlangsamt das Rendern der Inhalte und führt zu schlechteren Ergebnissen bei den Core Web Vitals, insbesondere dem Largest Contentful Paint (LCP).
Massnahmen zur Optimierung
- Minifizierung des CSS-Codes
Entfernen von Leerzeichen, Zeilenumbrüchen und Kommentaren mit Tools wie Autoptimize. - Reduzierung ungenutzten CSS-Codes
Nur benötigte Stile einbinden und nicht verwendete Klassen entfernen. - Lazy Loading von nicht kritischem CSS
Erstes CSS inline laden, weniger wichtige Styles asynchron nachladen.
Die Minifizierung reduziert die Grösse der CSS-Dateien und beschleunigt den Rendering-Prozess.
Suchmaschinen-Crawler können den Quellcode besser verstehen und die Inhalte schneller erfassen.
JavaScript reduzieren: Unnötige Skripte entfernen, Lazy Loading einbauen
Zu viele JavaScript-Dateien oder schwerfällige Skripte verlangsamen den Ladeprozess.
Da Google JavaScript beim Rendering verarbeiten muss, kann das die Crawling-Effizienz und die Darstellung der Inhalte in den Suchergebnissen beeinträchtigen.
Massnahmen zur Optimierung
- Lazy Loading verwenden
JavaScript-Inhalte (z. B. Bilder und Videos) werden nur geladen, wenn sie im sichtbaren Bereich erscheinen. - JavaScript-Dateien minifizieren
Entfernen von Leerzeichen, Kommentaren und unnötigem Code. - Drittanbieter-Skripte (z. B. Tracking-Skripte) minimieren
Skripte wie Google Analytics asynchron laden.
Das Reduzieren unnötiger JavaScript-Skripte verbessert den First Input Delay (FID) und den Cumulative Layout Shift (CLS), beides wichtige Core Web Vitals.
Das beschleunigt das Rendering und optimiert die Performance.
Vermeide zu viele Animationen (hoher CPU-Verbrauch)
Animationen, insbesondere solche mit CSS oder JavaScript, verbrauchen viele Ressourcen und belasten die CPU.
Wenn Animationen während des Ladens ablaufen, kann das zu einem Cumulative Layout Shift (CLS) führen, der sich negativ auf die Core Web Vitals auswirkt.
Massnahmen zur Optimierung
- Vermeidung unnötiger Animationen
Animationen nur verwenden, wenn sie der UX dienen. - GPU-beschleunigte Animationen verwenden
CSS-Animationen wie transform und opacity sind GPU-beschleunigt und belasten die CPU weniger. - Animationen bei Scroll-Events minimieren
Scroll-abhängige Animationen erfordern ständiges Neurendern der Inhalte.
Durch das Reduzieren von Animationen verbessert sich die visuelle Stabilität, was den Cumulative Layout Shift (CLS) reduziert.
Das verbessert die Nutzererfahrung und sorgt für eine bessere SEO-Performance.
Tools zur Code-Optimierung
Es gibt zahlreiche Tools, die Unternehmen bei der Optimierung ihres Codes unterstützen.
Mit diesen Tools lassen sich CSS, JavaScript und HTML minifizieren, ungenutzter Code entfernen und das Caching optimieren.
Empfohlene Tools zur Code-Optimierung
- WP Rocket
Ein All-in-One-Caching-Plugin, das das Caching, die Minifizierung von CSS/JavaScript und Lazy Loading unterstützt. - Asset CleanUp
Entfernt unnötige Skripte und CSS auf Seitenebene. - Autoptimize
Minifiziert CSS, JavaScript und HTML und reduziert die Dateigrösse der Website.
Mit diesen Tools kannst du den Quellcode deiner Websites schlank und effizient halten.
Das erleichtert das Crawling, verbessert die Performance und trägt zu einem höheren Ranking bei.
Content-Formatierung
Eine optimale Content-Formatierung sorgt dafür, dass Inhalte für Nutzer und Suchmaschinen besser verständlich sind.
Strukturierte Inhalte mit klar definierten Heading-Tags, Lazy Loading und gut durchdachten Meta-Tags verbessern sowohl die Nutzererfahrung als auch das SEO-Ranking.
Google bevorzugt gut strukturierte Inhalte, da sie leichter zu crawlen und zu indexieren sind.
Im Folgenden zeige ich dir, welche Massnahmen zur Content-Formatierung beitragen und welche Tools du dafür nutzen kannst.
Optimierte Heading-Struktur (H1, H2, H3 logisch strukturieren)
Eine klare Heading-Struktur (H1, H2, H3) ist entscheidend für die Lesbarkeit der Inhalte.
Die H1 gibt an, worum es auf der Seite geht, während H2 und H3 die Unterthemen abdecken.
Diese Struktur hilft sowohl Google als auch den Nutzern, die Inhalte schnell zu verstehen.
Best Practices:
- Nur eine H1 pro Seite
Die H1 sollte das Hauptthema der Seite klar definieren. - Logische Hierarchie verwenden
Verwende H2-Tags für Hauptthemen und H3-Tags für Unterthemen. - Keywords in die Überschriften integrieren
SEO-relevante Keywords sollten in H1, H2 und H3 enthalten sein.
Eine optimierte Heading-Struktur verbessert die Crawling-Effizienz der Crawler, da Google den thematischen Aufbau der Seite besser versteht.
Das kann sich positiv auf die Darstellung in den Suchergebnissen auswirken.
Lazy Load: Verhindert das Laden von Bildern, bis der User scrollt.
Lazy Loading ist eine Technik, bei der Bilder und Videos erst geladen werden, wenn sie in den sichtbaren Bereich der Seite gelangen.
Das reduziert die Ladezeit und verbessert die Core Web Vitals, insbesondere den Largest Contentful Paint (LCP).
Vorteile von Lazy Loading
- Schnellere Ladezeit
Da Bilder und Videos erst geladen werden, wenn sie benötigt werden, wird die Anfangsladezeit reduziert. - Bessere Nutzererfahrung
Nutzer sehen die wichtigen Inhalte schneller, ohne auf Bilder oder Videos zu warten. - Bessere Core Web Vitals
Eine schnellere Ladezeit verbessert die Performance-Werte wie LCP.
Lazy Loading kann mit Plugins wie Autoptimize oder WP Rocket einfach implementiert werden.
Das verbessert die SEO-Werte der Website und sorgt dafür, dass Google die Inhalte schneller erfasst.
Meta-Titel und Meta-Beschreibungen optimieren (kreative CTAs)
Die Meta-Tags (Meta-Titel und Meta-Beschreibung) sind die erste Berührungspunkte der Nutzer mit einer Website in den Suchergebnissen.
Eine gut formulierte Meta-Beschreibung mit einem klaren Call-to-Action (CTA) erhöht die Klickrate (CTR) und verbessert das Ranking.
Best Practices
- Meta-Titel optimieren
Füge relevante Keywords hinzu und formuliere den Titel ansprechend. - Meta-Beschreibung mit CTA
Verwende Aufforderungen wie «Jetzt mehr erfahren» oder «Jetzt entdecken». - Zeichenanzahl beachten
Meta-Titel (max. 60 Zeichen) und Meta-Beschreibung (max. 160 Zeichen) sollten nicht zu lang sein.
Eine gut optimierte Meta-Beschreibung verführt Nutzer zum Klicken, was zu mehr Traffic führt.
Durch die Verwendung kreativer CTAs wird die Klickrate in den Suchergebnissen verbessert.
Strukturierte Daten einbinden (z. B. FAQ, Rezensionen, Produkte)
Strukturierte Daten (Schema.org-Markup) helfen Suchmaschinen, die Inhalte einer Website besser zu verstehen.
Mit strukturierten Daten lassen sich erweiterte Suchergebnisse (Rich Snippets) wie FAQs, Produktbewertungen und Event-Informationen in den Suchergebnissen anzeigen.
Beispiele für strukturierte Daten
- FAQ-SchemaErmöglicht, dass Fragen und Antworten direkt in den Suchergebnissen erscheinen.
- Rezensionen & BewertungenSternebewertungen können in den Suchergebnissen angezeigt werden.
- ProduktdatenInformationen zu Preis, Verfügbarkeit und Lieferzeiten erscheinen direkt in den Suchergebnissen.
Vorteile von strukturierten Daten
- Höhere Sichtbarkeit
Rich Snippets heben die Inhalte visuell hervor. - Bessere Klickrate (CTR)
Nutzer klicken eher auf Einträge mit erweiterten Informationen. - Verbesserte Crawling-Effizienz
Google versteht die Inhalte schneller und indexiert sie entsprechend.
Die Integration der strukturierten Daten kann mit Tools wie dem Google Structured Data Markup Helper oder Plugins wie Rank Math oder Yoast SEO erfolgen.
Tools für Content-Formatierung
Zur Optimierung der Content-Formatierung stehen verschiedene Tools zur Verfügung.
Diese Tools helfen bei der Identifikation von falschen Tags, der Prüfung der HTML-Struktur und der Implementierung von Lazy Loading.
Empfohlene Tools zur Content-Formatierung
- Detailed SEO
Identifiziert falsche Tags, fehlerhafte Heading-Strukturen und inkonsistente Inhalte. - WP Rocket
Ermöglicht Lazy Loading für Bilder, Videos und iFrames. - Autoptimize
Minifiziert HTML, CSS und JavaScript, was die Ladezeit und die Lesbarkeit der Seite verbessert.
Mit diesen Tools kannst du sicherstellen, dass deine Inhalte sauber formatiert sind, die Heading-Struktur korrekt ist und die Lazy Loading-Technik reibungslos funktioniert.
Das verbessert nicht nur die SEO-Werte, sondern auch die Nutzererfahrung.
Bildoptimierung
Bilder sind ein essenzieller Bestandteil jeder Website, aber sie können die Ladezeit erheblich verlangsamen, wenn sie nicht optimiert werden.
Eine gezielte Bildoptimierung verbessert die Performance, reduziert die Ladezeit und wirkt sich positiv auf die Core Web Vitals aus.
Gleichzeitig hilft sie Google dabei, die Inhalte der Bilder besser zu verstehen, was die SEO-Ergebnisse verbessern kann.
Im Folgenden erkläre ich dir, wie du Bilder optimal formatierst, welche Tools du verwenden kannst und welche SEO-Massnahmen dabei wichtig sind.
Bilder komprimieren (z. B. mit ShortPixel, Imagify)
Unkomprimierte Bilder sind oft zu gross und belasten die Ladezeit.
Die Komprimierung reduziert die Dateigrösse, ohne dabei die Bildqualität sichtbar zu beeinträchtigen.
Das sorgt für schnellere Ladezeiten und bessere SEO-Werte.
Was du tun kannst
- Verlustfreie Komprimierung
Das Bild bleibt in hoher Qualität, aber die Dateigrösse wird reduziert. - Verlustbehaftete Komprimierung
Hier wird die Qualität leicht reduziert, aber die Einsparung bei der Dateigrösse ist deutlich höher. - Tools wie ShortPixel oder Imagify
Diese Plugins komprimieren die Bilder automatisch beim Hochladen.
Je kleiner die Bilddateien sind, desto schneller kann die Seite geladen werden.
Das spart Ladezeit, reduziert den Cumulative Layout Shift (CLS) und verbessert die Core Web Vitals.
Ausserdem können mehr Seiten vom Googlebot gecrawlt werden, was die Indexierung der Website beschleunigt.
Moderne Bildformate verwenden (WebP, AVIF)
Moderne Bildformate wie WebP und AVIF sind deutlich effizienter als klassische Formate wie JPEG oder PNG.
Sie bieten eine bessere Bildqualität bei geringerer Dateigrösse, was die Ladezeit der Website optimiert.
Warum WebP und AVIF verwenden?
- Kleinere Dateigrösse
WebP und AVIF sind bis zu 30-50 % kleiner als JPEG oder PNG. - Bessere Bildqualität
Trotz der kleineren Dateigrösse bleibt die Bildqualität erhalten. - Kompatibilität
Moderne Browser wie Chrome, Firefox und Edge unterstützen diese Formate.
Wie du die Bildformate umstellst
- Tools wie ShortPixel oder Imagify konvertieren automatisch Bilder in WebP.
- Prüfe die Kompatibilität der Browser, um sicherzustellen, dass ältere Browser ein Fallback-Bild (z. B. JPG) erhalten.
Durch die Verwendung von WebP und AVIF sparst du Speicherplatz, verbesserst die Ladegeschwindigkeit und erhöhst die Crawling-Effizienz der Suchmaschinen-Crawler.
Lazy Loading für Bilder aktivieren
Lazy Loading bedeutet, dass Bilder erst dann geladen werden, wenn sie in den sichtbaren Bereich des Bildschirms gelangen.
Das reduziert die Ladezeit der ersten sichtbaren Inhalte (Largest Contentful Paint, LCP) und spart Bandbreite.
Warum Lazy Loading nutzen?
- Schnellerer Seitenaufbau
Bilder ausserhalb des sichtbaren Bereichs werden nicht sofort geladen. - Bessere Core Web Vitals
Besonders der LCP-Wert (Largest Contentful Paint) profitiert von Lazy Loading. - Einfache Implementierung
Viele Plugins wie WP Rocket oder Autoptimize aktivieren Lazy Loading mit einem Klick.
So aktivierst du Lazy Loading
- Verwende das HTML-Attribut loading=»lazy» direkt im Image-Tag (<img src=»bild.jpg» loading=»lazy»>).
- Installiere ein Plugin wie WP Rocket, das Lazy Loading automatisch aktiviert.
Durch Lazy Loading wird die anfängliche Ladezeit der Seite reduziert, was sich positiv auf die SEO-Werte und die Nutzererfahrung auswirkt.
ALT-Tags korrekt vergeben
ALT-Tags sind wichtig für die Barrierefreiheit und helfen Suchmaschinen, den Inhalt der Bilder zu verstehen.
Diese Alternativtexte erscheinen, wenn das Bild nicht geladen werden kann, und werden von Screenreadern für Menschen mit Sehbehinderung vorgelesen.
Warum ALT-Tags wichtig sind
- Barrierefreiheit
Nutzer mit Screenreadern können die Inhalte der Bilder wahrnehmen. - SEO-Vorteile
Google kann anhand der ALT-Tags erkennen, worum es im Bild geht. - Bildersuche
Bilder mit ALT-Tags erscheinen in der Google-Bildersuche und erhöhen die Sichtbarkeit.
Wie du ALT-Tags korrekt erstellst
- Verwende beschreibende Texte (z. B. «Weißer Sneaker mit rotem Logo» statt «Bild1.jpg»).
- Integriere relevante Keywords, aber vermeide Keyword-Stuffing.
- Überprüfe mit SEO-Tools wie Screaming Frog, ob alle Bilder ALT-Tags haben.
Die Vergabe von ALT-Tags verbessert die Zugänglichkeit der Website und sorgt dafür, dass Google den Inhalt der Bilder erkennt.
Das erhöht die Chancen, mit Bildern in der Google-Bildersuche zu erscheinen.
Tools für die Bildoptimierung
Es gibt zahlreiche Tools, mit denen du Bilder effizient komprimieren, in moderne Formate konvertieren und Lazy Loading aktivieren kannst.
Mit diesen Tools sparst du Zeit und automatisierst die Bildoptimierung.
Empfohlene Tools
- ShortPixel
Komprimiert Bilder, wandelt sie in WebP um und bietet eine automatische Bildoptimierung. - Imagify
Bietet verlustfreie und verlustbehaftete Komprimierung sowie WebP-Unterstützung. - Squoosh
Kostenloses Online-Tool von Google zur Bildkomprimierung mit sofortiger Vorschau der Qualität.
Warum Tools nutzen?
- Automatisierte Bildoptimierung
Plugins wie ShortPixel komprimieren Bilder automatisch beim Hochladen. - Effizienter Workflow
Du musst nicht jedes Bild manuell bearbeiten. - Schnelle Erfolge
Mit wenigen Klicks kannst du die Ladezeit der Website erheblich verbessern.
Diese Tools helfen dir, Bilder schnell und effizient zu optimieren, den Code schlank zu halten und die Crawling-Geschwindigkeit der Suchmaschinen zu erhöhen.
Automatisierte Lösungen sparen dir Zeit und stellen sicher, dass alle Bilder deiner Website optimal formatiert sind.
URL-Struktur und hreflang-Tags
Eine gut strukturierte URL ist ein Faktor für die Suchmaschinenoptimierung (SEO).
Sie hilft Nutzern und Suchmaschinen-Crawlern, den Inhalt der Seite zu verstehen, und beeinflusst die Klickrate in den Suchergebnissen.
Die richtige URL-Struktur und der Einsatz von hreflang-Tags sind besonders wichtig, wenn du mehrsprachige Websites betreibst.
Im Folgenden zeige ich dir, warum eine saubere URL-Struktur wichtig ist, welche SEO-Massnahmen du umsetzen solltest und wie du hreflang-Tags korrekt einsetzt.
Warum ist eine saubere URL-Struktur wichtig?
Eine saubere URL-Struktur ist nicht nur für Suchmaschinen-Crawler wichtig, sondern auch für die Nutzererfahrung.
Klare und verständliche URLs helfen Google dabei, den Inhalt der Seite schneller zu erkennen und besser zu indexieren.
Sie wirken vertrauenswürdiger und werden von Nutzern häufiger angeklickt.
Warum saubere URLs wichtig sind
- Bessere Crawling-Effizienz
Crawler erkennen schneller, welche Seiten priorisiert werden sollten. - Verbesserte Nutzererfahrung
Kurze, klare URLs werden in der Google-Suche eher geklickt. - Vermeidung von Duplicate Content
Durch eine klare URL-Struktur wird Duplicate Content vermieden. - Bessere Lesbarkeit
Saubere URLs mit Keywords sind verständlich und tragen zur SEO bei.
SEO-Massnahmen zur URL-Optimierung
Mit ein paar gezielten SEO-Massnahmen kannst du die URL-Struktur deiner Website verbessern.
Von der Festlegung der bevorzugten Domain bis zur Vermeidung unnötiger Parameter gibt es viele Möglichkeiten, die Crawling-Effizienz und die Nutzerfreundlichkeit zu steigern.
Konsistente URL-Struktur (www vs. non-www)
Entscheide dich für eine URL-Version – mit oder ohne «www» – und bleibe dabei.
Diese Konsistenz vermeidet Duplicate Content, der durch verschiedene URL-Versionen entstehen kann.
Was du tun kannst
- Wähle, ob deine URL mit www oder ohne www angezeigt wird (z. B. www.deinedomain.ch oder deinedomain.ch).
- Stelle sicher, dass eine Version per 301-Redirect zur anderen weiterleitet.
- Definiere die bevorzugte URL in der Google Search Console.
Diese Konsistenz signalisiert Google, welche Version der URL die «Hauptversion» ist.
Das reduziert das Risiko von Duplicate Content und erhöht die Crawling-Effizienz.
Saubere URLs (ohne Parameter)
Parameter wie ?id=123 oder ?ref=xyz sind für Suchmaschinen schwerer zu verarbeiten und können Duplicate Content verursachen.
Saubere URLs sind kürzer, lesbarer und enthalten keine unnötigen Parameter.
Was du tun kannst
- Vermeide dynamische Parameter in URLs (z. B. /page?id=123&ref=abc).
- Verwende «sprechende URLs» mit klaren Keywords (z. B. /leistungen/seo-audit/).
- Nutze Canonical-Tags, wenn du Parameter aus technischen Gründen nicht vermeiden kannst.
Saubere URLs erleichtern den Nutzern und Suchmaschinen die Navigation durch die Website.
Sie sehen in den Suchergebnissen besser aus und verbessern die Klickrate (CTR).
SEO-freundliche Permalinks (keine Zahlen, keine IDs)
SEO-freundliche Permalinks verwenden Wörter anstelle von Zahlen oder IDs.
Diese Struktur ist leicht verständlich und zeigt Nutzern sowie Google sofort, worum es auf der Seite geht.
Best Practices für SEO-freundliche Permalinks
- Vermeide automatische Nummerierungen wie /post123/ oder /article/456/.
- Verwende relevante Keywords in der URL (z. B. /seo-audit/ statt /blog?id=123).
- Nutze bei CMS wie WordPress die SEO-freundliche Permalink-Einstellung (Beispiel: «Beitragsname»).
Ein gut strukturierter Permalink sieht nicht nur professioneller aus, sondern hilft auch, die Relevanz deiner Inhalte zu verdeutlichen.
So versteht Google den Inhalt der Seite besser, was zu einer besseren Indexierung führen kann.
Internationalisierung mit hreflang-Tags
Wenn du eine mehrsprachige Website betreibst, sind hreflang-Tags unerlässlich.
Sie signalisieren Google, welche Sprach- und Länderversionen es gibt und welche Nutzer welche Version sehen sollen.
Ohne hreflang-Tags kann es zu Problemen mit Duplicate Content kommen.
Warum hreflang-Tags wichtig sind
- Vermeidung von Duplicate Content
Wenn die Inhalte auf verschiedenen Sprachversionen identisch sind, verhindern hreflang-Tags doppelte Einträge im Index. - Bessere User Experience
Nutzer sehen automatisch die richtige Sprachversion. - Bessere SEO-Ergebnisse
Google erkennt, welche Sprachversion zu welcher Region gehört.
So setzt man hreflang-Tags für mehrsprachige Websites richtig ein
Die Implementierung der hreflang-Tags kann direkt im HTML-Code, in der XML-Sitemap oder im HTTP-Header erfolgen.
Sie zeigen Google, welche Sprachversionen verfügbar sind.
So machst du es richtig
- Füge den hreflang-Tag im <head>-Bereich der Seite ein, z. B.:
- <link rel=»alternate» hreflang=»de-ch» href=»https://deinedomain.ch/de/» />
- <link rel=»alternate» hreflang=»fr-ch» href=»https://deinedomain.ch/fr/» />
- Verwende Tools wie Screaming Frog oder Google Search Console, um Fehler bei der hreflang-Implementierung zu finden.
- Teste die korrekte Implementierung mit dem hreflang-Tag-Checker.
Die korrekte Implementierung von hreflang-Tags ist besonders wichtig, wenn du eine internationale SEO-Strategie verfolgst.
So verhinderst du, dass Google versehentlich die falsche Sprachversion anzeigt.
Case Study: Roter Bären
Die Internationalisierung einer Website stellt oft eine technische Herausforderung dar, insbesondere wenn es darum geht, sicherzustellen, dass Google die richtigen Sprachversionen der Seiten anzeigt.
Für den Kunden Roter Bären haben wir etwa eine deutsche und eine englische Version der Restaurant-Seite erstellt:
- Deutsche Version: https://roterbaeren.ch/restaurant/
- Englische Version: https://roterbaeren.ch/en/restaurant/
Um sicherzustellen, dass Google die unterschiedlichen Sprachversionen korrekt erkennt, haben wir hreflang-Tags implementiert.
Diese Tags helfen Google dabei, den Nutzern die jeweils passende Version der Seite anzuzeigen, abhängig von ihrer Sprache und ihrem Standort
Umgang mit Fehlern (404, 5xx, etc.)
Fehlerseiten wie 404 und 5xx sind nicht nur für Nutzer ärgerlich, sondern auch schlecht für die Suchmaschinenoptimierung (SEO).
Sie können das Crawling und die Indexierung durch Google negativ beeinflussen und die Nutzererfahrung verschlechtern.
Suchmaschinen-Crawler bewerten eine Website besser, wenn sie stabil läuft und keine toten Links oder Serverfehler aufweist.
In diesem Beitrag erfährst du, wie 404- und 5xx-Fehler entstehen, welche SEO-Massnahmen du ergreifen kannst und welche Tools dir dabei helfen.
Wie entstehen 404-Fehler?
Ein 404-Fehler bedeutet, dass die angeforderte Seite nicht gefunden wurde.
Das passiert, wenn die URL nicht mehr existiert oder sich geändert hat.
Nutzer und Suchmaschinen stossen auf diesen Fehler, wenn sie einem veralteten Link folgen.
Typische Ursachen für 404-Fehler
- Seitenumbenennung oder Löschung
Wenn eine Seite entfernt wird, ohne eine Weiterleitung einzurichten. - Falsche Verlinkung
Interne oder externe Links, die Tippfehler oder falsche URLs enthalten. - Umstrukturierung der URL
Wenn URLs geändert werden (z. B. durch neue SEO-freundliche Permalinks), können alte Links ins Leere laufen.
404-Fehler sind problematisch, da Google diese Seiten nicht indexieren kann.
Nutzer springen oft ab, wenn sie auf eine 404-Seite stossen, was die Absprungrate erhöht.
SEO-Massnahmen zur Vermeidung von 404-Fehlern
404-Fehler können vermieden werden, indem du sicherstellst, dass alle internen und externen Links korrekt sind und nicht ins Leere laufen.
Hier sind einige der wichtigsten Massnahmen:
Was du tun kannst
- 301-Redirects einrichten
Wenn du eine Seite verschiebst oder umbenennst, leite die alte URL per 301-Redirect zur neuen URL weiter. - Broken Link Checker verwenden
Überprüfe regelmässig deine Website auf defekte Links mit Tools wie Screaming Frog oder Broken Link Checker. - Individuelle 404-Seite erstellen
Biete den Nutzern eine benutzerdefinierte 404-Seite mit Navigation oder einer Suchfunktion an.
Durch die Vermeidung von 404-Fehlern verbesserst du das Crawling und die Indexierung deiner Website.
Gleichzeitig bietest du Nutzern eine bessere Erfahrung, was sich positiv auf das Ranking auswirken kann.
301-Redirects richtig einrichten
Ein 301-Redirect leitet eine alte URL dauerhaft zu einer neuen URL weiter.
Das hilft, Link-Juice zu erhalten und verhindert 404-Fehler.
Nutzer und Suchmaschinen werden automatisch zur neuen URL weitergeleitet.
Wann du 301-Redirects einsetzen solltest
- Wenn URLs geändert werden (z. B. /blog-post/ zu /seo-tipps/).
- Wenn Inhalte gelöscht werden, aber eine thematisch ähnliche Seite existiert.
- Bei der Migration einer Website von einer Domain zu einer anderen.
So richtest du 301-Redirects ein
- In der .htaccess-Datei (bei Apache-Servern)
- Redirect 301 /alte-seite/ https://deinedomain.ch/neue-seite/
- Mit WordPress-Plugins wie Redirection oder Rank Math.
- Direkt im Hosting-Dashboard (z. B. bei Kinsta).
301-Redirects sorgen dafür, dass Google das Crawling ohne Unterbrechung fortsetzen kann, und erhalten die SEO-Wirkung der ursprünglichen Seite.
Verwendung von Broken Link Checkern
Broken Link Checker helfen dir dabei, defekte Links zu finden, bevor sie zu SEO-Problemen führen.
Sie identifizieren fehlerhafte interne und externe Links, die 404-Fehler auslösen.
Die besten Tools zum Finden defekter Links
- Screaming Frog
Crawlt deine Website und erkennt alle defekten internen und externen Links. - Broken Link Checker (WordPress-Plugin)
Überprüft regelmässig deine Seite und meldet fehlerhafte Links. - Google Search Console
Der «Abdeckungsbericht» zeigt Seiten an, die «404-Fehler» auslösen.
Regelmässige Prüfungen mit Broken Link Checkern verhindern, dass Suchmaschinen-Crawler auf Fehler stossen. Dadurch wird die Crawling-Effizienz gesteigert.
Wie entstehen 5xx-Fehler?
Ein 5xx-Fehler signalisiert ein Problem auf dem Server.
Im Gegensatz zu einem 404-Fehler, der auf eine fehlende Seite hinweist, bedeutet ein 5xx-Fehler, dass der Server die Anfrage nicht bearbeiten konnte.
Typische 5xx-Fehler
- 500 – Interner Serverfehler
Fehler im Quellcode oder in der Serverkonfiguration. - 502 – Bad Gateway
Das Gateway (z. B. ein Proxy-Server) erhält keine Antwort. - 503 – Service Unavailable
Der Server ist überlastet oder wird gewartet.
Diese Fehler beeinträchtigen die Crawler-Aktivität und können dazu führen, dass Google bestimmte Seiten nicht indexiert.
Zudem verschlechtern sie die Nutzererfahrung.
SEO-Massnahmen zur Vermeidung von 5xx-Fehlern
5xx-Fehler können negative Auswirkungen auf die SEO haben, da Suchmaschinen die Seiten nicht crawlen können.
Mit der richtigen Serverkonfiguration und einem verlässlichen Hosting-Anbieter lassen sich diese Fehler vermeiden.
Was du tun kannst
- Server-Performance überwachen
Nutze Monitoring-Tools wie UptimeRobot, um Server-Ausfälle zu erkennen. - Vermeide zu hohe Serverbelastung
Reduziere die Zahl gleichzeitiger Nutzer durch Caching und Lastverteilung (CDN). - Verwende ein zuverlässiges Hosting
Kinsta bietet stabile Server und eine hohe Verfügbarkeit. - Fehlerseiten anpassen
Erstelle eine benutzerfreundliche 503-Seite mit Informationen für die Nutzer.
Ein stabiler Server stellt sicher, dass der Googlebot die Inhalte deiner Website problemlos crawlen kann.
Das verbessert die Indexierung und verhindert, dass Google deine Seite als fehlerhaft einstuft.
Korrekte Server-Konfiguration (z. B. durch Kinsta Hosting)
Eine korrekte Serverkonfiguration sorgt dafür, dass Serverfehler (5xx) vermieden werden.
Anbieter wie Kinsta stellen leistungsstarke Server, automatische Backups und Überwachungstools bereit, um Fehler zu vermeiden.
Wichtige Massnahmen
- Automatische Server-Wiederherstellung
Falls der Server abstürzt, startet er automatisch neu. - Server-Caching aktivieren
Mit Caching werden häufig aufgerufene Seiten schneller bereitgestellt. - CDN nutzen
Mit einem CDN (Content Delivery Network) wie Cloudflare werden Serveranfragen besser verteilt.
Mit Kinsta hast du eine stabile Hosting-Lösung, die Serverfehler minimiert und sicherstellt, dass die Website für Crawler und Nutzer reibungslos erreichbar ist.
Tools zur Fehler-Überprüfung
Um Fehler wie 404- und 5xx-Fehler frühzeitig zu erkennen, solltest du regelmässig Tools zur Fehlerprüfung einsetzen.
Sie helfen dir dabei, Probleme zu beheben, bevor Suchmaschinen oder Nutzer davon betroffen sind.
Die besten Tools zur Fehlerprüfung
- Google Search Console
Zeigt Fehler wie «404» oder «Serverfehler» im «Abdeckungsbericht» an. - Screaming Frog
Ein leistungsstarkes Crawler-Tool, mit dem du alle 404- und 5xx-Fehler auf deiner Website finden kannst. - Sitebulb
Führt detaillierte Website-Audits durch und zeigt, wo Fehler vorliegen.
Diese Tools helfen dir, Fehler frühzeitig zu beheben, bevor sie sich negativ auf die Crawling-Effizienz und die Indexierung auswirken.
Sicherheitsmassnahmen für SEO
Die Sicherheit einer Website spielt nicht nur für Nutzer, sondern auch für Suchmaschinen eine wichtige Rolle.
Google bevorzugt sichere Websites, da sie das Vertrauen der Nutzer stärken.
Sicherheitsmassnahmen wie HTTPS-Verschlüsselung, Zugriffsbeschränkungen und Schutz vor Brute-Force-Angriffen wirken sich positiv auf die SEO aus.
Wenn du diese Massnahmen umsetzt, verbesserst du die Crawling-Effizienz, schützt sensible Informationen und sicherst deine Rankings.
Im Folgenden erkläre ich dir, welche Sicherheitsmassnahmen du ergreifen solltest und wie sie die SEO deiner Website verbessern.
HTTPS-Verschlüsselung (SSL-Zertifikat)
HTTPS ist inzwischen ein Standard für sichere Websites.
Es verschlüsselt die Datenübertragung zwischen Browser und Server, was die Sicherheit der Nutzer erhöht.
Google betrachtet HTTPS als Ranking-Faktor, und Websites ohne HTTPS werden in Chrome als «Nicht sicher» markiert.
Warum HTTPS wichtig ist
- Besseres Ranking
Google bevorzugt HTTPS-Websites in den Suchergebnissen. - Vertrauen der Nutzer
Das Schloss-Symbol in der URL zeigt den Nutzern, dass ihre Daten sicher sind. - Schutz sensibler Daten
Persönliche Daten wie Login-Informationen oder Zahlungsdaten werden verschlüsselt übertragen.
So setzt du HTTPS um
- SSL-Zertifikat installieren
Viele Hosting-Anbieter wie Kinsta bieten kostenlose SSL-Zertifikate an. - 301-Redirects einrichten
Leite HTTP-Versionen per 301-Redirect zu HTTPS um. - Mixed-Content-Probleme lösen
Stelle sicher, dass alle Ressourcen (Bilder, CSS, JavaScript) über HTTPS geladen werden.
HTTPS ist eine der wichtigsten Sicherheitsmassnahmen für SEO.
Sie verbessert die Sicherheit, das Ranking und das Vertrauen der Nutzer.
Verwendung von Secure Cookies
Cookies werden verwendet, um Sitzungen zu speichern, Benutzer zu identifizieren oder Tracking-Daten zu sammeln.
Secure Cookies stellen sicher, dass diese Daten nur über HTTPS übertragen werden.
Das schützt sensible Informationen vor Diebstahl.
Warum Secure Cookies wichtig sind
- Sicherheit der Nutzerdaten
Die Cookies werden verschlüsselt und sind nur über HTTPS abrufbar. - Besserer Schutz vor Angriffen
Secure Cookies reduzieren die Gefahr von Session Hijacking. - Vertrauenssignal für Google
Google erkennt sichere Websites als vertrauenswürdiger und bevorzugt sie im Ranking.
So aktivierst du Secure Cookies
- Füge das Attribut Secure in der Cookie-Einstellung hinzu:
- Set-Cookie: name=value; Secure; HttpOnly
- Verwende HTTPOnly-Cookies, um sicherzustellen, dass JavaScript nicht auf die Cookies zugreifen kann.
Durch die Aktivierung von Secure Cookies verbesserst du die Datensicherheit und erhöhst das Vertrauen der Nutzer.
Das kann sich indirekt positiv auf die SEO auswirken.
Schutz gegen Brute-Force-Angriffe (z. B. IP-Whitelisting bei Kinsta)
Ein Brute-Force-Angriff zielt darauf ab, Passwörter durch systematisches Ausprobieren zu knacken.
Solche Angriffe belasten den Server und können die Verfügbarkeit deiner Website beeinträchtigen.
Ein guter Schutz vor Brute-Force-Angriffen verbessert die Sicherheit und die Crawling-Effizienz.
Wie du dich vor Brute-Force-Angriffen schützt
- IP-Whitelisting
Beschränke den Zugriff auf das Admin-Login nur auf bestimmte IP-Adressen. - Zwei-Faktor-Authentifizierung (2FA)
Aktiviere 2FA, um sicherzustellen, dass nur berechtigte Nutzer Zugriff haben. - Limit Login Attempts
Begrenze die Anzahl der Login-Versuche, um automatisierte Brute-Force-Angriffe zu verhindern. - Schutz durch Hosting-Anbieter
Hosting-Anbieter wie Kinsta bieten Schutzmassnahmen wie IP-Whitelisting und Brute-Force-Erkennung.
Wenn du dich gegen Brute-Force-Angriffe schützt, bleibt dein Server stabil, und Google-Crawler können deine Inhalte problemlos indexieren.
Zudem minimierst du Sicherheitslücken, die das SEO-Ranking beeinträchtigen könnten.
Zugriffsbeschränkung: Robots.txt richtig einrichten, sensible Seiten blockieren
Die Datei robots.txt steuert, welche Bereiche deiner Website von Suchmaschinen-Crawlern besucht werden dürfen.
Durch Zugriffsbeschränkungen kannst du verhindern, dass sensible Seiten wie Admin-Bereiche oder interne Suchergebnisse indexiert werden.
Warum Zugriffsbeschränkungen wichtig sind
- Vermeidung von Duplicate Content
Interne Suchergebnisse oder Filterseiten können zu Duplicate Content führen. - Schutz sensibler Informationen
Verhindere, dass Suchmaschinen vertrauliche Bereiche crawlen. - Effiziente Nutzung des Crawl-Budgets
Googlebot konzentriert sich auf die wichtigen Inhalte.
So richtest du robots.txt ein
- Blockiere sensible Bereiche: User-agent: * Disallow: /admin/ Disallow: /search/
- Blockiere spezifische Dateitypen: User-agent: Disallow: /.pdf$
Die richtige Konfiguration der robots.txt-Datei verbessert die Crawling-Effizienz und stellt sicher, dass Google nur relevante Inhalte indexiert.
So kannst du dein Crawl-Budget optimal nutzen.
Tools zur technischen SEO
Technische SEO ist ohne die richtigen Tools kaum umsetzbar.
Von der Identifizierung von Crawling-Problemen bis zur Verbesserung der Ladegeschwindigkeit – verschiedene Tools unterstützen dich dabei, die Performance, Indexierung und Sicherheit deiner Website zu optimieren.
Mit den richtigen Tools kannst du SEO-Massnahmen effizienter umsetzen, Fehler erkennen und gezielte Optimierungen durchführen.
Im Folgenden zeige ich dir die wichtigsten Tools, die du für die technische Suchmaschinenoptimierung benötigst.
Audit-Tools: Screaming Frog, Sitebulb, Ahrefs Site Audit
SEO-Audits sind die Grundlage, um technische Probleme auf einer Website zu identifizieren.
Audit-Tools wie Screaming Frog, Sitebulb und Ahrefs Site Audit decken Schwachstellen auf und liefern konkrete Handlungsempfehlungen.
Diese Tools helfen dir, Fehler in der Indexierung, Weiterleitungen, Broken Links und doppelte Inhalte zu erkennen.
Top-Funktionen dieser Tools
- Screaming Frog
Crawlt die gesamte Website und zeigt Fehler wie 404-Links, fehlerhafte Weiterleitungen und fehlende hreflang-Tags. - Sitebulb
Führt umfassende SEO-Audits durch und visualisiert die Website-Struktur, was das Erkennen von Problemen erleichtert. - Ahrefs Site Audit
Deckt SEO-Probleme wie langsame Ladezeiten, Duplicate Content und fehlende Metadaten auf.
Mein SEO-Tipp:
Führe regelmässige SEO-Audits durch, um technische Probleme zu erkennen, bevor sie die Crawling-Effizienz und die Indexierung beeinträchtigen.
Besonders Screaming Frog ist bei vielen SEO-Profis ein Must-Have.
Performance-Tools: Lighthouse, PageSpeed Insights, GTmetrix
Die Ladegeschwindigkeit einer Website beeinflusst direkt die Core Web Vitals, die ein wichtiger Ranking-Faktor für Google sind.
Tools wie Lighthouse, PageSpeed Insights und GTmetrix analysieren die Ladezeiten und liefern konkrete Optimierungsvorschläge.
Top-Funktionen dieser Tools
- Lighthouse
Misst die Performance, Barrierefreiheit und SEO einer Website.
Es bewertet die Core Web Vitals wie LCP, FID und CLS. - PageSpeed Insights
Zeigt die Ladegeschwindigkeit einer Seite und liefert Vorschläge zur Optimierung. - GTmetrix
Führt Performance-Tests durch und zeigt die Ladezeit sowie die Wasserfallansicht der Ladeprozesse.
Mein SEO-Tipp:
Nutze diese Tools, um die Core Web Vitals zu optimieren.
Konzentriere dich auf die Reduzierung der Ladezeit und den LCP-Wert (Largest Contentful Paint).
Eine verbesserte Ladezeit sorgt für bessere Rankings und eine geringere Absprungrate.
Crawler-Tools: Screaming Frog, Sitebulb
Crawler-Tools wie Screaming Frog und Sitebulb simulieren den Googlebot und crawlen deine Website, um alle Fehler und SEO-Probleme aufzudecken.
Sie helfen dir zu verstehen, wie Google deine Seite sieht und welche Inhalte indexiert werden.
Top-Funktionen dieser Tools
- Screaming Frog
Zeigt, welche Seiten von Google gecrawlt werden, und identifiziert Probleme wie 404-Fehler, Weiterleitungen und defekte Links. - Sitebulb
Bietet eine visuelle Darstellung der Seitenstruktur und zeigt, wie gut deine interne Verlinkung ist.
Mein SEO-Tipp:
Verwende Crawler-Tools, um sicherzustellen, dass alle wichtigen Seiten indexiert werden.
Mit der Logfile-Analyse kannst du nachvollziehen, welche Seiten der Googlebot tatsächlich crawlt.
Das hilft dir, dein Crawl-Budget optimal zu nutzen.
Bilder-Tools: ShortPixel, Imagify, Squoosh
Bilder machen einen grossen Teil der Website-Ladezeit aus.
Wenn Bilder zu gross sind, belasten sie die Ladegeschwindigkeit und die Core Web Vitals.
Tools wie ShortPixel, Imagify und Squoosh helfen dir, Bilder zu komprimieren und in moderne Formate wie WebP zu konvertieren.
Top-Funktionen dieser Tools
- ShortPixel
Automatische Komprimierung von Bildern beim Hochladen in WordPress.
Unterstützt WebP-Bildformate. - Imagify
Verlustfreie und verlustbehaftete Komprimierung von Bildern, um die Ladezeiten zu verbessern. - Squoosh
Ein kostenloses Online-Tool von Google, mit dem du die Bildgrösse reduzieren kannst, bevor du die Bilder hochlädst.
Mein SEO-Tipp:
Verwende moderne Bildformate wie WebP oder AVIF und aktiviere Lazy Loading.
Mit ShortPixel oder Imagify kannst du die Bildoptimierung automatisieren und sicherstellen, dass die Core Web Vitals wie der Largest Contentful Paint (LCP) verbessert werden.
Analyse-Tools: Google Search Console, Google Analytics 4
Analyse-Tools liefern wichtige Daten darüber, wie Nutzer deine Website nutzen und wie gut sie in den Suchmaschinen rankt.
Mit der Google Search Console und Google Analytics 4 (GA4) kannst du die Sichtbarkeit deiner Website überwachen und Massnahmen ergreifen, um das SEO-Ranking zu verbessern.
Top-Funktionen dieser Tools
- Google Search Console
Zeigt, welche Seiten indexiert wurden, und warnt dich vor Fehlern wie 404- oder Serverfehlern (5xx). - Google Analytics 4 (GA4)
Verfolgt das Nutzerverhalten, die Absprungrate und die Verweildauer.
Mit diesen Daten kannst du die Inhalte und Struktur deiner Website anpassen.
Mein SEO-Tipp:
Überprüfe regelmässig den Abdeckungsbericht in der Google Search Console, um sicherzustellen, dass keine Seiten blockiert oder versehentlich auf «noindex» gesetzt wurden.
Nutze die Daten von GA4, um zu analysieren, welche Seiten eine hohe Absprungrate haben, und optimiere diese Seiten.
Häufige Fehler bei der technischen SEO
Technische SEO-Fehler können dazu führen, dass Suchmaschinen-Crawler deine Website nicht vollständig erfassen, wichtige Seiten nicht indexiert werden oder die Ladezeit sich verschlechtert.
Diese Fehler beeinträchtigen nicht nur die Sichtbarkeit in den Suchergebnissen, sondern auch die Nutzererfahrung.
Im Folgenden zeige ich dir die häufigsten technischen SEO-Fehler, wie sie entstehen und wie du sie beheben kannst.
Fehler in der Robots.txt (wichtigste Seiten versehentlich blockiert)
Die robots.txt-Datei legt fest, welche Bereiche deiner Website von Suchmaschinen-Crawlern durchsucht werden dürfen.
Ein häufiger Fehler besteht darin, wichtige Seiten versehentlich zu blockieren.
Wenn Crawler den Zugriff auf essentielle Seiten wie Produktseiten oder Blogartikel verlieren, bleiben diese Seiten unsichtbar für Google.
Häufige Ursachen
- Falscher Disallow-Befehl
Zum Beispiel Disallow: /blog/ blockiert den gesamten Blog-Bereich. - Fehler nach einer Migration
Robots.txt-Einstellungen werden nicht korrekt übernommen. - Testumgebungen
Staging-Seiten bleiben nach dem Livegang blockiert.
So vermeidest du den Fehler
- Überprüfe regelmässig die Robots.txt-Datei mit der Google Search Console.
- Erlaube den Zugriff auf wichtige Seiten und blockiere nur Seiten, die tatsächlich nicht indexiert werden sollen (z. B. Admin-Panels oder Filterseiten).
Ein Fehler in der Robots.txt-Datei kann verhindern, dass Google wichtige Seiten crawlt, was zu einem Verlust an Sichtbarkeit und Rankings führt.
Zu viele Plugins auf WordPress-Seiten
Plugins sind bei WordPress-Websites oft unverzichtbar, aber zu viele davon können die Performance erheblich beeinträchtigen.
Jedes Plugin fügt zusätzliche Skripte, Stylesheets und Funktionen hinzu, die den Ladeprozess verlangsamen.
Häufige Probleme
- Längere Ladezeit
Jedes zusätzliche Plugin erhöht die Ladezeit, was sich negativ auf die Core Web Vitals auswirkt. - Konflikte zwischen Plugins
Bestimmte Plugins sind nicht miteinander kompatibel. - Sicherheitslücken
Veraltete Plugins stellen ein Sicherheitsrisiko dar.
So vermeidest du den Fehler
- Verwende nur notwendige Plugins. Deaktiviere und lösche ungenutzte Plugins.
- Verwende All-in-One-Plugins wie Rank Math oder WP Rocket, die mehrere Funktionen in einem Plugin bündeln.
- Halte deine Plugins immer aktuell, um Sicherheitslücken zu schliessen.
Ein schlankes Plugin-Setup verbessert die Ladezeit, die Core Web Vitals und die Sicherheit deiner Website.
Das hat direkte Auswirkungen auf die SEO-Performance.
Fehlerhafte hreflang-Tags
Hreflang-Tags sind entscheidend für die SEO-Internationalisierung.
Sie zeigen Google, welche Sprach- und Länderversionen einer Seite existieren.
Fehlerhafte hreflang-Tags führen dazu, dass Google falsche Versionen anzeigt oder gar keine Verbindung zwischen den Sprachversionen erkennt.
Häufige Fehler
- Falsche hreflang-Syntax
Tippfehler oder fehlende End-Slashes in den URLs. - Selbstreferenz fehlt
Jede Seite muss einen hreflang-Eintrag für sich selbst enthalten. - Inkompatible URLs
Unterschiedliche URLs (mit und ohne www) in den hreflang-Tags.
So vermeidest du den Fehler
- Überprüfe die hreflang-Tags mit Tools wie Screaming Frog oder dem hreflang-Tag-Checker.
- Verwende WordPress-Plugins wie WPML, die hreflang-Tags automatisch einfügen.
- Stelle sicher, dass jede URL eine Selbstreferenz (Self-Referencing Tag) enthält.
Ein fehlerhafter hreflang-Tag kann dazu führen, dass falsche Sprachversionen in den Suchergebnissen angezeigt werden.
Das mindert die Nutzererfahrung und reduziert die Klickrate.
Crawl-Budget-Verschwendung durch doppelte Inhalte (Duplicate Content) oder indexierte Bild-URLs (insbesondere bei WordPress)
Das Crawl-Budget bezeichnet die Anzahl der Seiten, die Google auf einer Website pro Tag crawlt.
Wenn das Budget durch unnötige Inhalte wie doppelte Seiten oder Bild-URLs verbraucht wird, können wichtige Inhalte unentdeckt bleiben.
Häufige Probleme
- Duplicate Content
Mehrere URLs mit identischem Inhalt (z. B. www.example.com/ und example.com/). - Bild-URLs in WordPress
Bilddateien und Bildanhangsseiten (Attachment Pages) werden indexiert. - Filter- oder Sortierseiten
Produktkategorien mit Filtern oder Sortier-Parametern (z. B. ?sort=price) werden indexiert.
So vermeidest du den Fehler
- Canonical-Tags setzen, um Google zu zeigen, welche URL die Hauptseite ist.
- Deaktiviere WordPress-Anhangsseiten mit Plugins wie Yoast SEO.
- Blockiere unnötige URL-Parameter mit der robots.txt-Datei.
Durch die Optimierung des Crawl-Budgets kann Google die wichtigen Seiten besser indexieren.
Das führt zu besseren Rankings und einer höheren Sichtbarkeit der Inhalte.
Langsame Ladezeiten durch ungenutztes JavaScript
Unnötiges oder nicht genutztes JavaScript erhöht die Ladezeit und belastet die Server-Ressourcen.
Das beeinflusst die Core Web Vitals, insbesondere den First Input Delay (FID), der die Zeit bis zur ersten Interaktion misst.
Häufige Ursachen
- Unnötige Skripte von Drittanbietern (z. B. Chat-Widgets oder Analyse-Tools).
- Unnötige JavaScript-Dateien
- Veraltete Tracking-Codes
So vermeidest du den Fehler
- Lazy Loading
Lade JavaScript-Dateien nur, wenn der Nutzer sie benötigt. - Minifizierung von JavaScript
Mit Tools wie Autoptimize oder WP Rocket. - Asynchrones Laden
Lade JavaScript-Dateien asynchron (async) oder verzögert (defer).
Wenn du ungenutztes JavaScript entfernst, verbesserst du den First Input Delay (FID) und den Largest Contentful Paint (LCP). Dies führt zu einer besseren Nutzererfahrung und besseren Rankings.
FAQ
Technisches SEO ist ein wesentlicher Bestandteil der Suchmaschinenoptimierung.
Es umfasst alle Massnahmen, die dafür sorgen, dass Suchmaschinen-Crawler deine Website besser erfassen, indexieren und korrekt anzeigen können.
In diesem FAQ beantworte ich dir die wichtigsten Fragen rund um technisches SEO.
Was ist technisches SEO?
Technisches SEO umfasst alle technischen Massnahmen, die sicherstellen, dass Suchmaschinen wie Google deine Website effizient crawlen, indexieren und in den Suchergebnissen korrekt darstellen können.
Es bildet das Fundament jeder SEO-Strategie und umfasst Aspekte wie Ladegeschwindigkeit, mobile Nutzerfreundlichkeit, URL-Struktur, SSL-Verschlüsselung und die Nutzung der robots.txt-Datei.
Typische Massnahmen im technischen SEO
- Verbesserung der Ladezeit (PageSpeed)
- Optimierung der Core Web Vitals (LCP, FID, CLS)
- Einsatz von hreflang-Tags für mehrsprachige Websites
- Crawling- und Indexierungssteuerung über robots.txt und Meta-Tags
- Vermeidung von Duplicate Content durch Canonical-Tags
Ein gut umgesetztes technisches SEO stellt sicher, dass Google die wichtigsten Seiten deiner Website erkennt und indexiert, was zu besseren Rankings führen kann.
Was sind Core Web Vitals?
Die Core Web Vitalssind Leistungskennzahlen, mit denen Google die Nutzererfahrung einer Website misst.
Sie spielen eine wichtige Rolle für das Ranking, da sie die Ladegeschwindigkeit, Interaktivität und visuelle Stabilität der Website bewerten.
Die drei Core Web Vitals:
- LCP (Largest Contentful Paint): Misst, wie lange es dauert, bis der grösste Inhalt auf der Seite sichtbar wird (Ziel: unter 2,5 Sekunden).
- FID (First Input Delay): Misst, wie schnell die Website auf die erste Nutzerinteraktion reagiert (Ziel: unter 100 ms).
- CLS (Cumulative Layout Shift): Bewertet, wie stark sich das Layout der Seite während des Ladens verschiebt (Ziel: unter 0,1).
Warum sind Core Web Vitals wichtig?
- Sie sind ein direkter Ranking-Faktor für Google.
- Langsame Ladezeiten oder Layout-Verschiebungen führen zu einer schlechten Nutzererfahrung und einer höheren Absprungrate.
- Websites mit guten Core Web Vitals haben bessere Chancen, in den Suchergebnissen zu erscheinen.
Du kannst die Core Web Vitals mit Tools wie PageSpeed Insights, Lighthouse oder GTmetrix überprüfen und optimieren.
Wie beeinflusst technisches SEO die Rankings?
Technisches SEO hat sowohl einen direkten als auch einen indirekten Einfluss auf die SEO-Rankings.
Während Aspekte wie Ladezeit und Core Web Vitals direkte Ranking-Faktoren sind, haben andere technische Fehler, wie 404-Seiten oder fehlerhafte hreflang-Tags, einen indirekten Einfluss.
Direkter Einfluss auf Rankings:
- Ladegeschwindigkeit: Je schneller die Seite lädt, desto besser die Core Web Vitals, was zu besseren Rankings führt.
- SSL-Verschlüsselung (HTTPS): HTTPS-Websites werden von Google bevorzugt.
- Mobile-Friendliness: Da Google den Mobile-First-Index verwendet, ist die mobile Optimierung entscheidend.
Indirekter Einfluss auf Rankings:
- Nutzererfahrung (UX): Schlechte Ladezeiten und Layout-Verschiebungen führen zu einer höheren Absprungrate, was sich negativ auf die SEO auswirkt.
- Crawling- und Indexierungsprobleme: Wenn wichtige Seiten von Google nicht gecrawlt werden, können sie auch nicht in den Suchergebnissen erscheinen.
- Duplicate Content: Wenn identische Inhalte auf mehreren URLs gefunden werden, kann das Ranking negativ beeinflusst werden.
Eine gut optimierte Website sorgt dafür, dass Google die Seite schnell crawlen und indexieren kann.
Schnelle Ladezeiten, eine fehlerfreie robots.txt und optimierte Core Web Vitals führen zu besseren Rankings.
Wie wichtig ist technisches SEO für KI-Suchen wie ChatGPT?
Im Gegensatz zu Google-Suchen spielen die klassischen SEO-Ranking-Faktoren wie Ladezeit oder PageSpeed bei KI-Systemen wie ChatGPT keine Rolle.
Stattdessen konzentriert sich die KI auf den Inhalt und die Relevanz der eingegebenen Keywords.
Unterschiede zu Google-Suchen:
- Ladezeit irrelevant
ChatGPT analysiert keine Webseiten in Echtzeit. Die Ladegeschwindigkeit hat demnach keinen Einfluss. - Semantik der Keywords
Das System erkennt die Bedeutung der Wörter, die der Nutzer eingibt, und liefert kontextbezogene Antworten. - Erwähnungen im Web
Inhalte, die auf vertrauenswürdigen Websites häufig erwähnt werden (Backlinks), haben eine grössere Chance, in der KI-Wissensbasis zu erscheinen.
Mein SEO-Tipp:
Um bei KI-Systemen wie ChatGPT sichtbar zu bleiben, solltest du auf Content-Relevanz, Keyword-Semantik und Backlinks setzen.
Erwähnungen auf autoritativen Websites stärken deine Markenpräsenz und erhöhen die Wahrscheinlichkeit, dass deine Inhalte in KI-Suchen auftauchen.
Was passiert, wenn Google nicht alle Seiten crawlen kann?
Wenn Google nicht alle Seiten deiner Website crawlen kann, bleiben diese Seiten unsichtbar in den Suchergebnissen.
Das bedeutet, dass die Inhalte nicht indexiert werden und daher nicht für Nutzer sichtbar sind.
Gründe, warum Google nicht alle Seiten crawlen kann:
- Robots.txt-Blockierung
Wichtige Seiten sind in der robots.txt-Datei blockiert. - Fehlende interne Verlinkung
Wenn eine Seite keine internen Links hat, wird sie von Google möglicherweise nicht gefunden. - Crawl-Budget-Limit
Grosse Websites mit vielen Unterseiten laufen Gefahr, dass Google nicht alle Seiten innerhalb eines bestimmten Zeitrahmens crawlt.
So löst du das Problem:
- Interne Verlinkung verbessern
Stelle sicher, dass jede Seite von einer anderen internen Seite verlinkt ist. - robots.txt-Datei prüfen
Blockiere keine wichtigen Seiten. - Crawl-Budget optimieren
Vermeide die Indexierung von Filterseiten, Paginierungsseiten oder unnötigen Bild-URLs.
Wenn Google wichtige Seiten nicht crawlt, bleiben diese für die Nutzer unsichtbar.
Überprüfe die Google Search Console, um zu sehen, welche Seiten «Discovered – currently not indexed» sind, und leite Massnahmen ein, um das Problem zu beheben.
Warum sind gewisse Seiten “Discovered – currently not indexed” und wie kann ich das lösen?
In der Google Search Console findest du unter «Abdeckung» den Status «Discovered – currently not indexed».
Das bedeutet, dass Google die Seite zwar entdeckt hat, sie aber (noch) nicht indexiert wurde.
Gründe für den Status «Discovered – currently not indexed»:
- Zu viele Seiten zum Crawlen
Wenn das Crawl-Budget begrenzt ist, priorisiert Google bestimmte Seiten. - Niedrige Seitenpriorität
Wenn die Inhalte von Google als wenig relevant eingestuft werden, werden sie nicht indexiert. - Serverprobleme
Wenn der Server während des Crawling-Prozesses nicht reagiert, kann die Seite nicht indexiert werden.
Lösungen für das Problem:
- Interne Verlinkung stärken
Verlinke die betroffenen Seiten aus der Navigation oder von stark frequentierten Seiten. - Priorität in der XML-Sitemap erhöhen
Gib den wichtigen Seiten eine höhere Priorität. - Crawl-Budget optimieren
Vermeide, dass irrelevante URLs (z. B. Paginierungen) unnötiges Crawl-Budget verbrauchen.
Mit diesen Massnahmen kannst du sicherstellen, dass wichtige Seiten von Google gecrawlt und indexiert werden.
Überprüfe die Abdeckungsberichte in der Google Search Console, um zu sehen, ob das Problem behoben wurde.