Technisches SEO

Picture of Ferenc Collinet
Ferenc Collinet

Du hast Stunden in die Keyword-Recherche investiert, brillante Texte geschrieben und das Layout optimiert. Doch der Traffic bleibt aus. Ein Blick in die Google Search Console offenbart das Problem: Deine Inhalte sind gar nicht im Index – oder schlimmer noch, es ranken völlig falsche URLs.

Hier kommen wir zum Kernproblem: Ohne technisches SEO ist der beste Content unsichtbar. Technisches SEO sorgt dafür, dass Suchmaschinen deine Seite überhaupt finden, lesen und abspeichern können. Es ist das Fundament, auf dem dein gesamtes Marketing steht. Wenn dieses Fundament Risse hat, hilft auch kein „Content is King“ mehr.

In diesem Artikel zeigen wir dir, wie du technische Hürden identifizierst und priorisierst, damit Google deine harte Arbeit auch belohnt. Wir erklären dir den Weg vom ersten Crawl bis zum Ranking – verständlich, ohne unnötigen Jargon und mit dem Fokus auf das Wesentliche.

Was ist technisches SEO und wann ist es der Engpass?

Technisches SEO wird oft als reine „IT-Sache“ abgetan. Das ist ein gefährlicher Irrtum. Es ist die Schnittstelle zwischen deiner Marketing-Strategie und der Server-Technik. Im Kern geht es um drei Dinge: Zugang, Interpretation und Steuerung.

Wenn wir Projekte übernehmen, sehen wir oft folgende Symptome, die fast immer technische Ursachen haben:

  • Eine inhaltlich starke Seite rankt einfach nicht, egal wie viele Backlinks sie hat.
  • Statt der detaillierten Produktseite rankt plötzlich eine irrelevante Kategorie- oder Tag-Seite.
  • Seiten verschwinden nach einem Relaunch komplett aus den Suchergebnissen.

Technik vs. Onpage vs. Offpage

Man muss hier klar unterscheiden: Onpage SEO (Content, Struktur, Keywords) sorgt dafür, dass deine Seite relevant ist. Technisches SEO sorgt dafür, dass Google weiß, dass sie existiert und was darauf zu sehen ist.

Stell dir vor, du eröffnest ein wunderschönes Geschäft (Onpage), aber du mauerst die Eingangstür zu (Technik). Niemand wird deine Produkte sehen.
Ein klassischer Fall aus unserer Praxis: Eine Service-Seite hatte den perfekten Verkaufstext. Aber im WordPress-Template war versehentlich ein „noindex“-Tag hardcodiert. Das Ergebnis: 0 Sichtbarkeit, egal wie gut der Text war.

WordPress-Fallen und Verantwortung

Besonders in CMS-Umgebungen wie WordPress lauern stille Blocker. Ein Plugin-Update oder eine falsche Einstellung im Theme können dazu führen, dass Google ausgesperrt wird. Technisches SEO bedeutet hier nicht, selbst Code zu schreiben, sondern die richtigen Einstellungen zu prüfen und die Kommunikation zwischen Redaktion, Marketing und Entwicklung zu steuern.

Woran du Wirkung erkennst:
Wenn du technisches SEO ernst nimmst, identifizierst du Blocker, bevor du Ressourcen in neuen Content steckst. Du hörst auf, gegen Windmühlen zu kämpfen, und sorgst dafür, dass deine Optimierungen auch wirklich bei Google ankommen.

Prozessmodell: Discovery → Crawl → Render → Index → Ranking

Um technische Fehler zu finden, musst du verstehen, wie Google arbeitet. Viele werfen Begriffe durcheinander und suchen an der falschen Stelle. Wir nutzen hierfür ein klares Prozessmodell – eine Art Diagnose-Landkarte.

Wo genau hängt es bei dir?

  1. Discovery (Entdeckung): Bevor Google etwas crawlen kann, muss die URL bekannt sein. Das passiert über Interne Links oder deine XML-Sitemap.
  2. Crawling (Zugriff): Der Googlebot besucht die URL. Hier entscheiden Server-Antwortzeiten, Statuscodes und die robots.txt darüber, ob der Bot überhaupt „eintreten“ darf.
  3. Rendering (Verarbeitung): Google führt den Code der Seite aus (HTML, CSS, JavaScript). Hier entscheidet sich, ob Google den Inhalt und die Links auf der Seite überhaupt „sieht“.
  4. Indexierung (Speicherung): Nach der Analyse entscheidet Google, ob die Seite in den Index (die Datenbank) aufgenommen wird. Hier greifen Signale wie noindex, Canonicals oder die Bewertung von Duplicate Content.
  5. Ranking (Sortierung): Erst jetzt – und wirklich erst jetzt – greifen die klassischen Rankingfaktoren wie Relevanz und Autorität.

Ein häufiges Szenario: Eine Seite wird in der Search Console als „Gecrawlt – zurzeit nicht indexiert“ gemeldet. Das ist kein Crawling-Problem (Schritt 2 hat ja funktioniert), sondern meist ein Qualitätsproblem oder ein Duplikat-Thema in Schritt 4.

Wenn du diesen Prozess verinnerlichst, kannst du Probleme gezielt zuordnen, statt blind an allen Schrauben gleichzeitig zu drehen.

Lies hierzu mehr: Crawling vs. Indexierung: Wo liegt der Unterschied?

Steuerung richtig: robots.txt, Noindex, Canonical (wer macht was?)

Hier passieren die meisten und teuersten Fehler. Diese drei Werkzeuge werden oft verwechselt, haben aber völlig unterschiedliche Aufgaben. Wenn du sie falsch kombinierst, schießt du dich selbst ins Aus.

1. robots.txt = Crawl-Zugriff steuern

Die robots.txt ist der Türsteher. Sie sagt dem Bot: „Du darfst hier nicht rein.“

  • Wichtig: Wenn du eine Seite in der robots.txt sperrst (Disallow), kann Google sie nicht lesen. Das bedeutet aber auch, dass Google den noindex-Tag auf dieser Seite nicht lesen kann! Die Seite kann also trotzdem im Index landen (z.B. wenn viele externe Links darauf zeigen), nur eben ohne Inhaltsschnipsel.

2. Noindex = Index steuern

Das noindex-Tag ist eine Anweisung an die Bibliothek (Google): „Lies das Buch ruhig, aber nimm es nicht in den Katalog auf.“

  • Wichtig: Damit noindex funktioniert, muss Google die Seite crawlen dürfen. Noindex und Nofollow sind deine wichtigsten Werkzeuge, um dünne Inhalte aus dem Index fernzuhalten.

3. Canonical = Das Original bestimmen

Das Canonical Tag ist ein Hinweis: „Diese Seite sieht aus wie Seite B, aber Seite B ist das Original. Bitte ranke Seite B.“ Es hilft enorm beim Management von Duplicate Content.

  • Gefahr: Ein Canonical, das auf eine 404-Seite oder eine gesperrte URL zeigt, sendet widersprüchliche Signale und wird von Google oft ignoriert.

Mini-Beispiel aus der Praxis:
Wir sehen oft, dass die Pagination (Seite 2, 3, 4 eines Blogs) auf noindex gesetzt wird. Das klingt logisch („Seite 2 soll nicht ranken“), ist aber riskant. Wenn Google Seite 2 nicht indexiert, folgt der Bot langfristig auch nicht mehr den Links auf Seite 2. Alte Artikel, die nur dort verlinkt sind, verlieren ihre interne Verlinkung und fliegen aus dem Index.

Discovery sauber aufstellen: XML-Sitemap + interne Verlinkung

Damit Google deine Inhalte findet, braucht es klare Wegweiser. Doch viele verlassen sich blind auf automatisch generierte Sitemaps.

Die Rolle der XML-Sitemap

Eine XML-Sitemap ist eine Ergänzung. Sie ist eine Liste von URLs, die du Google vorschlägst. Sie garantiert keine Indexierung.
Der häufigste Fehler: Die Sitemap ist voll mit „Müll“. URLs, die auf noindex stehen, weitergeleitet werden (301) oder gar nicht mehr existieren (404), haben in der Sitemap nichts verloren.
Eine saubere Sitemap enthält nur kanonische, indexierbare Ziel-URLs, die den Statuscode 200 zurückgeben.

Viel mächtiger als die Sitemap sind deine internen Links. Ein Link aus dem Hauptmenü oder von der Startseite signalisiert Google: „Das hier ist wichtig!“ Eine URL, die nur in der Sitemap steht, aber nirgendwo verlinkt ist (Orphan Page), wird von Google kaum beachtet werden.

Mini-Beispiel:
Ein Shop hat 10.000 Produkte in der Sitemap, aber 4.000 davon sind Varianten, die per Canonical auf das Hauptprodukt zeigen. Google verschwendet Zeit damit, diese Liste abzuarbeiten, nur um festzustellen: „Ah, das soll ich gar nicht indexieren.“ Das frisst unnötig Ressourcen.

Achte auch auf eine saubere URL-Struktur. Sprechende URLs helfen nicht nur dem User, sondern auch dem Bot, die Hierarchie der Seite zu verstehen.

Statuscodes & Redirects: Hygiene, die Rankings schützt

Jedes Mal, wenn ein Browser oder ein Bot eine Seite aufruft, antwortet der Server mit einem HTTP-Statuscode. Diese Codes sind die Sprache, in der dein Server mit Google spricht.

  • 200 OK: Alles gut, Seite ist da.
  • 301 Moved Permanently: Die Seite ist dauerhaft umgezogen. Das ist der Standard für Relaunches. Der „Linkjuice“ (die Power) wird vererbt.
  • 302 Found: Vorübergehende Weiterleitung. Nutze das nur, wenn die alte Seite wirklich bald wiederkommt.
  • 404 Not Found: Seite weg. Das ist völlig okay, wenn ein Produkt dauerhaft ausverkauft ist.
  • 410 Gone: Seite weg und kommt nie wieder (stärkeres Signal als 404).
  • 5xx: Serverfehler. Das ist ein Alarmzeichen. Wenn Google das oft sieht, kommt der Bot seltener vorbei.

Redirect-Ketten und Soft 404

Achte darauf, dass deine Weiterleitungen direkt sind. Eine Kette von A → B → C → D verzögert das Laden und verwässert Signale. Wir wollen Redirects (301/302) immer direkt von A nach Z setzen. Redirect-Ketten solltest du regelmäßig auflösen.

Ein besonders tückisches Problem ist der Soft 404 Fehler. Das passiert, wenn eine Seite für den Nutzer aussieht wie eine Fehlerseite („Produkt nicht gefunden“), der Server aber technisch einen Statuscode 200 („Alles super“) sendet. Google merkt das irgendwann, ist aber verwirrt. Stelle sicher, dass Fehlerseiten auch technisch als Fehler (404) markiert werden.

URL-Explosion vermeiden: Parameter & Faceted Navigation

Wenn du einen Online-Shop oder ein großes Verzeichnis betreibst, sind Parameter-URLs oft dein größter Feind im technischen SEO.

Filter, Sortierungen und Suchfunktionen hängen Parameter an die URL (z.B. ?farbe=rot&sort=preis_asc). Wenn du 10 Filter hast, ergeben sich schnell Millionen möglicher Kombinationen. Das nennt man Faceted Navigation.

Das Problem:

  1. Duplicate Content: Die Seite „Rote Socken billig“ zeigt fast das Gleiche wie „Billige Socken rot“.
  2. Crawl Budget Verschwendung: Google crawlt tausende sinnlose Varianten statt deiner wichtigen neuen Produkte.

Die Lösung:
Du brauchst eine Entscheidungsmatrix. Welche Varianten sollen ranken?

  • Kombination „Marke + Kategorie“? Ja, wahrscheinlich indexierbar (Self-Referencing Canonical).
  • Kombination „Preisfilter + Farbe + Größe“? Nein, meistens irrelevant für Suche. Hier nutzen wir noindex oder robots.txt Disallow, oder setzen ein Canonical auf die Kategorie-Hauptseite.

Mini-Beispiel:
Ein Shop lässt alle Filter-URLs indexieren. Google findet 100.000 URLs für einen Shop mit 500 Produkten. Das Ergebnis: Die wirklich wichtigen Produktseiten werden nur alle paar Wochen gecrawlt, weil der Bot sich im Filter-Labyrinth verirrt.

JavaScript SEO: Rendering-Probleme erkennen und vermeiden

Moderne Websites setzen stark auf JavaScript. Für den Nutzer sieht alles schick aus, aber für den Bot kann es eine Herausforderung sein. JavaScript SEO befasst sich genau damit.

Google kann JavaScript rendern, aber es kostet Rechenleistung und Zeit. Der Prozess (Crawl → Queue → Render → Index) dauert oft länger als bei reinem HTML.

Kritische Punkte:

  • Links: Google braucht <a href="...">-Links, um zu navigieren. Wenn Links erst per JavaScript-Klick („onclick“) generiert werden, folgt Google ihnen oft nicht.
  • Inhalte: Sind deine wichtigen Texte und Überschriften im initialen HTML vorhanden (View Source), oder werden sie erst nachgeladen? Wenn sie erst nachgeladen werden, sieht Google im ersten Schritt eine leere Seite.
  • Lazy Loading: Bilder und Inhalte erst zu laden, wenn man scrollt, ist gut für die Performance. Aber wenn es falsch implementiert ist, „sieht“ der Bot diese Inhalte nie, da er nicht scrollt wie ein Mensch.

Mini-Beispiel:
Ein „Mehr laden“-Button auf einer Kategorieseite lädt weitere Produkte per JavaScript nach. Google drückt diesen Button nicht. Alle Produkte ab Seite 2 sind für die Suchmaschine unsichtbar.

International: hreflang sauber oder gar nicht

Wenn du international expandierst, ist hreflang dein Werkzeug, um Google zu sagen: „Zeige Nutzern in Frankreich diese URL und Nutzern in Deutschland jene.“

Aber Achtung: Hreflang ist extrem fehleranfällig. Es ist eines der komplexesten Themen im technischen SEO.

  • Gegenseitigkeit: Wenn Seite A auf Seite B verweist (per hreflang), muss Seite B zwingend auch auf Seite A zurückverweisen. Sonst ignoriert Google die Anweisung.
  • X-Default: Vergiss nicht die Fallback-Version für Nutzer, deren Sprache nicht abgedeckt ist.

Ein typisches Fehlerbild: Eine österreichische Seite rankt in Deutschland, obwohl es eine deutsche Version gibt. Das ist meist ein Zeichen für fehlende oder kaputte hreflang-Tags. Unsere Empfehlung: Wenn du es nicht sauber technisch implementieren kannst, lass es lieber weg, bevor du Chaos stiftest.

Monitoring & Routine: GSC, Crawls, Logfiles (pragmatisch)

Technisches SEO ist kein einmaliges Projekt, sondern Hygiene. Websites verändern sich, Plugins werden geupdated, Redakteure erstellen neue Seiten.

Du brauchst eine Routine:

  1. Wöchentlich: Blick in die Google Search Console (Abdeckung & Indexierung). Gibt es plötzliche Spikes bei 404-Fehlern oder 500er Fehlern?
  2. Monatlich: Ein Crawl mit einem Tool (wie Screaming Frog oder Sitebulb). Prüfe auf neue Redirect-Ketten, Orphan Pages oder fehlerhafte Canonicals.
  3. Profi-Level: Die Logfile-Analyse. Hier siehst du nicht, was Google theoretisch sehen sollte, sondern was der Bot tatsächlich getan hat. Welche URLs ruft er am häufigsten auf? Ignoriert er wichtige Bereiche?

Wir wollen Probleme finden, bevor sie den Umsatz beeinträchtigen. Crawl Budget ist zwar für kleine Seiten selten ein Thema, aber ineffizientes Crawling deutet fast immer auf Strukturfehler hin, die auch das Ranking behindern.


FAQ: Häufige Fragen zu technischem SEO

Warum wird eine Seite nicht indexiert?
Das kann viele Gründe haben: Sie ist auf noindex gesetzt, in der robots.txt gesperrt, ein Duplikat einer anderen Seite (Canonical zeigt woanders hin) oder Google hält die Qualität für zu gering (Soft 404 / Thin Content).

Reicht eine XML-Sitemap für die Indexierung?
Nein. Die Sitemap ist nur ein Vorschlag. Viel wichtiger sind starke interne Verlinkungen, damit Google die Relevanz der Seite erkennt.

Was ist der Unterschied zwischen Noindex und robots.txt?
robots.txt verbietet den Zutritt (Crawling). noindex erlaubt den Zutritt, verbietet aber die Aufnahme in den Index. Nutze robots.txt für Server-Ressourcen und noindex für Inhaltsseiten, die nicht in die Suche sollen.

301 vs. 302 – was nehme ich wann?
Nimm fast immer 301 (permanent). Das überträgt die Ranking-Power auf die neue URL. 302 (temporär) nutzt du nur, wenn die Weiterleitung wirklich nur für kurze Zeit (z.B. Wartungsarbeiten) besteht.

Was tun bei vielen Parametern und Filtern?
Analysiere, welche Filterkombinationen Suchvolumen haben. Diese machst du indexierbar (selbstreferenzierendes Canonical). Alle anderen Kombinationen, die nur das Crawl Budget belasten, solltest du per Canonical auf die Hauptkategorie zeigen lassen oder per robots.txt sperren.

Ist JavaScript schlecht für SEO?
Nicht grundsätzlich. Aber es erhöht die Komplexität und Fehleranfälligkeit. Inhalte, die für das Ranking essenziell sind, sollten idealerweise direkt im HTML stehen (Server Side Rendering), um auf Nummer sicher zu gehen.


Fazit: Prioritäten statt Perfektion

Technisches SEO kann einen schnell überwältigen. Die Kunst liegt nicht darin, jedes winzige Detail zu fixen, sondern die „Showstopper“ zu beseitigen. Sorge dafür, dass Google deine Seiten erreichen (Crawl), verstehen (Render) und richtig einordnen (Index) kann.

Wenn du das Gefühl hast, dass deine Seite trotz guter Inhalte mit angezogener Handbremse fährt, ist es Zeit für einen Blick unter die Motorhaube.