Wenn die Website in neuem Glanz erstrahlt – und die Besucher verschwinden

Sie kennen das: Monatelange Vorbereitung, endlose Abstimmungen, dann endlich der große Auftritt des neuen Webauftritts. Das Design atmet Modernität, die User Experience ist ein Traum, die Technik läuft wie geschmiert. Doch wenige Wochen später der Schock: Organischer Traffic bricht ein wie ein Kartenhaus im Sturm. Suchmaschinenrankings purzeln, Leads versiegen. Was läuft schief? Die Antwort liegt oft im blinden Fleck zwischen Designentwürfen und Entwickler-Meetings: strategische SEO-Begleitung beim Relaunch.

Die Stolperfallen im Relaunch-Prozess

Technische Teams konzentrieren sich zurecht auf Migration, Sicherheit und Performance. Designer kämpfen für konsistente Brand-Erlebnisse. Doch dabei passiert es schnell: URLs ändern sich ohne Strategie, historisch gewachsene Ranking-Signale werden gekappt wie unnütze Ballastseile. Ein klassisches Beispiel: Die Marketingabteilung pocht auf „saubere“ URL-Strukturen – plötzlich wird aus /blog/tipps-zum-seo-relaunch einfach /neuigkeiten/artikel-15. Für Suchmaschinen ist das, als hätte man einem Bibliothekar sämtliche Katalogkarten entzogen.

Die Anatomie der Katastrophe: Wo Ranking-Potenzial versickert

1. Die Redirect-Falle

Jeder dritte Relaunch scheitert an mangelhaften 301-Weiterleitungen. Ein Fehler mit Langzeitwirkung: Suchmaschinen brauchen Wochen, um Linkjuice neu zuzuteilen – wenn sie die Mapping-Logik überhaupt erfassen. Besonders tückisch: Chain Redirects, bei denen eine URL erst auf Seite B, dann auf C weiterleitet. Jeder Kettenglied kostet Rankingkraft. Praxistipp: Tools wie Screaming Frog identifizieren solche Stolperdrähte vor dem Go-Live. Und nein, ein globaler „/*“ Redirect auf die Homepage ist kein Workaround, sondern digitaler Selbstmord.

2. Content-Archäologie: Vergrabene Schätze heben

Beim Relaunch wird oft radikal ausgemistet. Doch was für Redakteure wie veralteter Ballast wirkt, treibt möglicherweise seit Jahren organischen Traffic an. Ein Kunde berichtete vom versehentlichen Löschen einer 8 Jahre alten Tutorial-Seite – monatlich 2000 Besucher, 15% Conversion-Rate. Lösung: Vor der Migration eine historische Content-Bewertung durchführen. Analysewerkzeuge wie Google Search Console oder Ahrefs zeigen, welche Seiten trotz „veraltet“-Stempel noch signifikanten Traffic generieren. Diese Inhalte nicht löschen, sondern aktualisieren und in die neue Struktur integrieren.

3. JavaScript-Dominanz: Wenn Crawler hungrig bleiben

Moderne Frontend-Frameworks wie React oder Vue.js ermöglichen atemberaubende Interaktionen. Doch zu oft wird vergessen: Googlebot verarbeitet JavaScript zwar – aber nur in begrenztem Kontingent. Schwergewichtige Client-seitige Rendering-Prozesse führen dazu, dass Inhalte erst nach zeitintensivem Ausführen des Codes indiziert werden. Ein Test: Seitenquelle vs. gerenderter Inhalt im Google Search Console-Tool vergleichen. Klaffen Lücken, hilft nur strategisches Pre-Rendering oder der Wechsel zu SSR (Server-Side Rendering).

Technische SEO: Das unsichtbare Fundament

Core Web Vitals sind kein Schönheitswettbewerb, sondern Rankingfaktor. Dabei zeigt sich: Viele Relaunch-Projekte optimieren Ladezeiten isoliert – ohne die Auswirkungen auf das Crawl-Budget zu bedenken. Ein Beispiel: Massive Bilddateien werden via CDN beschleunigt, gleichzeitig verhindern blockierte JS/CSS-Ressourcen in der robots.txt das Rendering. Folge: Googlebot verbrennt wertvolles Crawl-Budget mit unvollständigen Seitenabrufen. Abhilfe schaffen dynamische Rendering-Lösungen für Crawler oder kritische Überprüfung der Blockierlisten.

Strukturierte Daten: Der blinde Fleck

Nach Template-Wechseln sind 70% aller implementierten Schema.org-Markups defekt. Das Problem: Fehlerhafte Structured Data führt nicht nur zum Verlust von Rich Snippets (Sterne-Bewertungen, Rezept-Karten etc.). Google wertet sie als Qualitätssignal – ihr Fehlen schwächt die Domain-Autorität. Relaunch-Checkliste hier:

  • Validierung via Google’s Rich Results Test für alle Template-Typen
  • Massenüberprüfung in der Search Console
  • Fallback-Systeme für dynamisch generierte Markups einbauen

Google Ads: Das vergessene Nachspiel

Während SEO-Probleme meist verzögert sichtbar werden, schlagen fehlgeleitete Paid-Kampagnen sofort ins Kontor. Typische Szenarien:

  • Landingpages werden ohne URL-Weiterleitung archiviert – Klicks versickern im 404-Nirvana
  • Neue Seitenstrukturen machen Conversion-Tracking zum Lotteriespiel
  • Ungeprüfte Mobile UX führt zu Abbruchraten jenseits der 70%

Praxislösung: Vor dem Relaunch ein Ads-Fallback-Szenario entwickeln. Alle aktiven Kampagnen dokumentieren, Ziel-URLs protokollieren und parallel ein Redirect-Monitoring für bezahlte Kanäle einrichten. Nicht vergessen: Auch Google Tag Manager-Container benötigen nach Migration eine Generalüberholung.

Die Rettungsleine: Phasen statt Big Bang

Erfahrene Teams setzen auf incrementelle Relaunches. Statt der kompletten Neuerfindung wird in Modulen migriert: Zuerst das CMS wechseln, dann schrittweise Templates anpassen. Vorteile:

  • Kontinuierliches SEO-Monitoring pro Modul
  • Risikominimierung durch lokalisierte Fehlerquellen
  • Kürzere Debugging-Zyklen bei Ranking-Einbrüchen

Diese Methode erfordert zwar komplexeres Projektmanagement – verhindert aber den kompletten Neustart bei null.

Post-Launch: Der erste Monat entscheidet

Nach dem Go-Live beginnt die eigentliche Detektivarbeit. Essentielle Maßnahmen:

  1. Crawl-Budget-Überwachung: Steigt die Anzahl gecrawlter Seiten dramatisch an? Hinweis auf Schleifen oder ineffiziente Strukturen.
  2. Indexierungsstatus: Tägliche Prüfung des Coverage-Reports in Search Console.
  3. Performance-Triangulation: Core Web Vitals nicht nur via Lighthouse messen – echte User-Daten aus CrUX (Chrome User Experience Report) vergleichen.

Ein bewährtes Tool: Automatisierte Logfile-Analysen zeigen, wie Suchmaschinen-Crawler die neue Struktur erkunden – und wo sie in Sackgassen laufen.

Case Study: Der Preis der Nichtbeachtung

Ein mittelständischer B2B-Anbieter migrierte ohne SEO-Briefing auf ein neues CMS. Resultat:

  • 47% weniger organische Sichtbarkeit innerhalb 4 Wochen
  • 300+ Produkt-URLs ohne 301-Weiterleitung
  • Verlust aller Featured Snippets

Die Nachbesserung kostete das Vierfache der geplanten Relaunch-Summe – und 9 Monate, bis das alte Ranking-Niveau annähernd erreicht war. Ein Lehrstück in betriebswirtschaftlicher Relevanz technischer SEO.

Fazit: Relaunch als Ranking-Chance

Ein durchdachter Relaunch bietet nicht nur Risiken, sondern enorme SEO-Chancen: Altsünden bereinigen, technische Schulden tilgen, Content neu gewichten. Voraussetzung ist jedoch, dass Suchmaschinenoptimierung von der ersten Wireframe-Skizze an in den Prozess integriert wird – nicht als lästiges Add-On, sondern als strategischer Erfolgsfaktor. Denn am Ende zählt nicht, wie glänzend die neue Website ist, sondern ob Kunden sie finden. Und da zeigt sich: Die schönste UX nützt nichts, wenn sie in der Wüste der Suchresultate versteckt bleibt.

Related Posts

  • 5 views

Homepage-Launch: Warum SEO kein Add-On ist und wie Sie den Google-Tsunami reiten Sie haben Monate in das neue CMS investiert, das Design durch 27 Iterationen gejagt – doch wenn die Suchmaschinen Ihre Relaunch-Homepage nicht finden, ist es, als würde man eine Galerieeröffnung im abgeschotteten Bunker feiern. Dabei zeigt sich gerade beim Website-Relaunch, wie technische Entscheidungen und Marketingstrategie untrennbar verflochten sind. Der Indexierungs-Irrtum: „Google findet uns schon“ Ein verbreiteter Denkfehler unter Technikteams: Nach dem Go-Live würden Suchmaschinen die neue Seite schon automatisch entdecken. Faktisch kann eine unvorbereitete Migration zu 60-70% Traffic-Einbruch führen…

  • 5 views

Technische Insights: Das unterschätzte Rückgrat erfolgreicher Online-Strategien Server-Logs rauschen, Analytics-Tools protokollieren unerbittlich – doch die wahre Kunst liegt nicht im Sammeln, sondern im chirurgischen Präparieren dieser Daten. Wer als IT-Entscheider oder Administrator digitale Strategien vorantreibt, braucht mehr als oberflächliche KPIs. Es geht um die forensische Analyse technischer Signale, die verraten, wie Maschinen und Menschen wirklich mit Ihrer Webpräsenz interagieren. Logfiles: Die vergessene Goldmine Während alle auf Google Analytics starren, schlummern in Server-Logs unbeachtete Wahrheiten. Hier sehen Sie, wie Bots Ihre Seite crawlen – wirklich crawlen, nicht wie in den geschönten Reports…