Zurück zu allen Beiträgen
guides 13 min read

Der Jahres-im-Titel-Mythos und was Core Updates wirklich bewegen

Ali Gundogdu ·
Der Jahres-im-Titel-Mythos und was Core Updates wirklich bewegen

Jedes Quartal wiederholt sich in SEO-Foren ein vertrautes Muster. Ein Core Update wird ausgerollt, die Rankings verschieben sich, und innerhalb von zwei Tagen erreicht eine neue Welle an Tipps das Feld: Titel mit dem aktuellen Jahr umschreiben, Daten alter Beiträge auffrischen, Listicles neu generieren, mit KI mehr Inhalte pro Woche herausschicken. Manches davon hat Wurzeln in echtem Verhalten, das Google belohnt. Das meiste nicht. Und einer der hartnäckigsten Tipps, “schreib die Jahreszahl in den Titel”, liegt näher am Aberglauben als an einer belegbaren Ursache.

Erschwerend kommt hinzu, dass solche Tipps oft zusammen mit echten Ranking-Bewegungen auftauchen. Eine Website aktualisiert Titel mit der Jahreszahl, ein Core Update läuft durch, der Traffic kommt zurück, und die Schleife schließt sich im Kopf des Betreibers. Korrelation wird zum Ritual. Gleichzeitig nehmen andere Websites dieselbe Änderung vor und verlieren mehr Boden. Das Muster, das eine Erholung tatsächlich vorhersagt, ist selten das kosmetische.

Dieser Leitfaden zeigt, was Core Updates wirklich bewerten, woher der Jahres-im-Titel-Mythos kommt, warum manche alten Seiten ohne Bearbeitung zurückkehren, was Information Gain ist und warum es für viele Suchanfragen mehr zählt als Frische, und wie Sie mit Panik nach einem Update umgehen, ohne Entscheidungen zu treffen, die Sie in einem Quartal bereuen.

Die Jahreszahl im Titel ist kein Ranking-Signal

Google hat nirgends dokumentiert, dass die Jahreszahl im Title-Tag ein Rankingfaktor ist. Die Intuition dahinter wirkt plausibel. Ein Titel wie “Beste CRM-Software für 2026” sieht aktueller aus als “Beste CRM-Software”, und Nutzer klicken vielleicht häufiger. Eine höhere Klickrate, so die Argumentation, signalisiert dem Algorithmus Relevanz, und die Seite steigt.

Diese Kette hat zwei Lecks. Erstens hängt der CTR-Effekt, falls er existiert, von der Suchanfrage und dem SERP-Layout ab. Ein Titel mit Jahreszahl gewinnt Klicks, wenn die Anfrage Frische impliziert, etwa “beste Laptops 2026” oder “Steuerklassen 2026”. Bei zeitlosen Themen wie “wie funktioniert eine Hash-Tabelle” oder “was sind strukturierte Daten” passiert das Gegenteil. Hier kann die Jahreszahl die CTR sogar senken, weil die Seite neben einem Wettbewerber, der schlicht das Thema benennt, schnell verstaubt wirkt. Der Effekt hängt von der Anfrage ab, er ist nicht universell.

Zweitens ist die CTR, selbst wo sie zählt, kein direktes Rankingsignal in dem Sinne, wie ein Backlink oder ein Canonical-Tag eines ist. Google hat Klickdaten seit jeher als verrauschtes Signal eingesetzt, das zur Bewertung und zu Ranking-Anpassungen dient, nicht als pro Seite einstellbaren Hebel, den Sie durch ein “2026” im Titel drehen können. Eine Jahreszahl hinzuzufügen, “sagt dem Algorithmus” nichts. Es ist eine Textentscheidung. Sie hilft bei einigen Anfragen und schadet bei anderen.

Das tiefere Problem ist, dass “Jahr im Titel” zum Ersatz für echte inhaltliche Arbeit geworden ist. Eine Seite, die für “beste CRM-Software” rankt, rankt dort, weil sie wettbewerbsfähige Abdeckung hat, plausible Expertise-Signale, eine interne Verlinkungsstruktur, die sie ins richtige Cluster setzt, und ein Aktualisierungsmuster, das zur Anfrage passt. Nur den Titel zu ändern, lädt Google ein, die Seite neu zu crawlen und festzustellen, dass sich sonst nichts bewegt hat. In manchen Fällen ist das schlimmer, als den Titel zu lassen, weil es kosmetisches Editieren ohne substanzielle Verbesserung suggeriert.

Woher der Mythos kommt: QDF, falsch verstanden

Der wahre Kern hinter der Gewohnheit ist Query Deserves Freshness, kurz QDF. Google hat seit über einem Jahrzehnt eingeräumt, dass manche Suchanfragen aktuelle Informationen verlangen, und das Ranking für solche Anfragen stützt sich auf Frische-Signale. Eine Welle von Nachrichten zu einem Produktstart zieht frische Seiten hoch. Ein aktuelles Ereignis formt eine SERP für Stunden um.

QDF ist real. QDF ist auch eng. Es greift stark bei eindeutig zeitkritischen Anfragen: Nachrichtenereignisse, Produkt-Releases, Sportergebnisse, Wahlnachrichten, Steuerjahrwechsel, Software-Versionsänderungen. Es greift schwach oder gar nicht bei allem anderen.

Eine Seite zu “wie funktioniert PageRank” profitiert nicht von QDF. Eine Seite zu “Core Web Vitals 2026” profitiert schwach, weil sich die Definitionen und Schwellenwerte der Metriken über die Zeit verändert haben. Eine Seite zu “beste Laufschuhe für Marathon-Training” profitiert mäßig, wenn Tester ihre Empfehlungen pro Saison aktualisieren.

Die Jahreszahl in den Titel zu schreiben, nur weil es QDF gibt, ist ein Kategorienfehler. QDF heißt nicht “Google belohnt Titel mit Jahreszahlen.” Es heißt “Google belohnt aktuelle und substanzielle Abdeckung bei Anfragen, in denen Aktualität zählt.” Das eine ist eine Textersetzung. Das andere ist redaktionelle Arbeit.

Was Core Updates wirklich bewegen

Google veröffentlicht zu jeder Broad Core Update-Welle kurze Hinweise, und der konsistente Rahmen war stets, dass diese Updates Seiten anhand allgemeiner Qualitäts- und Relevanzsignale neu sortieren, statt einzelne Taktiken zu bestrafen. Die Begriffe wiederholen sich in verschiedenen Formen: hilfreiche Inhalte, Expertise, Vertrauenswürdigkeit, Tiefe, Originalität.

In der Praxis folgt das, was sich während eines Core Updates verschiebt, einigen Mustern. Websites, die in den Monaten zuvor in großem Umfang dünne oder schablonenhafte Inhalte gebaut haben, verlieren häufig Sichtbarkeit, manchmal deutlich. Websites, die leise die Tiefe ihrer besten Seiten verbessert, echte eigene Sichtweisen ergänzt und Qualitätsprobleme über den langen Schwanz hinweg behoben haben, gewinnen oft. Websites, die weder das eine noch das andere taten, bewegen sich in den üblichen Volatilitätsbereichen.

Drei identische Tesserae-Steintafeln nebeneinander, jede mit einem anderen Jahr markiert, mit einem einzigen orangefarbenen X über allen dreien, das zeigt, dass die Jahreszahl den zugrunde liegenden Wert nicht verändert

Hier passt eine der meistdiskutierten jüngeren Beobachtungen ins Bild. Die Analyse der SEO-Forscherin Lily Ray zu Rückschlägen bei skalierten KI-Inhalten ist in SEO-Foren und auf Reddit breit geteilt worden, und das Muster, das sie dokumentiert, wiederholt sich in vielen Fallstudien nach jedem Core Update: Websites, die 2025 und 2026 KI-generierte Inhalte aggressiv skaliert haben, verloren bei nachfolgenden Core Updates oft große Teile ihres organischen Traffics. Ein diskutierter Beitrag auf r/SEO beschrieb kürzlich eine Sport-Website, deren Impressionen von 5.000 pro Tag auf rund 10 fielen, nachdem ein Ratschlag befolgt wurde, der KI-gestützte Skalierung über redaktionelle Substanz stellte.

Die Lehre aus diesen Post-Update-Audits ist nicht “KI ist schlecht”. Viele Seiten, die KI als Schreibhilfe einsetzen, halten sich oder wachsen während Core Updates, weil eine redigierende Person substanzielle Entscheidungen über den Entwurf legt. Die Lehre lautet eher “Skalierung ohne Urteilsvermögen häuft Qualitätsschulden an, und Core Updates rufen diese Schulden irgendwann ab.” Der Auslöser des Verlusts ist nicht das Werkzeug. Es ist der Produktionsablauf, der den Redigierschritt streicht.

Wenn Sie eine Website auditieren, die bei einem Core Update Traffic verloren hat, sind die wertvolleren Fragen die zum Produktionsmuster, nicht die zum Title-Tag.

  • Wurde jede Seite von jemandem mit Themenkenntnis geprüft und gestaltet, oder wurde KI-Output mit leichter Hand veröffentlicht?
  • Hat die Website einen klaren Standpunkt, oder wiederholt jede Seite denselben neutralen Überblick, den Leser auf zwanzig anderen Seiten finden können?
  • Sind die Seiten, die am stärksten verloren haben, die schablonenhaft und flach wirken, oder zieht es sich quer durch die gesamte Bibliothek?

Die Antworten weisen auf die Arbeit, die Traffic zurückbringt. Titelumformulierungen mit dem aktuellen Jahr tun das nicht.

Alte Seiten kehren oft ohne Bearbeitung zurück

Ein Muster, das Einsteiger im Thema Core Updates überrascht: Manche Seiten, die bei einem Update Sichtbarkeit verloren haben, gewinnen sie bei einem späteren Update zurück, ohne dass dazwischen etwas bearbeitet wurde. Das passiert, weil das Reranking eines Core Updates eine systemweite Neukalibrierung ist, keine seitengenaue Strafe. Eine Seite kann in einem Update Boden verlieren, weil benachbarte Seiten im Wettbewerbsfeld an relativer Wertigkeit gewonnen haben, und später wieder aufsteigen, wenn sich die relative Verteilung erneut verschiebt.

Das ändert, wie Sie Post-Update-Panik lesen sollten. Der stärkste emotionale Zug nach einem Update ist, Änderungen zu machen, weil Änderungen sich nach Handlungsspielraum anfühlen. Aber viele Änderungen in den zwei Wochen nach einem Update reagieren auf einen vorübergehenden Zustand der SERP, der sich im nächsten Update-Zyklus, Wochen oder Monate später, teilweise zurückbildet.

Eine nützliche Heuristik ist die Unterscheidung zwischen Seiten, die Traffic verloren, weil sich das Qualitätssignal der gesamten Website verschoben hat, und Seiten, die verloren, weil sich die SERP-Komposition um sie herum verschoben hat. Der erste Fall zeigt sich meist als breite Rückgänge über viele Seiten, ohne offensichtliches Muster an den Anfragen. Der zweite Fall zeigt sich meist bei bestimmten Seiten oder Anfrage-Clustern, deren neue Top-Ergebnisse eine strukturell andere Form haben, etwa längere Leitfäden, die kurze Antworten ersetzen, oder Videoergebnisse, die Text nach unten drücken.

Im ersten Fall ist die Arbeit bibliotheksweite Qualität. Im zweiten Fall ist die Arbeit seiten- oder cluster-spezifisch. In keinem Fall ist die Arbeit “Jahreszahl in den Titel”.

Was Information Gain wirklich heißt

Ein für die meisten zeitlosen Inhalte nützlicheres Konzept als QDF ist Information Gain. Der Begriff stammt aus einem Google-Patent und wurde in der SEO-Community ausführlich beschrieben. Der Kern: Ein neuer Inhalt fügt dem SERP Wert hinzu, im Verhältnis zu der einzigartigen Information, die er über das hinaus mitbringt, was die bestehenden Top-Ergebnisse bereits abdecken.

Eine Seite, die denselben Überblick wie die Top drei wiedergibt, hat geringen Information Gain. Eine Seite, die ein eigenes Experimentergebnis, einen frischen Datensatz, einen strukturierten Vergleich, den niemand sonst gebaut hat, oder eine durch echte Praxis erworbene Sichtweise hinzufügt, hat hohen Information Gain.

Ein Tesserae-Netzwerkgraph, in dem die meisten Knoten grau und ähnlich sind, mit einem orangefarbenen Knoten, umgeben von einem warmen Halo, was einen neuen Beitrag andeutet, der über die Wiederholung hinaus Wert schafft

Das formuliert die eigentliche redaktionelle Entscheidung aus, die Core Updates zu belohnen scheinen. Seiten mit hohem Information Gain halten sich oder wachsen während Qualitäts-Rerankings, weil ein relatives Qualitätssystem sie zunehmend als die Quelle erkennt, die die übrige SERP wiederholt. Seiten mit niedrigem Information Gain sind verletzlich, weil sie mit dem Rest des Clusters austauschbar sind.

Information Gain ist keine Flagge, die Sie im Metadaten-Block setzen. Es ist eine Eigenschaft, die aus der redaktionellen Arbeit selbst hervorgeht. Einige praktische Fragen, die darauf zielen:

  • Was sagt diese Seite, das die aktuellen Top drei nicht sagen?
  • Wenn ein Leser zuerst auf den Top drei landet, würde diese Seite sein Verständnis sinnvoll erweitern, oder wirkte sie redundant?
  • Bezieht sich die Seite auf Erfahrung, Daten oder Perspektiven, die der Autor wirklich hat, oder ist sie eine neutrale Zusammenstellung öffentlichen Wissens?

Wenn die Antwort auf die dritte Frage “neutrale Zusammenstellung” lautet, ist die Seite beim nächsten Qualitäts-Reranking gefährdet. Die Jahreszahl im Titel ändert die Antwort nicht.

Listicle-Inflation und das Parasite-SEO-Problem

Ein spezifisches Muster ist zu benennen, weil Reddit-Threads nach jedem Core Update es aufbringen: Listicles, die Original-Quellen überholen. Eine typische Klage liest sich wie “Ich habe den definitiven Leitfaden zu diesem Thema geschrieben, aber ein Listicle auf einer High-Authority-Site, das meinen Inhalt übernimmt und einen Absatz ergänzt, rankt über mir.”

Dieses Muster hat zwei Komponenten. Die erste ist schlichter Authority-Überlauf. Eine neue Seite auf einer hohen Domain-Autorität erbt einen zeitweiligen Ranking-Schub von der Domain. Die zweite ist umstrittener und wird oft Parasite SEO genannt: Inhalte, die unter einer High-Authority-Domain von Dritten veröffentlicht werden, manchmal mit geringer redaktioneller Kontrolle, und die wegen der Autorität des Hosts ranken, nicht wegen der Qualität des Inhalts.

Google hat Parasite SEO in Policy-Updates adressiert und konkrete Fälle bearbeitet, das Muster hält sich aber. Für den Betreiber einer Original-Content-Site ist die richtige Reaktion nicht, das Listicle einzuholen, indem man die Jahreszahl in Titel schreibt. Die richtige Reaktion ist, wo möglich, die Art von Information Gain aufzubauen, die ein Listicle nicht abgreifen kann: eigene Forschung, erfahrungsgetriebene Analyse, strukturierte Vergleiche, die das Listicle nicht sauber kopieren kann. Über mehrere Core Update-Zyklen erweist sich dieser Inhalt als robuster, auch wenn einzelne Rankings schwanken.

Hier zählt auch die Transparenz darüber, wie die Seite gemacht wurde. Ein Leitfaden mit benannter Autorenschaft, einem dokumentierten Methodikabschnitt und datierten Revisionen liest sich für einen Qualitätsprüfer, menschlich oder algorithmisch, anders als ein frisch erzeugtes Listicle ohne klare Herkunft.

Eine ruhigere Lesart eines Core Updates

Die achtundvierzig Stunden nach Abschluss eines Core Updates sind die Zeit, in der die meisten Fehler entstehen. Panik staucht den Zeithorizont. Eine Seite verliert die Hälfte ihres Traffics, der Reiz ist sie morgen zu bearbeiten. Eine Website fällt insgesamt um 30 Prozent, der Reiz ist hundert Seiten in dieser Woche umzuschreiben.

Ein nachhaltigerer Ablauf sieht so aus.

  1. Warten Sie, bis das Rollout vollständig abgeschlossen ist. Google hat in der Vergangenheit ein bis zwei Wochen für ein Broad Core Update gebraucht. Ergebnisse von Tag drei lassen sich nicht auf Tag vierzehn übertragen.
  2. Auditieren Sie auf Cluster-Ebene, nicht auf Seiten-Ebene. Identifizieren Sie, welche Inhalts-Cluster am stärksten verloren haben und welche gehalten haben. Suchen Sie nach den strukturellen Unterschieden zwischen ihnen: Tiefe, Originalität, interne Verlinkung, Quellqualität, Format.
  3. Vergleichen Sie die aktuellen Top-Ergebnisse für Ihre betroffenen Anfragen mit dem, was zuvor da war. Die Form der neuen SERP sagt Ihnen oft, ob die Bewegung an der Qualität Ihrer Seite lag oder daran, dass sich die SERP um sie herum verschob.
  4. Widerstehen Sie dem Impuls, kosmetische Änderungen im Batch zu fahren. Eine Runde Jahres-im-Titel-Umschreibungen, neu generierte Meta-Descriptions und Datums-Refreshes über hundert Seiten ist meist Rauschen. Sie löst zudem Re-Crawls aus, die andere Qualitätsprobleme früher offenlegen, als Ihnen lieb ist.
  5. Wählen Sie drei bis fünf trafficstarke Seiten aus dem verlierenden Cluster und bauen Sie sie mit echtem Information Gain neu auf. Neue Originalinhalte, neu strukturierte Argumente, frische Perspektive. Messen Sie über den nächsten Update-Zyklus.

Eine eigene Frage lohnt sich, wenn Traffic einbricht: werden Seiten überhaupt noch im erwarteten Tempo indexiert? Manchmal ist ein vermeintlicher “Core-Update-Verlust” in Wahrheit ein parallel laufendes Deindexing mit ganz anderen Ursachen. Unser Leitfaden zum Thema warum Seiten deindexiert werden und wie Sie das mit einem Crawl diagnostizieren trennt diese Fälle. Weitere relevante Referenzen für die Arbeit nach einem Update: die Technical-SEO-Audit-Checkliste, der Leitfaden zur Generative Engine Optimization und der SEO-Crawler-Leitfaden, um das betroffene Cluster systematisch zu crawlen.

Wo KI-Engines hineinpassen

Eine verwandte Sorge, die oft in Core-Update-Panik einfließt, sind AI Overviews und das Verhalten von ChatGPT bei Suche. Die Befürchtung lautet: Selbst wenn eine Seite in den klassischen Blue-Link-Rankings zurückkommt, sinkt der Traffic, weil Antworten zunehmend direkt im SERP synthetisiert werden.

Das ist eine reale Verschiebung, sie interagiert aber auf eine bestimmte Weise mit dem Jahres-im-Titel-Mythos. AI Overviews und ChatGPT-Zitate scheinen die Jahreszahl im Titel gar nicht zu gewichten. Sie scheinen klare Strukturen, die Präsenz strukturierter Daten, die das Modell sauber einlesen kann, und die Distinktheit der Aussagen zu gewichten. Eine Seite mit Jahreszahl im Titel, die einen öffentlichen Konsens wiederholt, wird seltener zitiert als eine Seite ohne Jahreszahl, die einen spezifischen Datenpunkt oder eine eigene Rahmung beiträgt.

Wenn Ihr Traffic von Klicks zu Zitaten kippt, ist die redaktionelle Arbeit dieselbe wie die, die gegen Core Updates hält: echter Information Gain, transparente Autorenschaft, strukturierter Inhalt, den das Modell parsen kann, eigene Sichtweise. Kosmetische Änderungen helfen auch hier nicht.

Schluss

Die Jahreszahl im Titel ist nicht der Hebel. QDF ist real, aber eng. Core Updates sortieren auf Systemebene nach Qualität neu, sie bestrafen nicht spezifische Taktiken. Alte Seiten kommen ohne Bearbeitung zurück, wenn sich die SERP-Komposition verschiebt. Information Gain, nicht Frische, ist das, was die meisten Qualitäts-Rerankings für zeitlose Inhalte tatsächlich belohnen. KI-getriebene Skalierung ohne redaktionelles Urteil häuft Qualitätsschulden an, die Core Updates irgendwann einfordern.

Die Arbeit, die nach einem Core Update zu tun ist, ist die Arbeit, die immer schon die richtige war: eigene Perspektive, Tiefe, transparente Autorenschaft, sorgsame interne Verlinkung, und die Bereitschaft, einen ganzen Zyklus abzuwarten, bevor gemessen wird. Nichts davon passt in ein Zwei-Tage-Panik-Fenster. Alles davon zahlt sich über die nächsten zwei oder drei Updates aus.

Ein lokaler Crawler hilft beim operativen Teil dieser Arbeit. Wenn ein Cluster getroffen wird, wollen Sie Indexierbarkeit, Canonicals, Statuscodes und interne Verlinkungsmuster über die betroffenen Seiten in einem Durchgang sehen. Seodisias läuft lokal, ohne URL-Limit, und ist genau für diese Art Post-Update-Triage gedacht. Es ist ein Werkzeug von mehreren, und die oben beschriebene redaktionelle Arbeit zählt weit mehr als jedes Tool, doch saubere Sicht darauf, was technisch über die Website hinweg läuft, lässt Sie das Kosmetische vom Strukturellen trennen, bevor Sie mit Änderungen beginnen.