Technische SEO: Wie man in der Google-Suche auf die erste Seite kommt

Ein Platz auf der ersten Seite der Google-Suchergebnisse ist von entscheidender Bedeutung. Nutzer betrachten heutzutage nur noch selten mehr als die erste Seite der Suchmaschinenergebnisse (SERP). Daher sind nur die Webseiten sichtbar, die aus der Masse der Suchergebnisse herausstechen. Selbst über bezahlte Werbung in Suchmaschinen (SEA) ist dies immer schwieriger zu erreichen.

Doch glücklicherweise ist bezahlte SEA nicht die einzige Option. Unternehmen können durch Suchmaschinenoptimierung (SEO) ihrer Webseiten und ihres Contents auch ohne Werbung eine hohe Platzierung in der organischen Suche erreichen. Sind alle vier kritischen Säulen der SEO gut gepflegt und optimiert, steigt die Relevanz einer Website und ihres Contents automatisch. Google belohnt dies mit einem entsprechenden Ranking. In dieser Serie zum Thema „Wie man in der Google-Suche auf die erste Seite kommt“ erklären wir in vier Schritten, wie Du Deine Inhalte entsprechend optimieren kannst. Wir beginnen mit technischer SEO. Befolgst Du alle vier Artikel, hast Du die besten Voraussetzungen geschaffen, dass Dein Content in der organischen Suche eine optimale Platzierung erzielt:

Wir beziehen uns in unseren Artikeln häufig auf Google. Dennoch gelten die beschriebenen allgemeinen Grundsätze auch für andere Suchmaschinen.

Was ist technische SEO?

Technische SEO bezieht sich auf die technische Optimierung von Websiten-Architektur, Struktur, Content und mehr, um Suchmaschinen und Webseite-Nutzern auf dreierlei Weise zu helfen.

  1. Crawlability: Stelle sicher, dass Deine Webseite von Suchmaschinen gelesen werden kann
  2. Indexierbarkeit: Richte Deine Seiten und Deinen Content so ein, damit sie logisch und effektiv indexiert werden und in den Suchmaschinen erscheinen
  3. Seitenperformance: Hier geht es um die technischen Details, die dazu beitragen, dass Deine Webseite die Nutzer anspricht, bindet und im Idealfall auch konvertiert. Zu den kritischen Faktoren gehören die Geschwindigkeit der Seite und der Website, die Reaktionsfähigkeit und andere Faktoren, die zu einer positiven Benutzererfahrung (UX) beitragen.

Die technische Suchmaschinenoptimierung sind die Grundlage für die Seite-1-Platzierungen.

Wie Du die technische SEO Deiner Webseite verbessern kannst

Der Bereich der technischen SEO ist umfangreich und kompliziert, denn zahlreiche Faktoren spielen eine entscheidende Rolle. Berücksichtigst Du bei Gestaltung, Entwicklung und Verwaltung Deiner Webseite die wichtigsten Elemente, kannst Du Deine Platzierung verbessern und Deine Wettbewerbsfähigkeit im Internet steigern.

Starte mit den folgenden grundlegenden Punkten. Sie sind von entscheidender Bedeutung, um die technische SEO Deiner gesamten Website zu verbessern.

1. Überprüfe und verbessere die Geschwindigkeit Deiner Seiten und Websites

Die Geschwindigkeit, mit der eine Webseite oder eine Seite eine bestimmte Funktion ausführt – vom Laden des Contents bis zur Reaktion auf eine vom Benutzer initiierte Interaktion – beeinflusst das Benutzererlebnis: Im Guten wie im Schlechten.

Mit Analysetools wie den Core Web Vitals (CWV) können Webmaster Probleme anhand wichtiger Leistungsindikatoren und -kennzahlen erkennen und diagnostizieren. Die Metriken von CWV umfassen:

  1. First Input Delay (FID): Der FID analysiert die Zeitverzögerung zwischen der Interaktion eines Nutzers mit einer Seite und der entsprechenden Antwort der Seite. Laut Google wird Interaction to Next Paint (INP) FID im März 2024 ablösen. Um ein gutes Nutzererlebnis zu gewährleisten, sollte eine Seite einen FID von weniger als 100 Millisekunden aufweisen.
  2. Largest Contentful Paint (LCP): LCP analysiert die Ladegeschwindigkeit des größten inhaltlichen Elements. Für eine gute User Experience achte auf eine Ladegeschwindigkeit von weniger als 2,5 Sekunden.
  3. Cumulative Layout Shift (CLS): CLS analysiert die visuelle Stabilität der Elemente auf dem Bildschirm. Du solltest eine CLS von nicht mehr als 0,1 Sekunden erreichen.

Signale für ein gutes Seitenerlebnis sieht Google in einer Kombination der Core Web Vitals mit anderen Suchsignalen, darunter Mobilfreundlichkeit, sicheres Surfen, HTTPS-Sicherheit sowie Richtlinien für störende Werbeeinblendungen.

Diese und andere Ranking-Faktoren können innerhalb der Google Search Console analysiert werden, um aufzuzeigen, welche URLs potenzielle Probleme bereiten. Wir verwenden CWV, um unsere One-Click-Analyse mit integrierten Empfehlungen innerhalb der Rellify Article Intelligence Application zu unterstützen. Zu den Tipps zur Optimierung der Website-Geschwindigkeit gehören:

  • Setze das „Lazy Loading“ für unkritische Bilder um
  • Optimiere die Bildformate für den Browser
  • Verbessere das JavaScript-Ergebnis

2. Crawle Deine Webseite, um Crawl-Fehler zu erkennen und zu beheben

Crawl-Fehler sind zwar weit verbreitet und vermeidbar, werden aber häufig übersehen und können sich negativ auf die Suchmaschinenoptimierung auswirken. Sie treten auf, wenn eine Suchmaschine versucht, eine Seite auf einer Webseite zu erreichen, dies jedoch nicht gelingt. Ist eine Seite nicht erreichbar, kann sie auch nicht indexiert werden.

Crawl-Fehler können aus verschiedenen Gründen auftreten. Bleiben Sie unentdeckt, kann dies Traffic und Umsatz kosten.

Zum Glück ist es einfach, Problemen zuvorzukommen. Crawle einfach regelmäßig Deine Seiten und suche nach Fehlern. Hierfür gibt es eine Reihe von kostenlosen SEO-Tools. Diese Analysetools sind auch in der Search Console-Plattform von Google enthalten.

Bei der Untersuchung und Behebung von Crawl-Fehlern solltest Du Folgendes beachten:

  • Untersuche alle Seiten mit Fehlercodes 4XX und 5XX, um herauszufinden, wohin sie umgeleitet werden sollen
  • Analysiere Redirect-Ketten oder -Schleifen, bei denen URLs mehrfach auf eine andere URL umgelenkt werden
  • Setze alle Umleitungen korrekt um, indem Du 301 (permanente) Umleitungen verwendest

3. Korrigiere fehlerhafte interne und externe Links

Eine schlechte Linkstruktur führt sowohl für Menschen als auch für Suchmaschinen zu einem schlechten Nutzererlebnis. Es ist frustrierend, wenn man auf einen Link klickt und feststellt, dass er zu einer falschen oder nicht existierenden Seite führt. Sie kann jedoch auch zu Funktionsstörungen bei Robotern führen, die versuchen, Deine Website zu crawlen und zu indexieren. Beide Szenarien unterminieren Deine SEO-Bemühungen.

Das Konzept gilt sowohl für interne Links (Links zwischen Deinen eigenen Webseiten) als auch für externe Links (Links zwischen Deiner Webseite und anderen Websiten). Achte auf die folgenden Faktoren und darauf, wie sie die gesamte Linkstruktur Deiner Website entweder verbessern oder verschlechtern können:

  • Links, die über 301 oder 302 auf eine andere Seite umgeleitet werden
  • Links, die zu 404ern oder anderen Fehlerseiten führen
  • Verwaiste Seiten (Seiten, auf die überhaupt nicht verlinkt wird)
  • Eine interne Linkstruktur, die zu tief ist

Um defekte Links zu beheben, aktualisiere entweder die Ziel-URL oder entferne den Link, wenn die Zielseite nicht mehr existiert.

Analysetools können Dir helfen, andere Webseiten zu finden, die externe Links zu Deinen Seiten enthalten. Wenn Du einen solchen Link benötigst, wende Dich an das entsprechende Unternehmen und bitte um Behebung oder Entfernung.

4. Vermeide doppelten Content

Überprüfe Deine Webseite regelmäßig auf doppelten Content, der aus verschiedenen Gründen entstehen kann. Beispielsweise durch abgelegte oder kopierte Inhalte oder durch das Reproduzieren von Seiten aus der Navigation, sollten mehrere Versionen der Website online sein.

Im Folgenden erfährst Du, wie Du Probleme mit doppeltem Content korrigieren oder verhindern kannst:

  • Falls möglich, lösche oder überarbeite doppelte Inhalte
  • Verwende noindex- oder canonical-tags, um festzulegen, welche verbleibenden doppelten Seiten ignoriert, bzw. priorisiert werden sollen
  • Richte 301-Weiterleitungen zur Primärseite einer bestimmten URL ein. Ist die bevorzugte Version beispielsweise https://www.abc.com, sollten die anderen Versionen dieser Seite auf diese Version umgeleitet werden
  • Richte die Parameterbehandlung in der Google Search Console ein

5. Stelle Deine Webseite auf das HTTPS-Protokoll um

Hypertext Transfer Protocol Secure (HTTPS), die sichere Version von HTTP, hat sich zu einem technischen SEO-Rankingfaktor entwickelt. HTTPS schützt die Daten Deiner Besucher beim Austausch zwischen ihrem Webbrowser und Deiner Webseite. Das Protokoll verwendet die SSL-Technologie (Secure Sockets Layer), um sicherzustellen, dass sensible Informationen verschlüsselt werden, um Hackerangriffe oder Datenverluste zu verhindern.

Nichts kann die Datensicherheit im Internet vollständig garantieren, da Cyberkriminelle in ihrem zerstörerischen Streben unerbittlich sind. Wenn Deine Webseite jedoch immer noch auf HTTP basiert, setzt Du Dich und Deine Besucher möglicherweise einem unnötigen Risiko aus.

6. Stelle sicher, dass Ihre URLs eine saubere Struktur haben

Google sagt: „Die URL-Struktur einer Webseite sollte so einfach wie möglich sein.“

Zu komplizierte URLs können den Crawlern Probleme bereiten, da sie eine unnötig hohe Anzahl von URLs erzeugen, die auf identische oder ähnliche Inhalte auf Deiner  Website verweisen. Dies kann verhindern, dass Suchroboter den gesamten Content Deiner Website vollständig indexieren. Das Problem kann folgende Ursachen haben:

  • Sortierparameter: Einige große Shopping-Websites bieten mehrere Möglichkeiten, dieselben Artikel zu sortieren, was zu einer viel höheren Anzahl von URLs führt. Zum Beispiel: http://www.example.com/results?search_type=search_videos&search_query=tpb&search_sort=relevance&search_category=25
  • Irrelevante Parameter: Zum Beispiel Referenzparameter: http://www.example.com/search/noheaders?click=6EE2BF1AF6A3D705D5561B7C3564D9C2&clickPage=OPD+Produkt+Seite&cat=79

Bereinige und verkürze nach Möglichkeit Deine URLs, indem Du unnötige Parameter entfernst.

7. Stelle sicher, dass Deine Webseite eine optimierte XML-Sitemap hat

Sitemaps sind Dateien, die Webmaster erstellen und übermitteln können, um Suchmaschinen mitzuteilen, welche Webseiten sie für die Suchergebnisse gecrawlt und indexiert haben möchten.

Beachte jedoch, dass Sitemaps den Suchmaschinen zwar das Auffinden und die Indexierung von Content erleichtern, aber weder eine Indexierung garantieren noch das Ranking direkt beeinflussen. Suchmaschinen verwenden komplizierte Algorithmen, um zu bestimmen, welche Seiten indexiert werden und wie sie eingestuft werden. Eine Sitemap ist eines von vielen Signalen, die sie verwenden, um die Struktur und den Content einer Website zu verstehen, und stellt lediglich eine Empfehlung dar.

Das XML-Sitemap-Format ist der vielseitigste Typ und ermöglicht erweiterte Informationen über Deinen Content. Für jede Seite kannst Du z. B. angeben, wann die Seite zuletzt aktualisiert wurde, wie oft sie sich ändert und wie wichtig sie hinsichtlich anderer Seiten auf Deiner Website ist. Wenn sie gut gemacht ist, hilft eine XML-Sitemap den Suchmaschinen, eine Webseite erfolgreicher und intelligenter zu crawlen.

Eine optimierte XML-Sitemap sollte Folgendes enthalten:

  • Die absolute URL für jede Seite
  • Alle neuen Inhalte, die zu einer Webseite hinzugefügt wurden (neue Blogbeiträge, Produkte, usw.)
  • Nur Seiten, die einen HTTP 200 Response Code Status zurückgeben
  • Nicht mehr als 50.000 URLs/Seiten. Für Webseiten mit mehr Seiten solltest Du mehrere XML-Sitemaps erstellen

Was eine XML-Sitemap nicht enthalten sollte:

  • URLs mit Parametern
  • URLs, die auf umgeleitete Seiten verweisen oder solche mit canonical- oder noindex-tags
  • Seiten, die einen 4XX- oder 5xx-Code zurückgeben
  • Seiten, die doppelten Content enthalten

Überprüfe den Indexabdeckungsbericht in der Google Search Console, um bestehende Indexierungsfehler hinsichtlich Deiner XML-Sitemap zu identifizieren und zu beheben.

8. Optimiere Deine robots.txt-Datei für angemessenen Zugriff, Crawling und Indexierung

Robots.txt-Dateien enthalten bestimmte Anweisungen für Googlebots und andere Suchmaschinenroboter, wie sie Deine Webseite crawlen sollen. Alles, was bei der Suche gefunden werden soll, sollte ihnen zur Indexierung leicht zugänglich gemacht werden.

Nimm den Speicherort Deiner XML-Sitemap in Deine robots.txt-Datei auf und stelle sicher, dass Deine robots.txt-Datei keine Seiten blockiert, die von der Öffentlichkeit gefunden werden sollen.

Seiten, die durch die robots.txt-Datei blockiert sind, werden von Suchmaschinen-Crawlern in der Regel nicht gefunden und daher auch nicht indexiert, um in den Suchergebnissen zu erscheinen. Viele Webseiten blockieren absichtlich den Zugriff auf bestimmte Seiten und Dateien, um zu verhindern, dass sie öffentlich sichtbar werden. Beispiele dafür sind:

  • Temporäre Dateien
  • Einkaufswagen und Kassenseiten
  • Passwortgeschützte Seiten
  • Admin-Seiten
  • URLs, die Parameter enthalten
  • Seiten, die aus anderen Gründen verborgen oder privat bleiben sollen

Nutze den robots.txt-Tester von Google, um zu prüfen, ob Deine Datei korrekt funktioniert.

9. Füge strukturierte Daten oder ein Schema-Markup hinzu

Strukturierte Daten helfen, Informationen über eine Seite und ihren Content bereitzustellen. Sie geben Google einen Zusammenhang über die Bedeutung einer Seite und helfen, Deine organischen Einträge in den Suchergebnissen hervorzuheben. Eine der gebräuchlichsten Arten von strukturierten Daten ist das Schema-Markup (Schemaauszeichnung).

Es gibt viele verschiedene Arten von Schema-Markup für die Strukturierung von Daten über Personen, Orte, Organisationen, lokale Unternehmen, Bewertungen und mehr. Google hält einige kostenlose Tools bereit, um die strukturierten Daten Deiner Website zu testen und ein Schema-Markup zu erstellen.

10. Integriere responsives Design

Die Mobile-First Indexierung ist ein wichtiger Ranking-Faktor, daher sollte die Mobilfreundlichkeit als ein kritischer Aspekt der technischen SEO betrachtet werden.

Mobilfreundliche Websites setzen auf responsives Design, um Besuchern, die von verschiedenen mobilen Geräten auf Ihre Webseite zugreifen, eine individuellere und verbesserte UX zu bieten. Es berücksichtigt dieselben Leistungselemente, die auch für die Optimierung von Webseiten für die Nutzung von Desktop- und Laptop-Computern gelten, unterscheidet sich jedoch in bestimmten Punkten. Mit den Core Web Vitals-Kennzahlen Deiner Webseite erhältst Du wichtige Einblicke in das Ergebnis einer mobilfreundlichen Website.

Über technische SEO hinaus: die Bedeutung von hochwertigem Content und Traffic

Ein Platz auf der ersten Seite der Google-Suchergebnisse ist eine beachtliche Leistung. Und technische SEO ist die Grundlage, die es Suchmaschinen ermöglicht, Deine Webseite und deren Content zu crawlen, zu indexieren und zu verstehen, um dieses Ziel zu erreichen.

Aber das ist nur ein Teil der Gleichung für Deinen Online-Erfolg. Ein hohes Ranking kann neue Besucher anlocken, aber nicht jeder neuer Besucher ist ein qualitativ hochwertiger Besucher.

Qualitativ hochwertiger Traffic bezieht sich auf Besucher, die wirklich an Deinen Produkten, Dienstleistungen oder Inhalten interessiert sind und eher bereit sind, sich mit Deiner Website zu beschäftigen und die gewünschten Aktionen durchzuführen. Ob Du in der Lage bist, hochwertigen Traffic zu generieren und zu halten, hängt nicht nur von Deiner technischen SEO ab, sondern auch von der Qualität Deines Contents.

Die Qualität des Contents bezieht sich auf seinen Wert, seine Relevanz und darauf, wie gut er aus der Sicht Deiner Zielgruppe ankommt. Tatsächlich ist dies ein entscheidender Ranking-Faktor, der von Googles Helpful Content System bestimmt wird – und Content belohnt, der eine zufriedenstellende UX bietet.

Letztendlich beeinflusst die Qualität Deines Contents Dein Ranking, Deinen Traffic und die Fähigkeit Deiner Website, Besucher in Kunden zu umzuwandeln. Selbst mit perfekter technischer SEO wird schlechter Content nicht gut ranken. Kontaktiere Rellify noch heute, um zu erfahren, wie wir menschliche Branchenkompetenz und KI kombinieren, um die Qualität Deines Contents zu optimieren.

Nächster Halt: Domain-Autorität

Im nächsten Artikel unserer vierteiligen Serie zum Thema Page-One-Ranking erfährst Du, wie Du Domain-Autorität nachweisen und aufbauen kannst, um die Relevanz und Glaubwürdigkeit Deiner Website zu erhöhen.

About the author

Daniël Duke Chefredakteur, Amerika

Dan Dukes umfangreiche Erfahrung in der redaktionellen Welt, darunter 27 Jahre bei The Virginian-Pilot, der größten Tageszeitung Virginias, hilft Rellify, erstklassige Inhalte für unsere Kunden zu produzieren.

Er hat preisgekrönte Artikel und Projekte geschrieben und redigiert, die Bereiche wie Technologie, Wirtschaft, Gesundheitswesen, Unterhaltung, Lebensmittel, Militär, Bildung, Regierung und Spot News abdecken. Er hat unter Termindruck gearbeitet und über Ereignisse wie die Explosion des Space Shuttle Challenger, die Wahl von Barak Obama, die Tötung von Osama Bin Laden, die Landungen von Hurrikanen und – in leichterer Form – die Wahl des besten Schokokekses in Hampton Roads berichtet. Außerdem hat er mehrere Bücher herausgegeben, sowohl Belletristik als auch Sachbücher.

Seine Erfahrung im Journalismus hilft ihm dabei, lebendige, ansprechende Artikel zu verfassen, die das jeweilige Thema auf den Punkt bringen. Und seine SEO-Erfahrung hilft ihm, die KI-Tools von Rellify optimal zu nutzen und dafür zu sorgen, dass die Artikel die spezifischen Informationen und Formulierungen enthalten, die jeder Kunde braucht, um seine Zielgruppe zu erreichen und in der Online-Suche gut zu ranken.

Dans Führungsqualitäten haben dazu beigetragen, dass wir sowohl mit unseren Kunden als auch mit unseren Redakteuren gute Beziehungen aufbauen konnten.