Technisches SEO Grundlagen für bessere Google-Rankings
Technisches SEO 8 Min. Lesezeit

Technisches SEO: Grundlagen für bessere Google-Rankings

Technisches SEO ist die Basis jeder Suchmaschinenoptimierung. Crawling, Indexierung, Sitemaps, robots.txt, Ladezeiten und HTTPS — erklärt für Hallesches KMU.

Arnold Wender

Arnold Wender

SEO-Experte & Gründer

Inhaltsverzeichnis

Technisches SEO ist das Fundament, auf dem alle anderen SEO-Maßnahmen aufbauen. Wenn Google Ihre Website nicht richtig crawlen oder indexieren kann, helfen auch die besten Texte und Backlinks nichts.

Was ist technisches SEO?

Technisches SEO bezeichnet alle Optimierungen, die Google das Crawlen, Verstehen und Indexieren Ihrer Website erleichtern. Es geht nicht um Inhalte oder Backlinks — es geht darum, dass die technische Infrastruktur Ihrer Website SEO-kompatibel ist.

Die drei technischen Grundfragen:

  1. Kann Google Ihre Seiten finden (Crawling)?
  2. Kann Google Ihre Seiten indexieren?
  3. Kann Google Ihre Seiten verstehen und korrekt bewerten?

Crawling: Wie Google Ihre Seite findet

Crawler und Crawl-Budget

Google sendet seinen Crawler (Googlebot) aus, um Websites zu besuchen. Bei jungen oder kleineren Domains ist das Crawl-Budget begrenzt — Google crawlt nur eine bestimmte Anzahl Seiten pro Tag.

Crawl-Budget schonen:

  • Thin Content oder doppelte Seiten per noindex ausschließen
  • robots.txt für irrelevante Bereiche nutzen (Admin, interne Suche)
  • Interne Links auf wichtige Seiten konzentrieren

robots.txt

Die Datei robots.txt (erreichbar unter ihre-domain.de/robots.txt) gibt Google Anweisungen, welche Bereiche nicht gecrawlt werden sollen.

User-agent: *
Disallow: /admin/
Disallow: /intern/
Disallow: /suche?
Allow: /

Sitemap: https://seo-halle.com/sitemap-index.xml

Wichtig: Disallow verhindert Crawling, aber nicht unbedingt Indexierung. Wenn viele andere Sites auf eine blockierte URL verlinken, kann Google sie trotzdem indexieren (ohne Inhalt). Für echten Ausschluss: noindex Meta-Tag.

Sitemap.xml

Die Sitemap ist eine Auflistung aller Seiten, die Google indexieren soll. Sie beschleunigt das Crawling neuer und aktualisierter Seiten.

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <url>
    <loc>https://seo-halle.com/</loc>
    <lastmod>2026-03-01</lastmod>
    <changefreq>monthly</changefreq>
    <priority>1.0</priority>
  </url>
</urlset>

Best Practices:

  • Nur indexierbare Seiten in der Sitemap
  • Keine noindex-Seiten, keine 301-Weiterleitungen
  • Sitemap in der robots.txt referenzieren
  • Bei mehr als 50.000 URLs: Sitemap-Index mit mehreren Teil-Sitemaps

Indexierung: Welche Seiten in Google erscheinen

Meta Robots

Der noindex Meta-Tag verhindert die Indexierung einer Seite:

<meta name="robots" content="noindex, nofollow" />

Seiten die noindex benötigen:

  • Danke-Seiten nach Formular-Absendung
  • Interne Suchergebnisseiten
  • Staging/Test-Umgebungen
  • Doppelte Inhalte (Druckversionen, Parameter-Varianten)

Empfohlener Standard für indexierbare Seiten:

<meta name="robots" content="index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1" />

Canonical-Tags

Canonical-Tags bestimmen die bevorzugte URL wenn mehrere Varianten einer Seite existieren:

<link rel="canonical" href="https://seo-halle.com/leistungen/seo-beratung/" />

Wichtig bei:

  • URL-Parametern (?sort=preis&filter=alle)
  • HTTP/HTTPS und www/non-www Varianten
  • Syndiziertem Content (gleicher Inhalt auf mehreren Seiten)

HTTPS: Pflicht, kein Bonus

Google bewertet HTTPS seit 2014 als Rankingfaktor. 2026 ist eine Website ohne HTTPS ein technisches SEO-Problem und ein Vertrauensproblem.

Prüfen Sie:

  • Ist Ihre Seite unter https:// erreichbar?
  • Gibt es einen 301-Redirect von HTTP auf HTTPS?
  • Wird die www-Variante korrekt auf die Hauptdomain weitergeleitet?
  • Ist das SSL-Zertifikat gueltig (nicht abgelaufen)?

Häufiger Fehler: Gemischte Inhalte (Mixed Content). Die Seite ist HTTPS, aber interne Bilder oder Scripts werden noch via HTTP eingebunden. Browser blockieren das — Google bewertet es negativ.


Seitenstruktur und interne Verlinkung

URL-Struktur

Gute URLs sind kurz, lesbar und enthalten das Hauptkeyword:

SchlechtGut
/page?id=123&cat=42/leistungen/seo-beratung/
/leistungen/keyword-recherche-halle-saale-2026//leistungen/keyword-recherche/
/leistungen-1/leistungen-seo/seite//leistungen/seo/

Regeln:

  • Kleinbuchstaben mit Bindestrichen
  • Keyword im Pfad (natürlich)
  • Maximale Tiefe: 3-4 Ebenen
  • Keine langen Parameter-Ketten

Interne Links verteilen Link-Equity (Rankingkraft) durch Ihre Website. Wichtige Seiten sollten von vielen anderen Seiten verlinkt werden.

Gute interne Verlinkung:

  • Relevanter Ankertext (nicht “hier klicken”)
  • Wichtige Seiten von Homepage und Hauptnavigation erreichbar
  • Blog-Artikel verlinken auf relevante Leistungsseiten
  • Keine Orphan Pages (Seiten ohne eingehende interne Links)

Ladezeiten und Core Web Vitals

Google nutzt Core Web Vitals als Rankingfaktor. Diese Metriken messen, wie gut Ihre Seite für Nutzer performt:

MetrikWas sie misstZielwert
LCP (Largest Contentful Paint)Ladezeit des größten sichtbaren Elementsunter 2,5 Sek.
INP (Interaction to Next Paint)Reaktionszeit auf Nutzerinteraktionunter 200ms
CLS (Cumulative Layout Shift)Unerwartete Layout-Verschiebungenunter 0,1

Typische Probleme und Lösungen:

ProblemLösung
Grosse, unoptimierte BilderWebP/AVIF, korrekte Größen, lazy loading
Render-blocking JavaScriptdefer oder async Attribute
Keine KomprimierungGZIP/Brotli beim Hosting aktivieren
Langsames HostingSchnelleres Paket oder CDN
Grosse CSS-DateienUnused CSS entfernen (PurgeCSS)

Strukturierte Daten

Schema-Markup (JSON-LD) hilft Google, den Inhalt Ihrer Seiten besser zu verstehen und ermöglicht Rich Results in den Suchergebnissen.

Für Hallenser KMU besonders relevant:

  • LocalBusiness — Öffnungszeiten, Adresse, Telefon in der Knowledge Box
  • FAQPage — Fragen klappbar direkt in den Suchergebnissen
  • BreadcrumbList — Navigationspfad statt roher URL

Mehr dazu im Artikel Schema Markup: Strukturierte Daten erklärt.


Technisches SEO prüfen — Tools

ToolZweckKosten
Google Search ConsoleIndexierungsfehler, Core Web VitalsKostenlos
PageSpeed InsightsPerformance-Analyse (Field + Lab Data)Kostenlos
Screaming FrogVollstaendiger Site-CrawlKostenlos bis 500 URLs
GTmetrixDetaillierte Ladezeit-AnalyseKostenlos (Basic)
SSL LabsSSL-Zertifikat prüfenKostenlos

Häufige Fragen zu technischem SEO

Wie lange dauert es, bis technische Fixes wirken?

Nach dem Crawling und der Indexierung durch Google zeigen Fixes in der Regel 2–8 Wochen Wirkung in den Rankings. Technische Fehler die das Crawling komplett blockieren, wirken dagegen sofort negativ — und die Behebung braucht genauso lang, bis Google die korrigierte Version gecrawlt hat.

Brauche ich einen Entwickler für technisches SEO?

Für einfache Fixes (Meta-Tags, Canonical, Sitemap einreichen) nein. Für tiefere Eingriffe (Redirect-Ketten, Ladezeit-Optimierung, Structured Data) ist technisches Verständnis oder externe Hilfe sinnvoll.

Wie häufig sollte ich technisches SEO prüfen?

Monatlicher Quick-Check per Google Search Console (Indexierungsfehler, Core Web Vitals) reicht für die meisten KMU. Nach größeren Website-Änderungen sofort prüfen.


Fazit

Technisches SEO ist kein einmaliges Projekt — es ist laufende Wartung. Die Grundlagen (HTTPS, Sitemap, robots.txt, saubere URLs, schnelle Ladezeiten) muss jede Website erfullen. Ohne sie baut alle weitere SEO-Arbeit auf wackeligem Fundament.

Haben Sie technische SEO-Probleme auf Ihrer Website? Kostenlose SEO-Analyse anfragen — wir crawlen Ihre Website und identifizieren alle technischen Baustellen.

Arnold Wender, SEO-Experte

SEO-Experte & Gründer

Arnold Wender ist Gründer und Geschäftsführer der SEO-Agentur Halle (Saale). Mit über 18 Jahren Erfahrung in der Suchmaschinenoptimierung hilft er Unternehmen, ihre Online-Sichtbarkeit nachhaltig zu verbessern.

Profil anzeigen