Inhaltsverzeichnis
- 1. Was ist technisches SEO?
- 2. Crawling: Wie Google Ihre Seite findet
- 3. Indexierung: Welche Seiten in Google erscheinen
- 4. HTTPS: Pflicht, kein Bonus
- 5. Seitenstruktur und interne Verlinkung
- 6. Ladezeiten und Core Web Vitals
- 7. Strukturierte Daten
- 8. Technisches SEO prüfen — Tools
- 9. Häufige Fragen zu technischem SEO
- 10. Fazit
Technisches SEO ist das Fundament, auf dem alle anderen SEO-Maßnahmen aufbauen. Wenn Google Ihre Website nicht richtig crawlen oder indexieren kann, helfen auch die besten Texte und Backlinks nichts.
Was ist technisches SEO?
Technisches SEO bezeichnet alle Optimierungen, die Google das Crawlen, Verstehen und Indexieren Ihrer Website erleichtern. Es geht nicht um Inhalte oder Backlinks — es geht darum, dass die technische Infrastruktur Ihrer Website SEO-kompatibel ist.
Die drei technischen Grundfragen:
- Kann Google Ihre Seiten finden (Crawling)?
- Kann Google Ihre Seiten indexieren?
- Kann Google Ihre Seiten verstehen und korrekt bewerten?
Crawling: Wie Google Ihre Seite findet
Crawler und Crawl-Budget
Google sendet seinen Crawler (Googlebot) aus, um Websites zu besuchen. Bei jungen oder kleineren Domains ist das Crawl-Budget begrenzt — Google crawlt nur eine bestimmte Anzahl Seiten pro Tag.
Crawl-Budget schonen:
- Thin Content oder doppelte Seiten per
noindexausschließen - robots.txt für irrelevante Bereiche nutzen (Admin, interne Suche)
- Interne Links auf wichtige Seiten konzentrieren
robots.txt
Die Datei robots.txt (erreichbar unter ihre-domain.de/robots.txt) gibt Google Anweisungen, welche Bereiche nicht gecrawlt werden sollen.
User-agent: *
Disallow: /admin/
Disallow: /intern/
Disallow: /suche?
Allow: /
Sitemap: https://seo-halle.com/sitemap-index.xml
Wichtig: Disallow verhindert Crawling, aber nicht unbedingt Indexierung. Wenn viele andere Sites auf eine blockierte URL verlinken, kann Google sie trotzdem indexieren (ohne Inhalt). Für echten Ausschluss: noindex Meta-Tag.
Sitemap.xml
Die Sitemap ist eine Auflistung aller Seiten, die Google indexieren soll. Sie beschleunigt das Crawling neuer und aktualisierter Seiten.
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://seo-halle.com/</loc>
<lastmod>2026-03-01</lastmod>
<changefreq>monthly</changefreq>
<priority>1.0</priority>
</url>
</urlset>
Best Practices:
- Nur indexierbare Seiten in der Sitemap
- Keine noindex-Seiten, keine 301-Weiterleitungen
- Sitemap in der robots.txt referenzieren
- Bei mehr als 50.000 URLs: Sitemap-Index mit mehreren Teil-Sitemaps
Indexierung: Welche Seiten in Google erscheinen
Meta Robots
Der noindex Meta-Tag verhindert die Indexierung einer Seite:
<meta name="robots" content="noindex, nofollow" />
Seiten die noindex benötigen:
- Danke-Seiten nach Formular-Absendung
- Interne Suchergebnisseiten
- Staging/Test-Umgebungen
- Doppelte Inhalte (Druckversionen, Parameter-Varianten)
Empfohlener Standard für indexierbare Seiten:
<meta name="robots" content="index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1" />
Canonical-Tags
Canonical-Tags bestimmen die bevorzugte URL wenn mehrere Varianten einer Seite existieren:
<link rel="canonical" href="https://seo-halle.com/leistungen/seo-beratung/" />
Wichtig bei:
- URL-Parametern (
?sort=preis&filter=alle) - HTTP/HTTPS und www/non-www Varianten
- Syndiziertem Content (gleicher Inhalt auf mehreren Seiten)
HTTPS: Pflicht, kein Bonus
Google bewertet HTTPS seit 2014 als Rankingfaktor. 2026 ist eine Website ohne HTTPS ein technisches SEO-Problem und ein Vertrauensproblem.
Prüfen Sie:
- Ist Ihre Seite unter
https://erreichbar? - Gibt es einen 301-Redirect von HTTP auf HTTPS?
- Wird die www-Variante korrekt auf die Hauptdomain weitergeleitet?
- Ist das SSL-Zertifikat gueltig (nicht abgelaufen)?
Häufiger Fehler: Gemischte Inhalte (Mixed Content). Die Seite ist HTTPS, aber interne Bilder oder Scripts werden noch via HTTP eingebunden. Browser blockieren das — Google bewertet es negativ.
Seitenstruktur und interne Verlinkung
URL-Struktur
Gute URLs sind kurz, lesbar und enthalten das Hauptkeyword:
| Schlecht | Gut |
|---|---|
/page?id=123&cat=42 | /leistungen/seo-beratung/ |
/leistungen/keyword-recherche-halle-saale-2026/ | /leistungen/keyword-recherche/ |
/leistungen-1/leistungen-seo/seite/ | /leistungen/seo/ |
Regeln:
- Kleinbuchstaben mit Bindestrichen
- Keyword im Pfad (natürlich)
- Maximale Tiefe: 3-4 Ebenen
- Keine langen Parameter-Ketten
Interne Links
Interne Links verteilen Link-Equity (Rankingkraft) durch Ihre Website. Wichtige Seiten sollten von vielen anderen Seiten verlinkt werden.
Gute interne Verlinkung:
- Relevanter Ankertext (nicht “hier klicken”)
- Wichtige Seiten von Homepage und Hauptnavigation erreichbar
- Blog-Artikel verlinken auf relevante Leistungsseiten
- Keine Orphan Pages (Seiten ohne eingehende interne Links)
Ladezeiten und Core Web Vitals
Google nutzt Core Web Vitals als Rankingfaktor. Diese Metriken messen, wie gut Ihre Seite für Nutzer performt:
| Metrik | Was sie misst | Zielwert |
|---|---|---|
| LCP (Largest Contentful Paint) | Ladezeit des größten sichtbaren Elements | unter 2,5 Sek. |
| INP (Interaction to Next Paint) | Reaktionszeit auf Nutzerinteraktion | unter 200ms |
| CLS (Cumulative Layout Shift) | Unerwartete Layout-Verschiebungen | unter 0,1 |
Typische Probleme und Lösungen:
| Problem | Lösung |
|---|---|
| Grosse, unoptimierte Bilder | WebP/AVIF, korrekte Größen, lazy loading |
| Render-blocking JavaScript | defer oder async Attribute |
| Keine Komprimierung | GZIP/Brotli beim Hosting aktivieren |
| Langsames Hosting | Schnelleres Paket oder CDN |
| Grosse CSS-Dateien | Unused CSS entfernen (PurgeCSS) |
Strukturierte Daten
Schema-Markup (JSON-LD) hilft Google, den Inhalt Ihrer Seiten besser zu verstehen und ermöglicht Rich Results in den Suchergebnissen.
Für Hallenser KMU besonders relevant:
- LocalBusiness — Öffnungszeiten, Adresse, Telefon in der Knowledge Box
- FAQPage — Fragen klappbar direkt in den Suchergebnissen
- BreadcrumbList — Navigationspfad statt roher URL
Mehr dazu im Artikel Schema Markup: Strukturierte Daten erklärt.
Technisches SEO prüfen — Tools
| Tool | Zweck | Kosten |
|---|---|---|
| Google Search Console | Indexierungsfehler, Core Web Vitals | Kostenlos |
| PageSpeed Insights | Performance-Analyse (Field + Lab Data) | Kostenlos |
| Screaming Frog | Vollstaendiger Site-Crawl | Kostenlos bis 500 URLs |
| GTmetrix | Detaillierte Ladezeit-Analyse | Kostenlos (Basic) |
| SSL Labs | SSL-Zertifikat prüfen | Kostenlos |
Häufige Fragen zu technischem SEO
Wie lange dauert es, bis technische Fixes wirken?
Nach dem Crawling und der Indexierung durch Google zeigen Fixes in der Regel 2–8 Wochen Wirkung in den Rankings. Technische Fehler die das Crawling komplett blockieren, wirken dagegen sofort negativ — und die Behebung braucht genauso lang, bis Google die korrigierte Version gecrawlt hat.
Brauche ich einen Entwickler für technisches SEO?
Für einfache Fixes (Meta-Tags, Canonical, Sitemap einreichen) nein. Für tiefere Eingriffe (Redirect-Ketten, Ladezeit-Optimierung, Structured Data) ist technisches Verständnis oder externe Hilfe sinnvoll.
Wie häufig sollte ich technisches SEO prüfen?
Monatlicher Quick-Check per Google Search Console (Indexierungsfehler, Core Web Vitals) reicht für die meisten KMU. Nach größeren Website-Änderungen sofort prüfen.
Fazit
Technisches SEO ist kein einmaliges Projekt — es ist laufende Wartung. Die Grundlagen (HTTPS, Sitemap, robots.txt, saubere URLs, schnelle Ladezeiten) muss jede Website erfullen. Ohne sie baut alle weitere SEO-Arbeit auf wackeligem Fundament.
Haben Sie technische SEO-Probleme auf Ihrer Website? Kostenlose SEO-Analyse anfragen — wir crawlen Ihre Website und identifizieren alle technischen Baustellen.