Slovník tvorby webů a online marketingových pojmů

Crawl error

Co je crawl error?

Crawl error (chyba při procházení) je problém, který vyhledávací robot (například Googlebot) narazí při pokusu o procházení a indexování stránek na vašem webu. Tyto chyby mohou bránit vyhledávačům v přístupu k obsahu na vašem webu, což může negativně ovlivnit jeho viditelnost a hodnocení ve výsledcích vyhledávání.

Typy crawl errors:

Site errors (chyby na úrovni webu):

  • DNS errors: Tyto chyby znamenají, že robot nemůže najít server vašeho webu. Může to být způsobeno problémem s DNS nastavením nebo dočasným výpadkem serveru.
  • Server errors: Zahrnují problémy jako chyby 5xx (např. 500 Internal Server Error), které naznačují, že server není schopen zpracovat požadavek robotu.
  • Robots.txt fetch errors: Nastávají, když robot nemůže načíst soubor robots.txt, což může způsobit, že robot bude blokován nebo bude mít omezený přístup k obsahu.

URL errors (chyby na úrovni URL):

  • 404 Not Found: Stránka nebyla nalezena. To může být způsobeno neexistujícími nebo odstraněnými stránkami, nesprávnými odkazy nebo překlepy v URL.
  • 403 Forbidden: Přístup na stránku je zakázán, obvykle kvůli nastavením oprávnění nebo omezením přístupu.
  • 500 Internal Server Error: Indikuje, že server narazil na neočekávanou podmínku, která mu brání dokončit požadavek.
  • Soft 404 errors: Nastávají, když server vrátí úspěšný stavový kód (200), ale obsahuje zprávu o nenalezení stránky. To může zmást vyhledávače a bránit správné indexaci.

Jak řešit crawl errors:

  • Pravidelná kontrola: Používejte nástroje jako Google Search Console nebo Bing Webmaster Tools pro pravidelné monitorování chyb při procházení a získávání podrobných informací o nalezených chybách.
  • Oprava nefunkčních odkazů: Identifikujte a opravte nefunkční odkazy, které vedou na stránky s chybami 404 nebo 403. Přesměrování (301 redirects) může být použito pro odstraněné stránky, aby se zajistilo, že návštěvníci i roboti budou přesměrováni na relevantní obsah.
  • Optimalizace serveru: Ujistěte se, že váš server má dostatečnou kapacitu pro zvládnutí návštěvnosti a pravidelně kontrolujte jeho výkon, aby se minimalizovaly chyby 5xx.
  • Správné nastavení robots.txt: Ujistěte se, že váš soubor robots.txt je správně nakonfigurován, aby neblokoval důležitý obsah a byl přístupný vyhledávacím robotům.
  • Aktualizace a údržba: Pravidelně aktualizujte obsah a odkazy na vašem webu a odstraňujte nebo opravujte zastaralé nebo neplatné stránky.

Řešení crawl errors je klíčové pro udržení dobré viditelnosti vašeho webu ve vyhledávačích a zajištění, že všechny důležité stránky jsou správně indexovány. Tím se zlepšuje uživatelská zkušenost a podporuje lepší hodnocení ve vyhledávačích.