
Robots.txt od základů až po pokročilé triky
Nový průvodce začíná od úplných základů a vysvětluje, co Robots.txt vlastně je – jde o stabilní protokol s více než 30letou historií, který pomáhá řídit chování robotů na vašem webu. Google zdůrazňuje, že pokud Robots.txt nemáte, nic se neděje. Google Search Console sice zobrazí chybu 404, ale ta po 30 dnech zmizí. Pokud vám varování vadí, stačí vytvořit prázdný soubor Robots.txt a je po problému.
Co všechno s Robots.txt můžete dělat?
Díky novému průvodci se můžete naučit:
- Jak nastavit pravidla pro různé vyhledávače a boty.
- Jak blokovat konkrétní adresy, třeba PDF soubory nebo interní vyhledávací stránky.
- Jak řídit přístup jednotlivých botů a optimalizovat crawling.
- Jak využít komentáře pro lepší přehlednost.
Snadná úprava a testování
Google připomíná, že Robots.txt je jen obyčejný textový soubor, který lze editovat v běžném textovém editoru. Většina CMS systémů umožňuje jeho úpravu přímo v administraci a existují i online nástroje pro ověření správnosti syntaxe.
Pokud se chcete v Robots.txt konečně pořádně zorientovat, koukněte na aktualizovaný návod zde.