# robots.txt pra evitar que os robots (ou wanderers, ou spiders) # intenten ler o protexido (pra que non xeren erros inutilmente). User-agent: * Disallow: /vida /usados