Un archivo robots.txt instruye a los rastreadores qué rutas pueden acceder (Disallow: /private). El scraping ético significa verificar este archivo antes de descargar páginas. Cuando esté permitido, rote IPs a través de Proxied para cumplir con las directivas de crawl-delay por IP mientras recopila datos permitidos de manera eficiente.