black

Python程序设计

登录

填空题

网站通过一个文件()来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

【参考答案】

robots.txt

相关考题

填空题 现在网站会采取一些()措施来阻止网络爬虫的不当爬取行为。

填空题 待下载网页集合就是()URL 列队中的网页,这些网页即将被爬虫下载。

填空题 robots.txt文件必须放置在一个站点的()目录下,且文件名必须小写。

All Rights Reserved 版权所有©考试题库网(kstiku.com)

备案号:湘ICP备14005140号-3

经营许可证号:湘B2-20140064