2016-04-03 00:04发布
禁止自己的网站被爬虫爬去?有什么方法啊
加入robots.txt,告诉爬虫希望不要爬取我的网站,但是并不会强制禁止,这只是一个约定,需要双方都去遵守。
最多设置5个标签!
加入robots.txt,告诉爬虫希望不要爬取我的网站,但是并不会强制禁止,这只是一个约定,需要双方都去遵守。
一周热门 更多>