自考题库
首页
所有科目
自考历年真题
考试分类
关于本站
游客
账号设置
退出登录
注册
登录
搜索
Robots.txt文件是搜索引擎抓取网站第一个需要查看的文件,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。在www.domain.com中,如禁止所有搜索引擎程序抓取www.domain.com/A下所有内容,Robots文件应如何设置?()
A:"User-agent:*Disallow:/A"
B:"User-agent:Allow:/A"
C:"User-agent:Disallow:/"
D:"User-agent:*Allow:/"
出自:
百度SEM认证
显示答案
提示:
同一【IP】的非会员用户每天可免费获取10次答案
收藏本站【zk.995w.com】,下次访问不迷路
本站试题总数:【10245629】个 (题库试题定时更新)