﻿
<script type="text" id="tmpl_box_what" icon="help" title="是什么">
<p>
    当一个搜索蜘蛛访问一个站点时，它会首先检查该站点根目录下是否存在robots.txt，如果存在，搜索机器人就会按照该文件中的内容来确定访问的范围；如果该文件不存在，所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。</p>
</script>

<script type="text" id="tmpl_box_why" icon="help" title="为什么">
<ol>
	<li>
		当搜索蜘蛛来寻找并不存在的robots.txt文件时，服务器将在日志中记录一条404错误</li>
	<li>
		够避免将所有程序文件被蜘蛛索引，可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有：后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。</li>
	<li>
		可以避免蜘蛛索引重复内容。</li>
    <li>
        还可以直接包括在sitemap文件的链接</li>
</ol>
</script>

<script type="text" id="tmpl_box_how" icon="information" title="怎么做">
<ol>
    <li>
        不论您是否希望搜索引擎将网站上的所有内容编入索引，都需要在网站根目录里放置robots.txt文件</li>
    <li>
        参照robots.txt完成robos.txt的书写 (格式可从右侧提示中找到)</li>
	<li>
		在robots.txt里包含sitemap的链接: "Sitemap: http://www.sample.com/sitemap.xml"</li>
</ol>
</script>

<script type="text" id="tmpl_box_tip" icon="lightbulb" title="提示">
<div>
    TianvCms包含已经优化过的robots.txt文件，无需手动处理</div>
<div>&nbsp;</div>
<div>
    辅助链接：</div>
<ul>
    <li>
        robots.txt文件用法举例：<a href="http://baike.baidu.com/view/1280732.htm#3_4" target="_blank">点这里</a></li>
</ul>
</script>

<script type="text/javascript">
    (function () {
        var obj = {
            tag: {
                "current": 1,
                "items": [
                    { "href": "Remote/Seo/Site/", "title": "系统优化" },
                    { "href": "Remote/Seo/Site/Robots.html", "title": "robots.txt" }
                ]
            }
        };

        Views.Page.Text(obj);

    })();
</script>