1. <var id="fe6gj"></var>

    <rp id="fe6gj"><nav id="fe6gj"></nav></rp>

    <noframes id="fe6gj"><cite id="fe6gj"></cite>

    <ins id="fe6gj"><button id="fe6gj"><p id="fe6gj"></p></button></ins>
    1. <tt id="fe6gj"><i id="fe6gj"><sub id="fe6gj"></sub></i></tt>
        始創于2000年 股票代碼:831685
        咨詢熱線:0371-60135900 注冊有禮 登錄
        • 掛牌上市企業
        • 60秒人工響應
        • 99.99%連通率
        • 7*24h人工
        • 故障100倍補償
        您的位置: 網站首頁 > 幫助中心>文章內容

        SEO基礎篇:robots寫法

        發布時間:  2012/9/14 12:34:38
         那個解釋robots寫法的東西是什么?求解答 謝謝。相信很多新手剛接觸SEO時都會產生這樣的一些疑問如:什么是robots.txt文件?robots文件應該什么寫?robots.txt文件在SEO優化中有什么作用呢?.....

        SEO

            今天上海瀟然孤雁飛就和大家一些來溫習一下SEO基礎知識:robots.txt文件的寫法。

            1. robots.txt的定義

            robots.txt只是一個協議,而不是一個命令。robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。

         當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。

            百度官方建議,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立robots.txt文件。

           2. robots.txt存放的位置

           robots.txt必須放置在你網站空間的根目錄下,而且文件名必須全部小寫。

             例如 路徑如下:  http://www.xlfseo.com/robots.txt

            3. robots.txt文件在SEO中作用

         搜索引擎通過一種爬蟲spider程序(又稱搜索蜘蛛、robot、搜索機器人等),自動搜集互聯網上的網頁并獲取相關信息。

         鑒于網絡安全與隱私的考慮,搜索引擎遵循robots.txt協議。通過根目錄中創建的純文本文件robots.txt,網站可以聲明不想被robots訪問的部分。每個網站都可以自主控制網站是否愿意被搜索引擎收錄,或者指定搜索引擎只收錄指定的內容。當一個搜索引擎的爬蟲訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果該文件不存在,那么爬蟲就沿著鏈接抓取,如果存在,爬蟲就會按照該文件中的內容來確定訪問的范圍。

         我們在進行網站優化的時候,如新站剛上線網站內容暫末完善或者一些錯誤的文章,或機密的文件如會員信息,產品報價等,不想讓搜索引擎抓取,這就需要設置robots文件把一些內容屏敝告訴搜索引擎不要抓取那些隱私。

            4. robots.txt文件的寫法

          語法:最簡單的 robots.txt 文件使用兩條規則:
        · User-Agent: 適用下列規則的漫游器
        · Disallow: 要攔截的網頁

          User-agent: *                      這里的*代表的所有的搜索引擎種類,*是一個通配符
        Disallow: /admin/               這里定義是禁止爬尋admin目錄下面的目錄
        Disallow: /require/              這里定義是禁止爬尋require目錄下面的目錄
        Disallow: /ABC/                   這里定義是禁止爬尋ABC目錄下面的目錄
        Disallow: /cgi-bin/*.htm     禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。
        Disallow: /*?*                      禁止訪問網站中所有的動態頁面
        Disallow: /.jpg$                   禁止抓取網頁所有的.jpg格式的圖片
        Disallow:/ab/adc.html       禁止爬取ab文件夾下面的adc.html文件。
        Allow: /cgi-bin/                 這里定義是允許爬尋cgi-bin目錄下面的目錄
        Allow: /tmp                          這里定義是允許爬尋tmp的整個目錄
        Allow: .htm$                       僅允許訪問以".htm"為后綴的URL。
        Allow: .gif$                         允許抓取網頁和gif格式圖片

           5. robots.txt書寫典型案例

            1). 淘寶網屏蔽百度

            2008年9月8日淘寶網正式向百度宣戰:淘寶網將屏蔽百度的搜索引擎抓取,這是國內首家大型商業網站公開宣稱屏蔽搜索引擎的信息抓取。淘寶網新聞發言人盧先生對《第一財經日報》表示,淘寶是完全屏蔽百度,但只屏蔽谷歌很小一部分。“淘寶一直以來,都會對搜索引擎實施不同程度的屏蔽,以保護用戶信息、商品信息等商業數據,對百度如此,對谷歌也一樣。”

        淘寶網的 robots.txt文件書寫格式

            淘寶網的 robots.txt文件書寫格式:

          User-agent: Baiduspider
        Disallow: /
        User-agent: baiduspider
        Disallow: /

         

            2. seowhy搜外 robots.txt文件書寫格式:


            User-agent: *
            Disallow: /plus/
            Disallow: /inclu
            Disallow: /temple
            Disallow: /bbs/?
            Disallow: /ed
            Disallow: /tupian/
            Disallow: /www
            Disallow: /yinpin/
            Disallow: /bbs2/
            Disallow: /zancu
            Disallow: /zili
            Disallow: /uplo
            Disallow: /images/
            Disallow: /imgs/
            Disallow: /sns/
            Disallow: /pdf/
            Disallow: /wiki
            Disallow: /blog
            Disallow: /rencai
            Disallow: /faq
            Disallow: /wikizx.php
            Disallow: /wikimy.php
            Disallow: /wikiwd.php
            Disallow: /show.php
            Disallow: /bbs/dnfourm.php?
            Disallow: /news/seowhy.ph
            Disallow: /course/gov.ph
            Disallow: /course/av.ph
            Disallow: /special/seowhy.ph

        robots檢測

            5. robots.txt書寫注意事項

         1) robots文件中的內容的大小寫不可更改,Disallow后面的冒號必須為英文狀態的。

         2).你希望網站上所有的文件都需要被蜘蛛抓取,如果沒有添加robots.txt文件了, 搜索蜘蛛將默認能夠訪問網站上所有沒有被口令保護的頁面。

            3).網站中的腳本程序、樣式表等文件即使被蜘蛛收錄,也不會增加網站的收錄率,還只會占用服務器存儲空間。因此必須在robots.txt文件里設置不要讓搜索蜘蛛索引腳本程序、樣式表等文件,具體哪些文件需要排除。

            4).合理使用robots.txt文件還能避免訪問時出錯。比如,不能讓搜索者直接進入購物車頁面。因為沒有理由使購物車被收錄,所以你可以在robots.txt文件里設置來阻止搜索者直接進入購物車頁面。

           5).如果你的網站是動態網頁,并且你為這些動態網頁創建了靜態副本,以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件里設置避免動態網頁被蜘蛛索引,以保證這些網頁不會被視為含重復內容。

            6).每當用戶試圖訪問某個不存在的URL時,服務器都會在日志中記錄404錯誤(無法找到文件)。每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器也將在日志中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt。

            6.robots.txt生成工具

            一些新手SEO如果對于以上的內容還有一些疑問,瀟然孤雁飛在為大家分享一款傻瓜化的生成Robots.txt工具,在線直接生成。

         robots.txt生成工具


        本文出自:億恩科技【www.endtimedelusion.com】

        服務器租用/服務器托管中國五強!虛擬主機域名注冊頂級提供商!15年品質保障!--億恩科技[ENKJ.COM]

      1. 您可能在找
      2. 億恩北京公司:
      3. 經營性ICP/ISP證:京B2-20150015
      4. 億恩鄭州公司:
      5. 經營性ICP/ISP/IDC證:豫B1.B2-20060070
      6. 億恩南昌公司:
      7. 經營性ICP/ISP證:贛B2-20080012
      8. 服務器/云主機 24小時售后服務電話:0371-60135900
      9. 虛擬主機/智能建站 24小時售后服務電話:0371-60135900
      10. 專注服務器托管17年
        掃掃關注-微信公眾號
        0371-60135900
        Copyright© 1999-2019 ENKJ All Rights Reserved 億恩科技 版權所有  地址:鄭州市高新區翠竹街1號總部企業基地億恩大廈  法律顧問:河南亞太人律師事務所郝建鋒、杜慧月律師   京公網安備41019702002023號
          0
         
         
         
         

        0371-60135900
        7*24小時客服服務熱線

         
         
        av不卡不卡在线观看_最近2018年中文字幕_亚洲欧美一区二区三区_一级A爱做片免费观看国产_日韩在线中文天天更新_伊人中文无码在线