亚洲国产精品第一区二区_操操操av_国产欧美日本_成人在线影视_一区二区中文字幕_国产精品二区一区

您當前的位置主頁 > SEO優化 > 瀏覽文章

搜索優化:robots的寫法

來源:SEO優化 2012-06-07

快速提升網站銷量,使用365webcall免費在線客服

robots的寫作在網站中起著非常重要的作用,她代表著能否被所有的搜索引擎抓取,在百度上有一個好的排名。下面我們一起來看一下關于robots的一些知識。

1. 什么是robots.txt文件?

搜索引擎使用spider程序自動訪問互聯網上的網頁并獲取網頁信息。spider在訪問一個網站時,會首先會檢查該網站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網站上的抓取范圍。您可以在您的網站中創建一個robots.txt,在文件中聲明 該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。

2.常見蜘蛛形態

User-Agent:定義搜索引擎的類型· Disallow: 定義禁止搜索引擎收錄的地址 · Allow: 定義允許搜索引擎收錄的地址

案例:允許所有的蜘蛛抓取所有的頁面

User-agent: *Allow:/ /或者根目錄下放置robots.txt空文件

百度的蜘蛛形態

Baiduspider+(+$

Disallow: /

例10. 禁止訪問網站中所有的動態頁面

User-agent: *

Disallow: /*?*

例11. 禁止Baiduspider抓取網站上所有圖片

僅允許抓取網頁,禁止抓取任何圖片。

User-agent: Baiduspider

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.gif$

Disallow: /*.png$

Disallow: /*.bmp$

例12. 僅允許Baiduspider抓取網頁和.gif格式圖片

允許抓取網頁和gif格式圖片,不允許抓取其他格式圖片

User-agent: Baiduspider

Allow: /*.gif$

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.png$

Disallow: /*.bmp$

例13. 僅禁止Baiduspider抓取.jpg格式圖片

User-agent: Baiduspider

Disallow: /*.jpg$

文章編輯: 365webcall在線客服系統(www.365webcall.com)

我的評論

登錄賬號: 密碼: 快速注冊 | 找回密碼

主站蜘蛛池模板: 日韩一级精品视频在线观看 | 97香蕉久久国产超碰青草软件 | 亚州av | 日韩精品极品视频在线 | 欧美日韩国产成人 | 999在线观看精品免费不卡网站 | 久草青青| 欧美日韩国产高清视频 | 国产精品免费视频观看 | 亚洲免费电影一区 | 亚洲乱码在线 | 国产成人毛片 | 综合97| 成人性大片免费观看网站 | 国产探花在线看 | 国产成人高清精品免费5388 | www.成人| 精品人伦一区二区三区蜜桃视频 | 亚洲精品乱码久久久久久金桔影视 | 成人国产在线观看 | 日本在线精品视频 | 精品一区二区久久久久久久网站 | 天天澡天天狠天天天做 | 欧美激情一区二区三级高清视频 | 91精品国产色综合久久不卡98口 | 国产精品一区二区三区四区 | 中文字幕在线观看第一页 | 欧美日一区二区 | 日本激情视频在线观看 | 久久久久久1 | 国产精品久久 | 亚洲三级视频 | 天堂精品一区二区三区 | 亚洲欧美中文日韩在线v日本 | 欧美大片免费看 | 成人一级 | 久久不射电影网 | 日本精品在线观看 | 三级网站 | 亚洲国产一区二区三区在线观看 | 无毒黄网 |