天津網(wǎng)站建設(shè)/天津網(wǎng)站優(yōu)化/網(wǎng)站robots文件改怎么寫

閱讀 ?·? 發(fā)布日期 2019-03-17 16:41 ?·? admin

天津網(wǎng)站建設(shè)/天津網(wǎng)站優(yōu)化/網(wǎng)站robots文件改怎么寫

 

  對(duì)于大部分做seo優(yōu)化的兄弟來說,肯定都知道robots文件。今天天津SEO就跟大家聊一聊網(wǎng)站的robots文件的寫法:
  robots文件是歸于網(wǎng)站的一個(gè)協(xié)議文件,對(duì)網(wǎng)站跟搜索引擎之間的一份協(xié)議,大部分搜索引擎都會(huì)遵守這份robot文件的內(nèi)容,它就好比是咱們?nèi)ヒ粋€(gè)旅游景點(diǎn),在每個(gè)景點(diǎn)的入口處,都會(huì)有一份游客須知的公告,跟咱們說清楚,景區(qū)內(nèi)哪些地方能夠去,哪些地方制止去。
  這份網(wǎng)站協(xié)議也同樣具有這么的效果,它告訴來到咱們網(wǎng)站的蜘蛛,哪些頁面能夠抓取,哪些頁面是制止抓取的。這么對(duì)咱們做seo優(yōu)化來說對(duì)錯(cuò)常有協(xié)助的,能夠讓咱們不需要參與排行的頁面不讓蜘蛛去抓取,要點(diǎn)去抓取那些咱們需要用來做排行的頁面。
  robots文件的寫法非常簡(jiǎn)單,可是要使用好它,卻不是一件容易的事情。
  一、它包含三個(gè)指令值
  1、user-agent: 這個(gè)代表用戶署理(定義搜索引擎),例如針對(duì)baidu搜索引擎的規(guī)矩,能夠?qū)懗桑簎ser-agent: baiduspider
  2、Disallow:制止(填寫制止蜘蛛抓取的途徑地址)
  3、Allow:答應(yīng)(填寫答應(yīng)蜘蛛抓取的途徑地址)
  二、兩個(gè)通配符
  1、* 匹配數(shù)字0-9以及字母a-z多個(gè)任意字符
  2、$ 匹配行結(jié)束符(針對(duì)帶各種后綴的文件) 例如:jpg$、png$
  三、一個(gè)簡(jiǎn)單的robots文件寫法的比如
  user-agent: baiduspider
  Disallow:
  sitemap: http://www.jxdseo.com/sitemap.xml
  這個(gè)就是答應(yīng)蜘蛛抓取網(wǎng)站的一切內(nèi)容,一般建議剛做網(wǎng)站的菜鳥兄弟寫一個(gè)這么的robots文件上傳到根目錄即可。等熟悉網(wǎng)站的構(gòu)造之后,再根據(jù)自己的需要進(jìn)行修改。
  最后一句sitemap是放置網(wǎng)站地圖的連接地址,如果不會(huì)制造網(wǎng)站地圖的兄弟能夠參考:網(wǎng)站地圖的制造。
  以上就是對(duì)于網(wǎng)站的robots文件的寫法,盡管它寫法簡(jiǎn)單,可是要把它徹底用好,還需要好好琢磨。