黑帽seo排名軟件-黑帽seo程序論壇

網(wǎng)站存在大量404死鏈接,而又不主動去刪除,長期下去搜索引擎就會降低對該站點的信任度,導(dǎo)致該站點被降權(quán),下面黑帽百科來給大家分享網(wǎng)站404鏈接是如何產(chǎn)生的,對網(wǎng)站有哪些影響?網(wǎng)站404鏈接該如何解決才不會導(dǎo)致網(wǎng)站被搜索引擎降權(quán)。

1、死鏈接對于網(wǎng)站來說是避免不了的,但如果死鏈接過多,會影響搜索引擎對于網(wǎng)站的評分;
2、搜索引擎每天對于每個站點的抓取頻次是有限制的,如果站點死鏈接太多,是會流費掉搜索蜘蛛每天抓取配額的,還會影響正常頁面的抓取。
3、太多有404死鏈接對于用戶來說,體驗也是不好的。
1、網(wǎng)站內(nèi)部錯誤鏈接
由于網(wǎng)站編輯或程序員的大意,導(dǎo)致網(wǎng)站產(chǎn)生不存在的鏈接頁面。
2、網(wǎng)站短暫無法訪問
由于網(wǎng)站程序、空間或服務(wù)器的問題,導(dǎo)致網(wǎng)站產(chǎn)生大量以5開頭的錯誤狀態(tài)碼頁面。
3、外部鏈接錯誤
用戶或站長自己在站外發(fā)布了錯誤鏈接頁面,搜索蜘蛛在抓取了這些頁面后產(chǎn)生了404錯誤頁面,別人采集復(fù)制了你站點含有錯誤鏈接的頁面,還有就是有些垃圾站點自動生成靜態(tài)頁面搜索結(jié)果,這些都會導(dǎo)致網(wǎng)站產(chǎn)生404錯誤頁面。
4、抓取了不完整URL鏈接
有些搜索蜘蛛在抓取網(wǎng)站URL鏈接時,只抓取部分URL鏈接或者將正常URL鏈接后面的文字也抓取進(jìn)去了。
5、網(wǎng)站改版
在網(wǎng)站改版過程中,將老頁面刪除后未做301跳轉(zhuǎn)到對應(yīng)頁面,或者在做了301跳轉(zhuǎn)后,部分老頁面仍然無法正常訪問。
6、管理員刪除頁面
站長刪除被黑、廣告、過時、灌水頁面時,未做301跳轉(zhuǎn),導(dǎo)致網(wǎng)站產(chǎn)生了大量死鏈接。
7、下架過期商品頁面
電商網(wǎng)站平臺,下架過期商品信息產(chǎn)生的404死鏈接。
1、修復(fù)錯誤頁面
由于網(wǎng)站編輯或程序員的大意產(chǎn)生的錯誤頁面,此種情況,我們要及時對程序進(jìn)行修復(fù),來保證本應(yīng)該是正常的頁面恢復(fù)訪問。
2、提交死鏈接
網(wǎng)站404錯誤鏈接頁面URL地址該如何獲取?黑帽百科給大家分享以下三種方法:
(1) 使用百度站長工具,點擊數(shù)據(jù)統(tǒng)計中的“抓取異常-找不到的頁面”,復(fù)制下面的所有鏈接地址,這就是近段時間我們網(wǎng)站的404死鏈接,此處鏈接不需要我們另外向百度提交了,百度已經(jīng)自動幫我們提交了;
(2) 在刪除網(wǎng)站頁面時,手動保存好被刪除的頁面URL地址;
(3) 使用爬蟲軟件,例如Xenu,爬取網(wǎng)站中所有鏈接地址獲取死鏈接。
通過HTTP狀態(tài)碼來批量篩選網(wǎng)站所有鏈接中的404死鏈接,排除非404狀態(tài)碼的頁面。
整理好所有404狀態(tài)碼的鏈接頁面,將保存為一個TXT格式的文件文件,將此文本文件上傳至網(wǎng)站根目錄中,再將此文本文檔提交給百度站長平臺。如何將死鏈接提交給百度,可參考《如何將404死鏈接提交給百度》這篇文章。
3、在robots中屏蔽抓取
如果你的網(wǎng)站存在大量404死鏈接,而且還具有一定的規(guī)律,那么你可以在robots文件中寫一個規(guī)則禁止蜘蛛抓取此類鏈接,前提是不要把正常頁面給誤傷了,例如你的網(wǎng)站全部是html靜態(tài)頁面,如果錯誤頁面鏈接中含有?的話,robots文件規(guī)則可以寫成Disallow:/*?*,如果錯誤頁面鏈接中含有/id…h(huán)tml,則robots規(guī)則可以寫成Disallow:/*…* 。
robots文件規(guī)則創(chuàng)建完成后,再去百度站長平臺robots工具校驗一下,將封禁的錯誤頁面放進(jìn)去,看看是否封禁成功了,再將正常的頁面放進(jìn)去,看看是否被誤封了。
1、在向百度站長平臺提交網(wǎng)站404死鏈接之前,一定要先確保這個鏈接是否是活鏈接,否則將將無法成功提交,導(dǎo)致死鏈接無法刪除。
2、由于某些網(wǎng)站程序問題,導(dǎo)致網(wǎng)站很多打不開的頁面狀態(tài)碼并不是404,這種問題對于用戶體驗是極不友好的,例如有些頁面明明打不開,但返回碼卻是301、200、500,這種問題建議大家盡快處理好。
3、找到網(wǎng)站所有404錯誤頁面后找到相同特征,與正常頁面進(jìn)行區(qū)分,寫成一個robots文件規(guī)則禁止搜索蜘蛛抓取,就算提交了死鏈接,也建議robots封禁此類頁面。
4、robots規(guī)則只能讓蜘蛛不再抓取此類頁面,不能刪除已經(jīng)收錄的頁面快照,如果你的網(wǎng)站有些頁面被黑,而且這些頁面還被刪除了,我們除了要將這些頁面進(jìn)行robots封禁外,還需要向百度搜索提交死鏈接,這也是刪除被黑頁面快照的最快辦法。
來源:黑帽工具網(wǎng)(/QQ號:25496334),轉(zhuǎn)載請保留出處和鏈接!
本文鏈接:http://m.sugarbabysoaps.com/fuzhuruanjian/1683.html
本站內(nèi)容來源于合作伙伴及網(wǎng)絡(luò)搜集,版權(quán)歸原作者所有。如有侵犯版權(quán),請立刻和本站聯(lián)系,我們將在三個工作日內(nèi)予以改正。
Copyright ?黑帽軟件網(wǎng) All Rights Reserved.
網(wǎng)站地圖 | 蜘蛛池出租 | 黑帽百科 百科論壇
Copyright Your 黑帽工具網(wǎng).Some Rights Reserved.