寫在前頭
全文14323字,大約需要30分鐘左右。
如題,應邀寫一篇關于B2B官網SEO優(yōu)化文章,內容核心是圍繞B2B官網常見優(yōu)化內容進行總結,分上篇、中篇、下篇。這是上篇,主要圍繞SEO基礎能力做介紹。您若不棄,也可照貓畫虎,逐一核對自家站點進行自查。
本文不一定能幫助你成為SEO大佬,但不管你是SEO老炮還是SEO新手,它在一定程度上能助你更深入了解SEO具體要做些什么,也能讓其他人更清楚了解你的角色定位。
當然,也不指望你能一次性消化所有內容,畢竟有些實施項目是要調用你所儲備的技術能力模塊,比如:爬蟲原理、前端(Div+css)、Js/Php、Python、Linux及服務器運維能力要求等。于我而言,這才是一名合格的SEO工程師該有的樣子,當然,我不是唯技術論,但為什么要這么強調,因為日常工作中這直接關乎到與你相關的上下游,舉個例子,突然有一天發(fā)現(xiàn)網站打不開,排除一些客觀原因(如斷網等),更多的還是需要你通過多方排查找出問題所在,“是不是服務器宕機、域名解析失效、網站是不是被打了”等等,這些細節(jié)都需要建立在有一定的技術知識儲備,不能什么事情都直接扔給開發(fā)或者運維,試想你公司沒有這樣的人員怎么辦呢,所以面對技術問題是你的常規(guī)課題,你若不具備處理能力,那至少需要具備描述問題的能力,否則你會顯得很無助,用現(xiàn)在的話說,你會很拉垮。
誠然,文中某些細分知識點也不可能通過一篇文章就能講透,再加上我的解讀水平也有限(畢竟不是科班人士),因此只做了一個簡單普適版的,具體會按照目錄順序一一詳解,文中若有講述不正確的,歡迎大家批評指正!最后,衷心希望能為大家提供不同的視角來理解這個行業(yè)和工種,有必要或者感興趣的,可以加下方微信私聊!
飛優(yōu)網主理人 Rapheal Lau
9年數(shù)字營銷Adtech背景,專注B2B領域網站建設、SEO/SEM(搜索引擎營銷)、數(shù)字營銷體系建設與落地執(zhí)行。最佳實踐:官網1個月上權2,實現(xiàn)ROI達1000%的效果,純白帽手法。
先看看以前負責的案子,這是一個底子比較好的企業(yè)站,接手時PV20萬不到,經過10個月的時間,全年實現(xiàn)527758pv,翻一番。(流量雖然不是特別大,但是整體的線索精準度不錯)
因此,我將歷年來負責的優(yōu)化項目進行總結,整理出一份2022年官網SEO優(yōu)化必備清單,希望對大家有幫助。
文章目錄上篇:SEO基礎+技術SEO中篇:關鍵詞研究+頁面SEO+內容建設下篇:鏈接建設
附:2022年B2B官網優(yōu)化落地執(zhí)行清單↓↓↓
看到如此之冗長清單,心中不禁一顫,究竟該如何利用SEO優(yōu)化指南指導日常的官網運營工作?來,走著!
SEO基礎
設置站長工具
將百度/谷歌較為常用的站長工具配置在你的網站中,國內SEO優(yōu)化一般是以百度為主,海外或者Google SEO可以考慮Google Webmaster Tool,也就是Google Search Console。關于安裝代碼可以直接百度,以Google Search Console安裝舉例,具體有兩種方法可以安裝:
Google站長工具安裝為例
方法一:通過域名解析實現(xiàn)
方法二:提交網站前綴資源文件上傳根目錄
另一種方式驗證只需要將網址協(xié)議與域名填好,在后臺下載一個帶有追蹤參數(shù)的鏈接上傳到網站根目錄,這個最為便捷(推薦此法) 。
Tips:安裝Google Search Console 需要搭梯子,否則不會驗證成功。
百度站長工具安裝圖片步驟
點擊查看更多百度站長工具安裝詳細教程。
其他的站長工具安裝方法同理,百度和谷歌兩個工具是可以相互補充使用的,這為后面進行站內優(yōu)化索引量覆蓋檢測是有明顯優(yōu)勢的。
以上兩種站長工具安裝完后需要再進一步進行百度統(tǒng)計+Google Analystics工具安裝,步驟類似,也是需要將異步代碼安裝到網站首頁標簽之前,詳細教程可以度娘一下。
集成SEO功能
假如你的網站是通過開源程序制作的,比如:wp、dede、z-blog、dzx等,那可以通過第三方插件庫進行插件下載安裝,以WP為例,比較好用的是Yoast SEO插件,該插件功能比較強大,常見的能修改TDK及創(chuàng)建相關推薦等內鏈結構設置。
Yoast SEO儀表盤
當然,以上是基于第三方開源程序安裝的,有些企業(yè)是定制網站(區(qū)別于開源程序,委托第三方或自己的技術部門開發(fā)搭建),這種情形就需要SEO工程師與開發(fā)進行項目需求溝通,經評估后最后集成在站點里,方便SEOer在后臺進行直接自定義編寫,切記要開發(fā)寫一個了可視化的配置頁面,不要開發(fā)者直接在源碼進行改寫,這樣是不明智的做法。
創(chuàng)建Robots.txt文件
3.1 何謂Robtots協(xié)議?
Robots協(xié)議是爬蟲與網站之間的一種明文規(guī)則,它能告訴爬蟲哪些是能夠抓取訪問,哪些是禁止抓取訪問的,當然這是一種理想狀態(tài),但是也有極個別的爬蟲不一定會遵守協(xié)議規(guī)則。
在日常SEO優(yōu)化工作中如何查詢一個站點有沒有設置Robots.txt協(xié)議?
很簡單,你只需要在目標網站上輸入
https://你的域名/robots.txt
即可,你會看到如下內容:
Robots文件在很大程度上都不會被待見,尤其是在開發(fā)者眼里,他們覺得沒什么作用,相反還會帶來負面,為什么?因為容易被黑客盯上,通過禁止訪問的文件夾和信息,黑客會找出程序bug攻擊(尤其是開源程序,因為代碼是公開的,很容易找出漏洞),這樣會導致你的站點損失慘重,以上圖為例,不難發(fā)現(xiàn)該網站是用wordpress搭建,通過Disallow信息可以看出禁止爬蟲訪問后臺,插件目錄,動態(tài)鏈接、astra鉤子(這可能是主題下的目錄)、重定向鏈接地址目錄,假如別有用心的人看上了會根據這些提示信息一步步測試找出漏洞,最后實現(xiàn)攻擊目的。
3.2 Robots協(xié)議有哪些好處?
首先可以告訴搜索引擎爬蟲哪些頁面可以抓取,哪些不可以抓取,有助于優(yōu)化。
比如:一個商城網站通常會有購物車頁面,實際上在SEO上毫無用途,所以可以直接告訴爬蟲進行禁止訪問,因此可以直接寫入規(guī)則:
User-agent: *//冒號前有一個空格Disallow: /cart/ //冒號前有一個空格
3.3 Robots協(xié)議如何創(chuàng)建?
創(chuàng)建robots協(xié)議之前需要認真掌握下Robots協(xié)議語法構成及書寫規(guī)則,就上述規(guī)則做個解釋說明:
User-agent //代表搜索引擎類型;* //代表所有搜索引擎類別;Disallow //禁止訪問指令;Allow //允許訪問指令;/ //代表根目錄。
舉一反三,我們不妨思考下:假如我要屏蔽百度蜘蛛訪問網站根目錄,具體該怎么寫入規(guī)則,按照上面的介紹不難寫出:
User-agent: Baiduspider
Disallow: /
3.4 Robots協(xié)議的使用場景
有一種常見情形:當網站處于線上/測試階段時,我們也可以利用robots 協(xié)議進行屏蔽告訴爬蟲禁止訪問網站,這樣便于為做好內容準備??隙ㄓ行?ldquo;刁民”會說,不在本地測試直接在線上測試這樣不會導致網站進入沙盒期嗎?這種情況會有,但是我實際操作每次都是在線上,至今沒遇到過,大家可以實際驗證下!
點擊查看關于更多百度爬蟲類型拓展閱讀
創(chuàng)建sitemap文件
4.1 Sitemap釋義
Sitemap即網站地圖,打個不恰當?shù)谋确?,sitemap好比一條河流系統(tǒng),水如同搜索引擎爬蟲,河流中不乏一些支流,這些支流形成一個巨大的網絡結構,支流結構就好比網頁結構,各條支流就好比是網頁上的具體目錄和頁面信息,爬蟲的訪問就好比水流流向各支流的行為,因此它能夠有效地告訴搜索引擎關于你的站點中的網頁、視頻或者其他文件的相關信息,幫助搜索引擎更好的認識和理解你的站點。
實踐中的sitemap內容與格式
4.2 Sitemap的編寫格式與要求
上圖是一張關于插件制作而成的sitemap文件,sitemap文件一般以sitemap.txt和sitemap.xml兩格式為主,一般后者應用較多,常見的sitemap格規(guī)范,分別舉例谷歌和百度sitemap實例說明:
谷歌 SitemapThe
http://www.example.com/
2005-01-01
monthly
0.8
百度 Sitemap
http://www.example.com/
2021-01-01
daily
1.0
基本上文件標簽一致,具體XML標簽釋義:
changefreq:頁面內容更新頻率;lastmod:頁面最后修改時間;loc:頁面永久鏈接地址;priority:相對于其他頁面的優(yōu)先權;url:相對于前4個標簽的父標簽;urlset:相對于前5個標簽的父標簽。
另外一種TXT即純文本格式,這種格式的站點地圖優(yōu)勢在于:
生成簡單,生成TXT格式的Sitemap(站點地圖)僅需注意下列事項· TXT格式的Sitemap每行都必須有一個網址。網址中不能有換行。
· TXT格式的Sitemap不應包含網址列表以外的任何信息;
· TXT格式的Sitemap必須書寫完整的網址,包括http或者https;
· 每個TXT格式的Sitemap最多可包含 50,000 個網址,并且應小于10MB(10,485,760字節(jié))。如果網站所包含的網址超過 50,000 個,則可將列表分割成多個文本文件,然后分別添加每個文件;
· TXT格式的Sitemap需使用UTF-8編碼。
通用性強,幾乎所有的搜索引擎,均支持TXT格式的Sitemap文件;
不過TXT格式的Sitemap(站點地圖)也有其自身的弊端,它僅僅能夠做到將url告知搜索引擎,而無法在Sitemap(站點地圖)中傳遞更多的信息。
4.3 其它格式的Sitemap(站點地圖)
如果你的網站是WP搭建的,可以直接在后臺插件-下載谷歌sitemap插件,這個是支持的。(如上圖插件截圖所示)。
在生成Sitemap(站點地圖)后,我們還應該確保Sitemap(站點地圖)和robots.txt 規(guī)則不要發(fā)生沖突。Robots協(xié)議文件中可以添加sitemap的靜態(tài)URL地址。
4.4 Sitemap和Robots.txt的協(xié)同
如果在Robots.txt文件中,為一個頁面使用了“noindex” 標簽,那么它就不應該出現(xiàn)在站點地圖中。
否則,搜索引擎的爬蟲會認為“這個頁面很重要,所以它被添加到站點地圖中”。但是當爬蟲去訪問這個頁面時,又被Robots.txt阻止訪問。
所以在Sitemap(站點地圖)提交的時候,一定要注意提交的內容,是否和Robots.txt有所沖突。
安裝其他第三方工具
安裝第三方工具主要是以付費統(tǒng)計工具居多,從公司經營角度上看主要考核人效。為什么這么說?一般而言,在ToB領域,官網是銜接各個流量節(jié)點的重要樞紐,不同的企業(yè)有不同的組織結構,負責該工作的配置也不可能是千篇一律,所以考慮到市場部各端口的Roi時,我們需要進一步解決渠道溯源問題,那實際上就需要掌握流量從前端-中臺-后臺,從流量到成交環(huán)節(jié),這些實際的數(shù)據是怎樣的。在日常運營工作中,我們就需要優(yōu)先去解決與相關部門或兄弟小組能夠達成一致的規(guī)范及標準。當然,我們是通過設置標簽的方式解決這個問題的,處理好這些問題后非常方便后期通過調用標簽來路找出屬于哪個渠道,當然標簽的設定需要結合實際業(yè)務,這樣有助于進行渠道精準分析,便于進行ROI核算,否則當數(shù)據量龐大起來你會一團亂麻。
假如你現(xiàn)在有精細化運營打算,那從此刻起就開始先從市場部出發(fā),以各端口為單位做建制建立一套完整的核算標準體系。
技術性SEO
網站架構設計與規(guī)劃
網站的結構與網站的轉化有一定的直接聯(lián)系,一個高轉化的網站必定會有清晰的網站結構脈絡,最直觀的感受就是前端展現(xiàn)的每一個結構都具有層次感及結構化,涇渭分明簡單明了。這些都取決于你前期方案與規(guī)劃包括哪些方面,技術開發(fā)方案選型是一個不可忽視的環(huán)節(jié),優(yōu)秀的技術開發(fā)服務商是會考慮SEO的,其他的可能就不會那么注重了,因此有些SEOer拿到這樣的網站分析后覺得很難優(yōu)化上來所以就會開始考慮改版,當然也有些主要是覺得它長得不好看。By the way,不要輕易改版,流量真的很容易受傷,所以能在前期策劃階段解決的就盡量在前期做好做全,在選型階段就要全程參與進來。我具體以改版網站舉例來說明。
改版前我們需要先明確目標,也就是為什么要做重建網站或改版?正所謂“謀定而后動”,這樣會事半功倍,假如前期沒有想好那我奉勸你最好打消這個念頭,因為最終會面臨“竹籃打水一場空”的結局。
言歸正傳,那具體該怎么落地網站架構設計和規(guī)劃?不妨參考下我的做法:
1.1 確定項目的基本目標
一般而言,在SEO領域不建議輕易改版,因為大概率都會造成權重下跌,嚴重的時候可能一下子會回到解放前,這對SEOer來說是致命的,因為需要畢其功于一役做提權的策略,這是一段苦行僧的過程。言外之意我們需要重視網站改版的目的,按常理,網站改版最常見的2個因素:提升流量獲取增長和品牌升級。
先說品牌升級
品牌升級的改版通常伴隨著是對網頁設計及視覺要求比較高,更多是強調行業(yè)的權威性及設計感官體驗上的個性化,蘋果官網是最好的詮釋,針對這類型的官網改版實則對SEO沒有多大用途,因為弱化了SEO功能,因此這里就不做詳細介紹。
提升流量獲取增長
平心而論,當一個站點遇到了流量瓶頸期,導致增長變緩,業(yè)績面臨雙重壓力時,我們可以考慮改版了,改版需要遵從數(shù)據先行原則,通過數(shù)據端找出問題所在,全面篩查網站的哪個環(huán)節(jié)導致,從數(shù)據中找到不確定性,從不確定性中找到方法。這里就可以利用前面所提及的通過統(tǒng)計工具監(jiān)控站點找到一些蛛絲馬跡,發(fā)現(xiàn)問題的癥結所在以便更好的指導改版規(guī)劃,比如:通過分析整站中首頁流向其他頁面或導流的數(shù)據比重和整站訪問最高的頁面UV/PV、上下游頁面之間的關系等等,通過細微的數(shù)據變化溯源找出哪些頁面及欄目如何調整,為便于后面給出方案我建議大家可以按照以下模板拉取具體數(shù)據表來進行分析及總結:伸手黨可以點擊原文回復關鍵詞下載模板 流量數(shù)據分析模板
通過這些細節(jié)步驟,再結合整體的日均流量數(shù)據、線索反饋數(shù)據再看前端的網站表現(xiàn)層,具體查看注冊/登錄/預約等留資頁面體驗設計,這直接關系到頁面的留資的多少,之前本人就忽略過這個方面,導致錯失一波流量,不及時處理這些都是致命的隱患。由于這個部分的內容過于精細化,也屬于數(shù)據分析的內容,這里就不做詳細闡述,后面我會在下篇中詳細介紹。
以上種種完成后梳理一個具體的改版應對優(yōu)化建議,比如:
解決產品聚焦度單一問題
建議:設置層級分類架構,層級分類架構更簡單明了,縮短訪客訪問路徑,讓優(yōu)者更優(yōu)。
解決部分頁面瀏覽量偏低問題
建議:可采取優(yōu)化形式通過優(yōu)化展現(xiàn)形式,可以布局在首頁入口更直觀。
站內檢索弱
建議:新建檢索功能,加強信息檢索能力,合理分類搜索結果及優(yōu)先級排序。
當這些前置動作處理好后即可根據思路畫出改版的結構大綱及后續(xù)原型。
1.2 畫大綱及原型
附上我的草圖大綱,這里強烈建議利用思維導圖進行網站結構梳理。
網站的欄目架構是可以隨時調整的,但是需從網站定位出發(fā),因此欄目歸類非常需要滿足邏輯和相關性。以資訊中心為例,這屬于一級目錄(父類欄目),可以設置很多子類,因此有些ToB的企業(yè)喜歡把這個欄目定義為Blog,然后將很多子類歸在父類之下,子類包含一些常見的行業(yè)資訊、文章干貨、白 皮 書、活動頻道板塊等,無所謂對錯,但是根據我的經驗判斷,這是采用了海外站點的欄目歸類法。其他的同理。
欄目的歸類解決后,最為重要的莫過于首頁的布局與設計,首頁好比網站的門面,對用戶的留存影響巨大,因此ToB的官網也肩負著既「有用」又「好看」的重任,二者需要做到統(tǒng)一。
「有用」決定了網站的里子,能從根本上解決用戶的訴求,不管是解決信息獲取還是下載需求,能夠滿足這些基本的要求這算得上合格。決定是否「有用」取決于你的頁面需要表達什么,具體是以解決什么樣的需求邏輯為前提,一般我會根據3WTD原則布局內容。通俗點說,就是要讓頁面按照這個底層邏輯自己“會說話”,以一個常規(guī)性首頁布局為參考說明,如圖:
“會說話”的頁面原型示例
這個首頁我們分了9個區(qū)塊,對應的注解如下圖所示,為什么會這么布局,這是有一定的邏輯性的,也就是我要講的3WTD布局內容模型。
首頁布局的底層邏輯原理注解
What ——“我們是干什么的”
關于What部分,通常在頁面的幻燈區(qū)去布局,優(yōu)先展示產品價值主張及公司定位,一般會用一句slogan作結,再配合相應的出彩設計,有些公司直接用產品的價值主張進行文案撰寫與物料設計,這個取決于你的推廣目標,你究竟想讓用戶了解些什么。
Who —— “我們要解決誰的問題”
解決誰的問題,主要與官網前期網站用戶定位有很大關系,從我們多年的經驗來看,訪問我們站點的無外乎以下三類人群:泛讀型用戶(跳讀為主)、專業(yè)沉浸式重度用戶(參與性,有較好的品牌認同感)、非專業(yè)型用戶(投資者、應聘者為主) 。因此在定位前期需要解決這三大類參與角色的需求,你需要設計不同的內容盡量滿足這些群體,若是要按比例來,不妨按照3:6:1的比例進行內容規(guī)劃及設計,主要還是圍繞精準用戶進行內容設計,這也是決定你未來站點是否有精準轉化的核心所在。另外,單在首頁布局中如何安排內容設計?同理,還是要圍繞解決用戶的核心需求為基準,將需求透析,通過行業(yè)報告、調研、內部訪談等手段找到需求的使用場景,將用戶進行分層,針對不同的用戶不同的使用場景進行文案描述,最后以場景化設計表現(xiàn)出來,其目的主要為引發(fā)用戶深層的共鳴,刺激用戶的需求欲望。
Why —— “我們?yōu)槭裁匆@么干”
關于why的解決思路,主要圍繞自家產品與服務核心價值來布局,從業(yè)務痛點與解決方案的角度入手盡可能從用戶的視角撰寫文案進行白話輸出,這樣便于將用戶的需求進行關聯(lián),便于轉化,在文案撰寫和策劃中切忌堆專業(yè)詞匯(因為你嗨了,用戶卻懵了),非用不可建議做下注解。
Trust ——“憑什么相信我們”
此區(qū)塊的設計原則是解決用戶的不信任感,B端產品與C端產品很大的不同點在于: C端更注重體驗,而B端著重為客戶解決問題及創(chuàng)造價值,同時也更強調抽象與邏輯,一定程度上用戶的購買決策鏈條較長,所以用戶不會因為興趣使然而產生購買行為,因此我們需要需要找準切入點,不妨利用自己的產品服務的最佳實踐進行教育,消除用戶的疑慮,讓其產生對品牌的好感,激發(fā)用戶對品牌從眾心理。除了相應的頭部案例剖析之外,還需要有一定程度上的技術獎項(有含金量的獎項)這些都在一定程度上能實現(xiàn)與用戶溝通的最小解釋成本。
Do ——“行動起來”
這是頁面布局的最后一個環(huán)節(jié),前面3個部分做好后,有需求的用戶自然而然就會主動與我們產生聯(lián)系,因此我們需要提供為用戶留資的入口,設計好轉化路徑,引導用戶最終流量那一個頁面進行閉環(huán)。往往這也是衡量一個ToB網站做得好與不好的一個標準體現(xiàn)。當然CTA的布局也不是隨意的,也有一定的規(guī)律(提高點擊),除了樣式上的豐富形態(tài)之外,更取決于你的文案煽動性,好與不好都需要進行檢驗,常見的檢驗方式就是A/B測試。
前面也提到過,符合ToB官網的既要滿足「有用」,同時也要兼顧「好看」?!负每础故墙⒃凇赣杏谩沟幕A上的擴展,屬于感受層,這并不是說設計一定要浮夸和刻意追求好看,但他一定是符合行業(yè)審美標準的,坦白講,取決于PM,沒有PM的,取決于你操刀的設計師是否具備嚴格意義的審美觀。比如:2022年Tob領域的行業(yè)設計風格是怎樣的,是3D風格、2.5D設計、還是輕擬物風格等,這些都需要設計師多觀察和多看業(yè)內經典case,若實在不清楚可以了解大廠的設計風格,其實最好的老師就是BAT,可以看看他們的官網產品設計風格,一家不足以代表趨勢,可以多看一些,若各廠商的設計風格如出一轍,這就能說明行業(yè)的整體設計風向基本定型,是可以參考的,這里扯得有點遠了,回到正題,當你的欄目的決策樹模型按上述的流程完成后,接下來就有必要開始畫原型設計了,原型設計可以根據自己對工具掌握的熟練程度進行完成,精通的推薦:Axure RP9、Adobe XD、墨刀,要(想)求(做)高(卷)點(王)的可適當畫出高保真的原型設計,不熟悉原型工具的直接用excel或Word畫一個線框圖就好,具體能夠表達出頁面的框架和布局就行。當然有能力的把原型做完后可以順便出一個原型交互釋義說明。自然我認為這是多此一舉,因為80%前端開發(fā)人員是能夠看得懂頁面的交互,除非不專業(yè)。我當初的改版原型設計做了大概15個版本,具體到35個頁面設計,現(xiàn)在回想起來原型輸出方案詳細與否取決于你Boss的理解水平。
上圖為近期改版設計的高保真原型
1.3 設計環(huán)節(jié)
原型設計好后可以安排UI/網頁設計師進行靜態(tài)頁面設計,該工作是一個細致活兒,說具體點,你前期可能需要更多次的同頻,需要與UI設計及前端開發(fā)人員講述頁面布局與設計的邏輯原理,盡可能多還原項目的背景,不然從他們的角度出發(fā),后期輸出的東西可能和你表達的完全不一樣,因此需要不斷地溝通達成共識,消化掉每個疑慮。期間肯定是少不了磕碰的,比如設計追求的美感需求犧牲部分的體驗甚至直接忽略掉SEO的布局設計等等,這些都需要磨合,除此之外你也要靈活多變,平時也多與設計人員social,這樣在一定程度上也有助于項目順利進行。
后面就是評審環(huán)節(jié),這個部分沒有什么好說的。(倒是有一些吐槽,還是忍住不說了。)
1.4 開發(fā)-交付-測試-上線環(huán)節(jié)
到了這一環(huán)節(jié),自然而然是SEOer們核心關注的部分,因為在前期策劃中引入了SEO的優(yōu)化思維,所以格外需要叮囑開發(fā)者們務必按照SEO方案進行建站,交付及測試環(huán)節(jié)可以直接查看網站的代碼進行檢驗,比如:偽靜態(tài)或純靜態(tài)鏈接設置、301重定向、404自定義錯誤頁面設置、sitemap/robots協(xié)議、鏈接層級、面包屑導航、nofollow/noindex標簽運用、頁面H1-H6設置、文章標題采用H1與否、logo title標簽添加關鍵詞、文章圖片ALT標簽、網站有無JS/iframe、圖片有無壓縮(gzip的配置)、網站的響應速度等等系列,都需要仔細測試,通過源代碼和其他的站長工具進行審計,不符合規(guī)范的就寫一個走查報告給到開發(fā)處理。關于上述這些具體細節(jié)我們在下個章節(jié)進行逐一講解。以上環(huán)節(jié)確定無誤即可安排上線(當然上線前的文案與設計審計工作是達標的前提下進行的。)
另外還一個特別重要的一點,若是改版將原有的目錄結構全部替換了,那就需要在百度后臺提交改版規(guī)則,這個目的就是為了減少前端已收錄頁面出現(xiàn)死鏈,提交改版規(guī)則能有效解決并繼承原有的排名。不懂的不要隨便操作,請將它留給開發(fā)人員。
確保網站可被爬蟲抓取
說到網頁抓取先需要了解下定義,什么是網絡爬蟲?何謂網站抓取?先引用下維 基 百 科的解釋:
網頁抓取俗稱“ Web Scraping ”,網頁抓取和網頁索引極其相似,其中網頁索引指的是大多數(shù)搜索引擎采用使用的機器人或網絡爬蟲等技術。與此相反,網頁抓取更側重于轉換網絡上非結構化數(shù)據(常見的是HTML格式)成為能在一個中央數(shù)據庫和電子表格中儲存和分析的結構化數(shù)據。網頁抓取也涉及到網絡自動化,它利用計算機軟件模擬了人的瀏覽。
——引用自w i k i p e d a
這個不好理解,說人話就是利用網頁爬蟲或者機器人(不同搜索引擎對爬蟲的稱呼,百度叫Baiduspider,谷歌叫Googlebot,它們都屬于搜索引擎里的一個模塊)從網站中提取內容和數(shù)據的過程。從搜索引擎工作原理上看,具體強調網絡爬蟲的工作流。
要說爬蟲是1,那抓取及收錄就是后面的0。大家也應該常常聽到圈內人說蜘蛛池,其實就是這個意思(先抓后收)。所以網頁抓取是開展SEO優(yōu)化工作的良好開端,沒有抓取就沒有收錄,更不可能有搜索引擎排名了,對于SEOer而言,做好網頁抓取是開展SEO工作的第一步!
自然有人會思考“那要是網頁抓取異常該怎么辦?”
百度搜索引擎針對網頁抓取異常做過明確說明,“Baiduspider無法 正常抓取網站內容,會默認判定你的網站是缺乏用戶體驗的,不會給予網站流量。"
讀到這里,大家勢必對網頁爬蟲的工作原理產生好奇,那我們再來說說搜索引擎爬蟲的工作流問題,如下圖所示:
網絡爬蟲的工作原理圖
1.首先選取一部分經分析后的種子URL;2.將這些URL放入待抓取URL隊列;3.從待抓取URL隊列中取出待抓取在URL,解析DNS,并且得到主機的ip,并將URL對應的網頁下載下來,存儲進已下載網頁庫中。此外,將這些URL放進已抓取URL隊列。4.分析已抓取URL隊列中的URL,分析其中的其他URL,并且將URL放入待抓取URL隊列,從而進入下一個循環(huán)。
上述內容理解起來可能有點困難,我們換個角度來理解,有基礎的SEOer一定知道兩個常見的搜索引擎抓取算法策略:廣度優(yōu)先抓取策略 和深度優(yōu)先抓取策略 。當然,還有一個大站優(yōu)先抓取策略(權重高的站點,一般都是一些資訊門戶類)。上圖的工作原理可以通過這兩大策略進行闡釋。
廣度優(yōu)先抓取策略
廣度優(yōu)先抓取策略是通過待抓取URL列表為基準進行抓取,發(fā)現(xiàn)的新鏈接,且判斷為未抓取過的基本就直接存放到待抓取URL列表的末尾,等待抓取。我們用這一張圖來說明,如下:
什么意思呢?舉個通俗的例子:
假設爬蟲的待抓取URL列表中,只有Page1這個原始網頁,爬蟲從Page1開始抓取,從Page1中提取了Page2、Page3、Page4,于是將Page2、Page3、Page4放入到抓取隊列,再依次獲得Page5、Page6、Page7、Page8、Page9網頁并插入到待抓取的URL列表中,以此類推,周而復始。簡單理解就是由一生二,二生三的結果。
深度優(yōu)先抓取策略
深度優(yōu)先抓取的策略是爬蟲會從待抓取列表中抓取第一個URL,然后沿著這個URL持續(xù)抓取這個頁面的其他URL,直到處理完這個線路后,再從待抓取的列表中,抓取第二個,以此類推。同樣用一張圖來示意說明,如下:
Page1作為第一個從待抓取列表的URL,爬蟲開始抓取,然后抓取到Page2、Page3、Page4、Page5、Page6,Page10、Page11,但Page2、Page3、Page4中都沒有后續(xù)的鏈接了(忽略已經抓取過的頁面),從Page5中發(fā)現(xiàn)了Page8,順著Page8,發(fā)現(xiàn)了Page9,然后就沒有更多了。在Page6中發(fā)現(xiàn)了Page7,然后針對這個鏈接的抓取就結束了。從待抓取列表中,拿到下一個鏈接循環(huán)繼續(xù)上述操作。
因此再結合百度給出的解釋,爬蟲能正常抓取網頁內容且滿足用戶體驗的條件后網頁才會有排名,有了排名才有流量。當然這里省略了網頁排名的算法,屬于另外第一個知識點,這里不多講了。
大站優(yōu)先抓取策略
其實這個策略算是前面兩個的結合體,廣度與深度都做得好的站勢必也會是大站點,常見的如新浪、搜狐等,所以結合日常Seoer外鏈及站內工作內容,也說一下這個擴展知識點——爬蟲優(yōu)先抓取大戰(zhàn)策略。
優(yōu)先抓取意思1:優(yōu)先抓取權重較高的站點;
比如:搜索 "跨境電商",SERP結果頁面基本上是百度自家產品和第三方新聞媒體和深度媒體站點,你要是再去點進進去查看基本上是百家號的信息聚合,說白了還是自家產品,仔細看下它們的權重基本上是權10以上,你想一個剛出來的企業(yè)站能拼得過嗎?
SERP結果呈現(xiàn)
優(yōu)先抓取意思2:爬蟲將待抓取列表里的URL按照域名進行歸類,然后計算數(shù)量。其所屬域名在待抓取列表里數(shù)量最多的優(yōu)先抓取。什么意思呢,看下圖示例:
我在前面講過,待抓取的種子URL地址一般性均是Hub頁面/權威性頁面為主,這也就是說為什么鼓勵大家去找高權重站點發(fā)優(yōu)質外鏈的原因,以上圖為例,假定待抓取的頁面是一個權威性的頁面,網站中除了頭部及底部導航是固定不變之外,其他的從A-J區(qū)域都可以你的URL地址,那么,爬蟲會根據待抓取的URL(A-J)中識別不同類型的域名進行分類,然后自動加權計算所有鏈接中的數(shù)量,數(shù)量越多就越有優(yōu)先抓取的機會。這里大家可能會產生疑問,為什么會進行域名分類?因為權威性的頁面不止單服務你一個用戶,是公共的,大家都可以去做(前提是你能發(fā)掘到這樣的寶藏)。
所以,總的說來,優(yōu)先抓取的兩個解釋一個是針對網站權重高的,一個是針對每天文章發(fā)布數(shù)量高且發(fā)布很集中的。不過我們試想一下,發(fā)布集中且數(shù)量篇幅多的站點,一般也應該是大站了吧?
所以給我們的啟發(fā)就是提權并且更新文章需要集中固定到具體時間,不要三天打魚兩天曬網,最好能養(yǎng)成輸出文章的固定習慣,這樣有助于培養(yǎng)蜘蛛對你站點訪問的習性,有助于收錄。
以上是通過網頁抓取引申出的知識點,但是回到正題"確保網頁能正常抓取"則需要通過站長工具進行測試,可以登錄百度后臺進行查看,如下圖:
除此之外,還有一種可能就是當用第三方CMS程序(wordpress)建站時,大部分的站長會在后臺開啟禁止搜索引擎抓取或通過Robots.txt進行屏蔽搜索引擎對網站根目錄的抓取,因此你需要進行后臺關閉或修改robots協(xié)議。
當然也還有一種特殊情況,直接在服務器中進行屏蔽后的解鎖,這個就不在這里展開了。
確保內容可被索引
關于內容被索引的問題,我覺得大家先放一放,我們先了解這幾個SEO易混淆的名詞:抓取、收錄、索引。搞懂之后你才能更好地玩轉收錄,甚至達到秒收的結果。
抓取這部分已經在第二小結里講過了,不再重復。說說收錄和索引。
先看下百度官方文檔介紹是如何說收錄與索引的定義
收錄和索引分別指什么?
收錄:頁面被Baiduspider發(fā)現(xiàn)、分析過的;言外之意,也就是蜘蛛先爬行后抓取再實現(xiàn)收錄的過程。
索引:Baiduspider經初步分析后認為有意義,做建庫處理。言外之意就是可能參與未來有排名的頁面,這里代表有質量的網頁,也稱之為上層索引。
按我的理解
索引和收錄是兩個不同的東西。僅僅因為搜索引擎可以抓取頁面并不意味著他們可以將其編入索引。如果頁面上有 “noindex” robots標記或x?robots-tag,則無法編制索引。Google會在覆蓋率報告中告訴你未編入索引的URL及原因。以下未編索引是因為當初改了一個目錄結構導致,沒想到被秒收,系統(tǒng)被抓取,后來又重新改回默認目錄,目前等Google數(shù)據庫恢復。
Tips:如果你有應編入索引的頁面被標記了 “noindexed”,請刪除 “noindex” 標簽。
收錄和索引的關系?
二者是包含關系,先收錄才可以建索引,收錄量大于索引量。百度搜索資源平臺普通收錄工具是通往收錄的大門。
由此可見,可以大致理解爬蟲爬行>抓取>收錄>索引 。而大部分理解的收錄就等同于索引了,舉個之前優(yōu)化的case:site指令下的收錄量1000+,但是百度站長后臺的索引量數(shù)據是7000+,造成數(shù)據為什么不一致?
按照官方解釋,site語法下的數(shù)據只是預估數(shù)據,不太準確。因此參考意義不大。那具體什么原因導致?
我們后來經測試發(fā)現(xiàn),原來site出來的是緩存數(shù)據,并不是所有的收錄頁面數(shù)。換句話說site出來的結果就是用戶經常搜索看到的結果,而索引庫的數(shù)據是你全部的數(shù)據。索引里還包含上層索引和下層索引,具體可以理解為上層索引是較為優(yōu)質的,下層索引一般甚至低質的。以一篇文章的收錄過程作說明:
不信你看看下面的測試:
你會發(fā)現(xiàn),site出來的收錄基本上是與用戶經常相關的,其他的基本上被百度默認給屏蔽了。那我們再還原下搜索引擎的基本原理,用2張圖解釋索引在搜索中扮演的角色。
搜索引擎五大模塊協(xié)同過程
以搜索需求為例:
從顯性角度看 :人-搜索引擎-返回結果,完成整個搜索需求的過程;
但是,從隱性的角度(搜索引擎)看 :完成搜索指令需要將爬蟲、索引、Query、召回、排序等5個過程協(xié)同,當用戶在屏幕前開始搜索動作時,系統(tǒng)已經開始飛速運轉,爬蟲先完成從A-D的抓取-收錄-索引的過程,提前為Query模塊做準備,以查詢語句為開端經過流程1-7的運作,最后找出相關性較高的頁面展現(xiàn)在用戶面前。展現(xiàn)在用戶面前的也就是我們目前的上層索引,能滿足用戶的需求的頁面。
爬蟲-索引-query理解-召回-排序的工作原理
這里又涉及到一個知識點,怎么區(qū)分上層索引及下層索引?其實很簡單,如果你的網頁被收錄了,但是搜索全標題,卻沒有或者排名不在首頁,大概率可以評為下層索引,如果你搜索標題中的長尾詞,然而排名在首頁。那大概率可以評為上層索引。
你只需要將目標的網頁進行輸入搜索:目標URL地址,看到這樣的返回結果,找不到應有的鏈接就說明是下層索引,如:
下層索引示例
上層索引例子:直接搜鏈接查有無收錄,有則再次輸入鏈接中帶有關鍵詞的長尾詞查詢,看有沒有排名。
鏈接搜索查詢
通過長尾詞搜索后的排名
收錄和索引的意義?
收錄意義1:收錄是索引的前提,站點需要保持服務器穩(wěn)定(參考抓取診斷工具、抓取異常工具)、robots正確(《robots寫法和需求用法對應表》),為Baiduspider抓取鋪平道路;
收錄意義2:Baiduspider只能處理已分析過的頁面,面對新舊頁301和移動適配,可為已收錄頁面完成權值評分以及流量切換;
索引意義1:只有被建入索引庫的網頁才有獲得流量的機會(網頁雖然被建入索引庫,但獲得流量的機會并不同,無效索引很難獲得流量);
索引意義2:新聞源站點(新聞源目錄)內的鏈接,必須先被網頁庫建索引,才有機會出現(xiàn)在新聞檢索中。
以上就是關于圍繞“索引”展開的知識點介紹,正所謂“知其然亦知其所以然”這樣才能更好地完成優(yōu)化工作。
確保網站使用HTTPS
Https是目前非常流行的一種網絡傳輸協(xié)議,與安全有關,大家可以不用了解那么具體,我們只需弄清楚他怎么應用就好。我們先看看它長什么樣:
就是在你的瀏覽器輸入框URL地址前有一個小綠鎖的標志“”,在你瀏覽其他的網頁時可能會遇到這種頁面,如下:
這就是沒有配置HTTPS的站點,那我們具體怎么來實現(xiàn)從Http-Https配置,具體做法(以linux主機>寶塔面板為例),登錄寶塔后臺,按照1-7的順序配置即可。
關于步驟5和步驟6的Key與PEM,你可以登陸到你的云服務商(阿里或者騰訊云),找到SSL證書欄目,然后會有免費申請,點擊申請就好,一般會在15分鐘審核通過,審核前需要做好目標域名綁定,再選擇你的服務器主機類型,是Linux就選擇Linux,是Win機的就選擇Win機,對應的主機類型下選擇下載證書,這個部分略,不清楚的直接搜度娘。
當然,所有配置好后你可能會遇到這種帶黃色警示鎖的標記,如:
這表示你的Https沒有配置成功,你可以F12定位下看報錯類型,一般來說,是由于沒有將原Http資源轉化成Https資源,具體看是什么類型的,是圖片還是視頻等,若是,直接修改下上傳的目錄改成正確的URL地址。
確保網站唯一域訪問
簡單來說就是不要分散權重,確保打開鏈接域名是具有唯一性的,怎么理解?舉個例子:
http://abc.com ...①
http://www.abc.com ...②
https://abc.com ...③
https://www.abc.com ...④
以上四個站點的首頁都是一樣,但是在搜索引擎的世界可能是4個不同類型的站,因此很容易造成權重分散,遵循百度搜索引擎規(guī)則,我們可以將①②③種域名301重定向到④,其實也不用這么麻煩,Https配置成功,你打開①和②會自動變成③和④,所以你只需要做好將③的域名301重定向到④就好。
同理,按Google的原理,更側重使用③域名,那就直接將其他三類的域名301到類型③就好。至于怎么做301重新定向,不清楚的就直接給到網站開發(fā)人員或者運維同學完成就好。
確保網站加載速度快
網站的體驗好不好,一半也取決于你的服務器配置,其中網站的加載速度是一個很重要的方面,網站加載速度有一個標準,要在3s之內響應,否則容易流失用戶。不知道如何查詢自家網站訪問速度的可以使用以下工具:撥測
假如出現(xiàn)一片紅,那就是服務器的配置較低,尤其是帶寬,這樣你可以跟運維溝通,讓其驗明情況,確定是配置導致的那就升級。
確保網站移動端友好
移動端友好這是一個老生常談的問題,以目前移動互聯(lián)網的發(fā)展趨勢來看,大部分的企業(yè)都已經保持了“PC+移動”的標配,但是做到友好的標準需滿足適配這一基本條件,除此之外就是移動端頁面體驗度。
移動端適配
你可以是自適應,也可以是獨立的移動站,但是一定要做好適配,切莫出現(xiàn)這種情況:
頁面體驗度測試
利用Google 移動頁面測試,找出問題,然后排查。
查詢地址:https://search.google.com/test/mobile-friendly
處理圖片壓縮問題
一般而言,在網站開發(fā)環(huán)節(jié)中會針對圖片過大的問題采用以下解決方案,通過tinyPNG在線工具壓縮所有圖片進行上傳,圖片輸出控制在10Kb以內,有助于網頁加載。
第二種就是針對第三方博客安裝插件解決,如WP的ShortPixel。
第三種進行OSS上傳,將所有圖片及視頻等文件搬到云存儲盤,同樣也需要保持圖片的輸出大小,然后掛上全站CDN,這樣便于快速訪問。
清除和優(yōu)化無效鏈接
無效的鏈接包括404頁面打不開及死鏈等情況,包括站內與站外。這些統(tǒng)稱為無效鏈接,會對用戶體驗產生負面影響,網站權重上升的絆腳石。針對這兩種情形怎么處理?
站內 :可以通過site指令輸出所有的收錄鏈接,手動一條條測試,找到那些死鏈和無效鏈接,并記錄URL地址,這種做法只適合收錄比較少的網站,一旦是收錄超1000的這個可能就有點崩潰了,那針對這一情形,我推薦你用360瀏覽器擴展404 link檢測,安裝后,輸入地址點擊按鈕即可自動查找,有問題的鏈接會用“X” 表示, 非常省事。
站外: 主要是針對外鏈平臺發(fā)布內容后直接刪掉資源及自身站點的原因導致鏈接失效,那因此你需要重新補充恢復,用正確的鏈接替換。按照現(xiàn)在的做法,這種已經不流行了,因為大部分的平臺都不允許私帶鏈接。
當然,若你覺得這種做法也是很心累,那你可以利用Ahrefs工具查找是無效鏈接。
去掉重復內容
重復內容是SEOer常愛干的事兒,對于蜘蛛來說是災難,因為蜘蛛喜歡新的東西,舊的及在庫里有的它不會再爬,因此很容易被判定為低質垃圾內容,所以在編輯文章過程中盡量做原創(chuàng),沒那個能力可以考慮下偽原創(chuàng),就是不能直接copy,有人會說,我copy你能察覺得到嗎?那我教你一個小妙招檢測網站的重復內容,如下:
1.查看單篇文章是否重復,可用{title+文章標題}進行查詢;
2.查詢某篇文章是不是被copy,可從文章首段復制一段文字,在百度搜索框進行搜索,前提是該文章被收錄了。如果發(fā)現(xiàn)大量飄紅文字,則說明這篇文章重復性過高;
3.可通過站內搜索文章標題,可查詢出重復的內容(前提是有站內檢索功能);
4.利用SEO站長工具頁面相似度檢測工具,判斷一些相鄰頁面的相似度,80%以上相似度就需要對一些固定欄目進行調整。
寫在最后
以上內容就是整理后的2022年B2B官網優(yōu)化指南(上部)的內容,希望分享的內容能給大家?guī)硇┰S思考。碼字不易,希望您給個關注或轉發(fā),若是想進一步了解關于SEO優(yōu)化,可以訂閱飛優(yōu)數(shù)字營銷。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!