夜息SEO培訓:搜索推薦聚合放大你網站潛力SEO方

  本文是寫給有一定實戰經驗的SEO看的,如果掃了兩眼就說完全看不懂,那不是我的問題。


  這個方法經過了大量的研究和實踐,證明是一套一直會有效果的SEO方法,至少我身邊好幾個朋友做的都挺好,給網站帶來了大量的SEO流量。但請不要企圖在看完本文後30秒你網站流量沒有飙升覺得我在忽悠


  有具體問題可以@我新浪微博或者QQ上找我詢問,我很樂意解答,如果是這個應該怎麽做啊,看不懂之類的問題我也無法回答。


  目的在于探討一種挖掘網站的內容潛力,把網站中用戶可能會關心的內容呈現給用戶,滿足其需求,獲取相應的SEO流量。


  很多大型網站都在用的一種方法,但是很少有人出來詳詳細細的解釋。


  這樣的SEO流量是如何獲得的,下面舉一個通俗易懂的例子。[size=1.7]


  假設我在百度上搜索“iOS英雄無敵3”,目的是找一個能在iOS下運行的英雄無敵3這個遊戲。


  事實上這個遊戲並不存在。因此壓根不存在一個頁面可以讓我找到我想要的內容(如果有也是標題黨)


  于是我進入了tgbus的這個關于iOS英雄無敵3的頁面。


  我在這個頁面上找到了iOS上的英雄無敵2這個遊戲以及其他類似英雄無敵3的iOS遊戲,以及一些奇奇怪怪的新聞(ok,這個頁面做得並不是很容易閱讀)


  Finally,我在tgbus上下載了英雄無敵2的iOS版本試試。


  OK,我們再換個實際生活中例子:


  一個姑娘去買衣服,于是看上一條粉紅色的連衣裙,但是沒她要的尺碼。


  這時候營業員會怎麽做,沒錯,推薦一些類似顔色or款式的連衣裙,並且有碼。


  (TGBUS似乎推薦出了一條牛仔褲。)


  SO,我們應該如何去找出用戶想要的連衣裙和我們倉庫中有的連衣裙,並且在最恰當的時候給用戶最好的結果,還能獲取到SEO流量,這並不是一件很簡單的事情。


  Wait,這不是就一個推薦引擎麽?這麽複雜的玩意交給工程師做就行了。事實上多數時候,這只是SEO們一廂情願的東西,工程師才不會來鳥你什麽推薦引擎,我們先從一個可執行的角度,自力更生來把這個SEO方法實施下去。


  二.內容分析,關鍵詞分析,數據接口設計


  內容分析


  一個SEO知道自己網站有多少內容很重要,經常遇到和人說:“你網站這個XX頁面有問題”“啊?這是什麽頁面啊,我從來沒見過。”


  一般一个网站垂直去分,有首頁,内容页,列表页。


  內容頁中,又可能分圖片頁,評論頁,文章分頁等等


  列表頁中,又可能分頻道頁,産品列表頁,索引頁,專題頁等等。


  一般一套頁面對應一套甚至多套php模板。


  需要弄清楚這些模板是否在一個架構內,是否公用數據庫,頁面上使用了哪些字段,最好可以找到對應模板的開發人,如果有條件申請到源代碼查看權限,可以自己看一下。一個內容聚合的需求可實現度很大程度上取決于上面這些內容,先弄清楚把配料都弄齊全了,再開始做菜,否則巧婦難爲無米之炊。


  橫向去分可能是更多往business方向考慮,比如有我們有賣線路的,賣門票的,賣酒店的,攻略,用戶圖片,論壇帖子等等各個頻道,各個頻道可能是由不同的部門在負責。哪些是網站熱賣的,需要熱推(至少你做個SEO的東西得有商業價值,在電商公司非常重要),包括各個頻道是否有人還在運營,一個常年無人打理的頻道,顯然不是一個好的內容源。一般來說,主要的産品線,和UGC的內容一般是網站內容提供主力。如果我們想挖掘用戶需求,也可以優先考慮它們。


  這個步驟需要花很多時間,複雜一些網站甚至要1個月才能弄清楚網站到底有多少類型的頁面。在弄清楚上面的問題之後,


  接下來,就需要只要知道各類內容有多少數量。


  比如多少個SKU,多少文章,多少帖子,多少tags,多少分類等等


  這是很多人在做類似工作時考慮不周全的,憑感覺去做。最後做出來一大堆重複內容的頁面,重複頁面對SEO有多壞的影響就不用再提了。


  這個統計內容數量的辦法(從好到壞排序)。


  1.讀數據庫


  2.通過一些”巧妙”的辦法去數


  3.用工具抓


  4.靠經驗猜(基本不靠譜)


  讀數據庫是最簡單,也是最准確的辦法了,一個select完事。


  如果沒有數據庫權限,就要去想辦法知道。比如文章有多少條,


  那可以計算分頁數量*每頁文章數量來統計


  如果是自增id,那來湊自增id來數


  如果是固定格式數據,比如來北京的圖片,北京的天氣,地區數量*類型來計算,等等


  通過工具抓是很多seo的夢想,無數人問過這樣的問題,有沒有什麽工具可以統計出我網站有多少網頁啊。


  抱歉,還真沒有,由于種種網站原因,沒有任何一個工具可以統計出一個中大型網站到底有多少網頁(誰有那這個工具比google,百度爬蟲還NB),太多的爬蟲陷阱,阻礙深入抓取的東西了。當然,這樣的抓取工具並不是一無是處,對于小型網站,或者特定頻道,甚至特定區塊的抓取,還是有一定作用的。比如Httrack,Xeun,當然還有我比較喜歡用的火車頭。python,shell等腳本語言一直是萬能的。


  對于分庫分表的超大型站,我也沒有經驗應該怎麽做,但是我覺得和數據庫管理員搞好關系他可能會幫到你,畢竟人家才是專家。


  上面基本就是內容分析的大致情況了,弄清楚內容的種類,數量和運營情況,對SEO是有很多好處的。


  關鍵詞分析


  關鍵詞分析我一般从3个角度去考虑。


  1.搜索量,其實這個指標是最不重要的,但是確實是大家最關心的指標,所以我先放第一個說。大部分到訪關鍵詞的搜索量都是很低的。我舉個例子看一下。


  選取了某頻道月訪問量低于30次的關鍵詞,平均下來就是一天只能帶來一次訪問的關鍵詞,是163k左右的訪問量

1.jpg

  選取了月訪問量高于30次的關鍵詞,平均下來就是一天只能帶來一次訪問的關鍵詞,是145k左右的訪問量

2.jpg

  連續觀察這組數據我們可以看到如下結論

3.jpg

  一個月能帶來1000訪問量的關鍵詞,平均到每日也僅有30多左右,這個頻道的平均CTR大概在10%左右,那每日的搜索量也僅有300,不知道讀者能看懂我的意思沒,搜索量並沒有想象中那麽重要。


  2.相關性,這個相關性又分兩個方面,1是關鍵詞之間如何把有相關性的東西提取出來,學術一點的概念叫做聚類,2是關鍵詞和內容之間如何建立相關性。


  先說說爲什麽要把有相關性的關鍵詞提取出來,1是便于分析用戶的興趣點,以小見大。2是查找重複/類似的關鍵詞。說個常見的外貿行業的SEO手法,往zencart或者magento裏面導入幾百萬的關鍵詞,然後再站內搜索中搜索産品,生成幾百萬個頁面來獲取SEO流量,思路是正確,但是做法太粗糙,往往生成的幾百萬頁面中只有幾百個頁面能獲取到流量。我們來看看下面一些關鍵詞


  ”


  去北京玩多少錢


  北京玩多少錢


  北京玩幾錢


  北京玩要多少錢


  …


  ”


  這些關鍵詞講述的意思是一樣的,完全沒有必要制造多個頁面.


  3.商業價值


  三.關鍵詞挖掘,清洗與過濾


  關鍵詞的挖掘說難不難,說簡單也不簡單。


  基本每個人都會問,怎麽挖掘關鍵詞制作詞庫。先說說一些常用的手法。


  1.baidu/googleAPI


  2.采集愛站,chinaz,伯樂等數據


  3.采集百度下拉框(其他搜索引擎同理)


  4.采集百度相關搜索(其他搜索引擎同理)


  5.站內搜索和自然流量關鍵詞


  6.現成字典/詞庫


  講點具體實現的一些注意點,都是在實踐過程中總結出來的東西。方法說了,基本10個人裏面有1個人去實踐一些就不錯了


  1.百度和google的api是要申請的,想辦法搞一個,如果沒有,只能用百度網頁級別的采集,百度競價後台經常改,所以不是很穩定。百度API的python的SOAP通信有BUG,連不上(可能我水平太低了T_T),PHP會SOAP通信的話可以自己寫腳本來跑,Google的沒玩過,應該差不多


  2.API是有精確搜索量的數據,所以是詞庫第一數據來源


  3.相關搜索可以用火車頭或者飛達魯金花之類的,因爲是采集SERP,反采集這塊要想辦法繞過


  4.站內搜索和自然流量關鍵詞去GA搞一下就行,批量導出不說了。很簡單,不是用的GA可能會悲劇一些。


  5.一些特殊的搜索引擎,淘寶,youku之類,他們也積攢了大量的數據信息


  四.分詞/檢索/排序/修正


  五.頻道的運營,維護,拓展

  
  標簽: