移除 Google Index 的方法 (官方指南)
有時我們可能希望,從Google搜尋結果中移除某些網頁或整個網站的內容。這可能是由於隱私、商業或其他考慮因素。幸運的是,Google提供了一些工具和方法,使我們能夠快速有效地從其索引中刪除內容。
針對不同的情況和需求,可以參考以下移除Google收錄的方法,進行有選擇的實作。
一、前期快速暫時移除法:
在GSC (Google Search Console) 中使用刪除工具暫時移除
網址:https://search.google.com/u/1/search-console/removals
需要把測試網站的PC端和M端分別加入google search console中進行驗證,驗證成功後再使用移除工具。
暫時刪除期是6個月,6個月後Google還會恢復索引結果,在此期間需要永久移除法。
備註:
GSC的刪除功能,其實是Google的隱藏功能,期間頁面不會出現在Google搜尋結果裡,但期間谷歌還是可以索引,只是在資料庫裡,過了6個月,如果頁面還存在,Google還是可能會把頁面在搜尋結果放出來的。
二、後期要永久移除的方法:
1. 刪除頁面,使http返回狀態為404(未找到)或410(已刪除)
盡量使用410
404: 未找到– 未找到所要求的資源。
410: 類似於 404,表示請求未找到,但這也表示該請求將不再可用。
2. 設定密碼保護,或設定白名單
新增密碼不會將頁面從 Google 索引中刪除,但可以阻擋Google未來抓取
3. 使用Noindex meta tag標籤
使用noindex標籤可將頁面從搜尋結果中排除, 讓搜尋引擎知道他們不應該索引該特定頁面。
< meta name="robots" content="noindex" / >
4. 使用Noarchive meta tag標籤
使用 noarchive 標籤,告訴 Google「我不想讓您快取這個”
< meta name="robots" content="noarchive" / >
3和4,和nofollow可以一起加:
< meta name="robots" content="noindex, noarchive, nofollow" / >
nofollow: 告知蜘蛛不用爬行此頁面上的連結內容。
備註:
使用這個方法,需要在head裡添加後,在google search console 後台使用網址檢查工具,讓谷歌重新抓取這個頁面,谷歌只有再次抓取這個頁面時,才會發現noindex標籤。
5. Robots.txt
Robots.txt無法封鎖索引,Google有時會忽略robots檔案的限制 (可不使用此方法)
robots.txt 會阻止 Google抓取網頁(或類別),而不是將其從索引中刪除。透過 robots.tx 檔案阻止的頁面仍可被索引(並被排名)。
谷歌官方建議:
https://support.google.com/webmasters/answer/9689846?hl=zh-Hans&sjid=8108231094128340162-AP (有影片解說)
谷歌官方指南:
https://developers.google.com/search/docs/crawling-indexing/robots-meta-tag