說來慚愧,今天把網站的部分內容中文化後突然決定要去Google登入網址,在我的大腦中Google還只是讀取bots資訊來蒐集網站資料的,沒想到股溝大神早早就化被動為主動改推sitemaps計畫。
先不提股溝大神的搜尋頁面的排序演算法,以往Google蒐集各網頁的資訊的方法是,使用者到google網站登錄網址後Google的IA(Intelligent Agent)就會到你的網站讀取一份檔名為robots.txt的文件。Google再靠著這份文件的導引在你的網站擷取網站中的各種資訊。簡單來說Google的IA程式必須主動的去讀取您「整個」網站,您網站的資訊才能在Google上更新,這對Google來說除了會耗費較多的資源外於網站的擁有者來說是也是十分被動的。
話說今年一月份,股溝大神改推sitemaps計畫!sitemaps的運行方式與robots.txt最大的不同是sitemaps主動提供更新的文件資訊而robots.txt是被動的等待IA來讀取瀏覽網頁的資訊。