2023年5月29日
搜尋引擎是指根據一定的策略、運用特定的電腦程式搜集網路上的資訊,在對資訊進行組織和處理後,為用戶提供檢索服務的系統。網際網路上的資訊浩瀚萬千,且毫無秩序,所有的資訊像是海洋上的一個個小島,網頁連結是這些小島之間縱橫交錯的橋梁,而搜尋引擎,則為用戶繪製一幅一目瞭然的資訊地圖,供用戶隨時查閱。
從使用者的角度看,搜尋引擎提供一個包含可輸入搜尋欄位的頁面,在搜尋欄位中輸入文字,通過瀏覽器送交給搜尋引擎後,搜尋引擎就會回傳與用戶輸入的內容相關的資訊列表。
搜尋引擎其實主要在做兩件事情,分別是扒行網站 (crawling) 與建立網站索引 (index),使用網頁相關性去排序 / 排名 (ranking) 這些搜尋結果網頁,去提供Google搜尋引擎演算法認為最相關的結果列表給想要透過搜尋取得答案的人。
根據Google 工程師Matt Cut,我們大致上可以知道搜尋引擎工作的原理就是我們真的搜尋是Google 的Index Page(索引頁面) ,而不是真的全部的網站的Database. 透過蜘蛛 (也就是Spider或者是資料探勘爬蟲),來爬行您輸入的關鍵字,並且根據頁面的關鍵字、內容的關鍵字與網站相關性,給予您相關的答案。整個過程,其實不到半秒鐘,您就可以得到您要的答案!
Google 搜尋引擎平時就會在資料探勘上爬行並且索引數千萬字的文件、網頁、檔案、影片、與各式媒體;也因此,在你的網站建立之後,也千萬要記得要告訴 Google,你的網站建立了,你的網站的結構長得是什麼樣子。
申請加入Google Search Console ,並且提交Sitemap ,並且用 Robot.txt 告訴指示爬蟲是否要拜訪特定的頁面。
人們進行搜尋的時候,就會為他們提供答案到搜尋搜尋查詢結果,通常通過他們檢索的相關頁面列表進行查詢,並且把符合條件的網站透過相關性排序 / 排名,呈現在人們眼前。其中,標題(Title )、內容描述(Meta Description)甚至是網址(URL)的呈現、裡面內容是否符合使用者要的內容和外部的給予該連結的權重,就能決定相關性與排名。
Google 搜尋引擎的自動化機器人,也就是扒行者 (crawlers) 與蜘蛛 (spiders) ,去接觸數以千萬計的網路上檔案。當搜尋引擎找到新的資料,他們就會解析這些頁面中的程式碼,並且把當中可以作為標記的程式碼片段儲存在數據庫當中,當需要在搜尋查詢被使用的時候再抽取出來使用。
搜尋引擎會幫助人們取得解答,當一個人在進行網路搜尋時,搜尋引擎會搜索它的資料庫,並做兩件事:首先,它提供相關或有用的結果,接著根據提供資訊的網站的知名度對這些結果進行排名,代表了你的網站與搜尋者意圖的相關性 (relevance) 以及是否受歡迎 (popularity)。
對於搜尋引擎來說,「相關性」的意義不只是找到合適的詞彙。在網路建立的早期,搜尋引擎只能檢查網站是否有搜尋查詢提到的詞彙,沒辦法更親近人們在搜尋時心裡在想些什麼。
近年來,工程師已經設計出更好的方法來將結果與搜索者的疑問進行配對。直到今天,Google 的工程師們努力地分析出了數百個會影響相關性,也就是影響排名的因素,在我們進行SEO排名搜尋引擎關鍵字優化策略與操作的時候,就必須要思考有哪些必要因素是需要瞭解的。主要的優化工作大致上可以分為下列幾個: