4 ก.ย. 2553

หลักการทำงาน Search Engine

ปัจจัยการทำงานหลักอยู่ 3 ประการ

1. Search Engine  ทั้งหลายค้นหาข้อมูลใน internet และเลือกสรรเว็บเพจต่าง ๆ ออกมาตามคำสั่ง    ของผู้ใช้งาน Keyword
 
2. Search Engine  วิ่งเข้าไปเก็บข้อมูลต่าง ๆ เอามาเก็บไว้ในฐานข้อมูล Indexing เพื่อรอการเรียก
ค้นหา ( indexing ก็จะคล้าย ๆ กับ ดัชนีท้ายเล่มหนังสือนั่นเอง )

3. Search Engine  อนุญาติให้ผู้ใช้ค้นหาข้อมูลต่าง ๆ ด้วยการเปรียบเทียบการสอดคล้องระหว่างคำ
หรือข้อมูลที่เป็นประโยคสั้น ๆ ที่ใช้ค้นหาใน  Index  ของ  " serach engine "
ดั้งนั้นก่อนที่  serach engine จะบอกคุณว่า ข้อมูลที่คุณหาอยู่ในเว็บเพจใดในโลก Internet  มันจะต้องมีข้อมูลทั้งหมดอยู่แล้ว
เพราะฉนั้น  Search engine จึงมีซอฟต์แวร์อัตโนมัติที่เรียกว่า Spider หรือ Robot ที่จะคอยวิ่ง
( crawling ) ไปตามเว็บเพจต่าง ๆ โดยการใช้ลิงก์มากมายเป็นถนม ให้มันวิ่งผ่านแล้วเอาข้อมูลหรือเนื้อ
หาของเว็บเพจเหล่านั้นมาเก็บใส่ index ของมันเอาไว้เพื่อเตรียมการรอว่าเมื่อไหร่จะมีใครมาค้นเจอ
นอกจากการใช้ลิงก์ในการเก็บข้อมูล  ยังมีอีกสิ่งที่เป็นตัวกระตุ้นโดยสามารถ เรียกเจ้า  Spider ให้เข้ามาเก็บข้อมูลได้อีกคือ ความนิยมของเพจนั้น ๆ เพราะเจ้า Spider มันจะวิ่งเข้าหาเครื่องคอมพิวเตอร์ที่เก็บ
ไฟล์เว็บเพจนั้น  ( Server ) ที่มีอัตราการใช้อย่างหนักหน่วงในแต่ละวินาที  พูดง่ายก็คือเว็บเพจใดที่มีคน
เข้าไปดูมาก ๆ เป็นที่นิยม และมีการอัปเดตเนื้อหาอยู่บ่อย ๆ เจ้า Spider มันจะเข้ามาเองนั้นแหละ

เอาหล่ะทั้งหมดที่ว่ามา ก็คือพื้นฐานหลักการทำงานของ " Search Engine " ที่หลายคนอาจไม่เคยรู้ หรือไม่เคยสนใจ แต่หลายคนอาจจะมาาขอบคุณผมที่หลังก็ได้ ถ้าคุณตั้งใจจะทำ " SEO " จริง ๆ

ไม่มีความคิดเห็น:

แสดงความคิดเห็น