พวกบอททั้งหลายจากเสิร์ชเอนจิน รู้ได้ไงว่าที่ไหนมีการอัพเดทข้อมูลใหม่ๆหรือมีเว็บไซต์ใหม่เกิดขึ้น ผมจะตอตามที่ผมเข้าใจมานะครับก็คือบอทพวกนี้มันจะจับแรงสั่นสะเทือนของเซิฟเวอร์
หากมีการอัพเดทข้อมูลหรือการทำงานเครื่องเซิฟเวอร์จะเกิดการสั่นสะเทือน บอทพวกนี้จะรู้ได้แล้วพยายามหาทางเข้าไปแล้วก็ทำการตรวจสอบข้อมูลว่าเป็นข้อมูลประเภทไหน มีคุณภาพใหม่ เป็นข้อมูลที่มาใหม่หรือมีซ้ำแ้ล้ว ถ้าข้อมูลของเราใหม่จริงมันจะเก็บข้อมูลและทำสำเนาไว้ยังฐานข้อมูลของเว็บเสิร์ชเอนจินนั้น และจัดอันดับเนื้อหาให้ แต่ถ้าหากมองว่าข้อมูลเก่าที่มีในฐานข้อมูลอยู่แล้วมันจะผ่านไปหรืออาจมองว่าเว็บไซต์หรือข้อมูลของเราเป็นข้อมูลขยะ ซึ่งทั้งหมดทั้งปวงเหล่านี้ล้วนแต่มีผลในทางด้านของการทำ SEO เลยทั้งสิ้น
เขียนโดย : คนทำเว็บ
0 ความคิดเห็น:
แสดงความคิดเห็น