Cách hoạt động của các bộ máy tìm kiếm
Các bộ máy tìm kiếm có hai chức năng chính: 1) Quét (Craw) và tạo chỉ mục (Index), 2) cung cấp cho người tìm kiếm một danh sách các website có nội dung liên quan tới truy vấn tìm kiếm.
Quét & lập chỉ mục
Bạn hãy tưởng tượng các website giống như một mạng lưới các trạm dừng của hệ thống tàu điện ngầm của thành phố.
Mỗi một trạm dừng là một tài liệu duy nhất (Thường là một trang cụ thể, tuy nhiên thỉnh thoảng nó cũng có thể là một file PDF, JPG, hay các loại file khác).
Các bộ máy tìm kiếm cần một cách để “quét” toàn bộ thành phố và tìm toàn bộ các điểm dừng dọc các con đường, vì vậy chúng sử dụng con đường tốt nhất – các liên kết (links).
Trong khóa đào tạo SEO của chúng tôi cũng nói về vấn đề này trong ngay buổi đầu tiên rõ ràng và chi tiết cách Google thu thập và lập chỉ mục website bạn như thế nào, góc nhìn về kỹ thuật ra sao vì đa số 99% SEOer chúng ta đều không biết một điều rằng Google chỉ thu thập (crawler dữ liệu cao nhất là 40% bài viết) với số còn lại chúng không được lập chỉ mục (index) vì thế hãy giúp Google thu thập số còn lại để tăng thứ hạng cao hơn, tôi cũng nói cách thức để check và giúp bot thu thập đủ dữ liệu vốn có để chúng ta không mất dữ liệu vô ích.
Cấu trúc liên kết của các web server dùng để kết nối tất cả các trang với nhau
Các liên kết cho phép các con robot tự động của bộ máy tìm kiếm (thường được gọi là bọ tìm kiếm – crawlers/spiders) tìm thấy hàng tỉ các tài liệu được liên kết lẫn nhau trên web.
Một khi chúng tìm thấy các trang này, chúng sẽ giải mã các đoạn mã lập trình và lưu lại các phần được lựa chọn trong một cơ sở dữ liệu khổng lồ, và sau đó sẽ được sử dụng khi cần cho các truy vấn tìm kiếm.
Để có thể lưu trữ được số lượng dữ liệu khổng lồ của hàng tỷ trang web, các công ty công cụ tìm kiếm đã xây dựng rất nhiều trung tâm lưu trữ dữ liệu trên toàn thế giới.
Những cơ sở lưu trữ khổng lồ này có hàng nghìn máy móc có thể xử lý một lượng thông tin cực kỳ khổng lồ một cách nhanh chóng.
Khi có người thực hiện lệnh tìm kiếm tại bất kỳ bộ máy tìm kiếm nào, các lệnh này đòi hỏi phải đưa ra kết quả ngay lập tức bởi vì bất cứ 1 hay 2 giây trì hoãn sẽ tạo ra sự không hài lòng.
Vì vậy, các bộ máy tìm kiếm phải làm việc để cung cấp kết quả càng nhanh càng tốt.
Cung cấp kết quả tìm kiếm
Các bộ máy tìm kiếm là các máy trả lời. Khi một người thực hiện một lệnh tìm kiếm, các bộ máy sẽ tìm kiếm trong hàng tỉ các tài liệu và sau đó làm hai việc: Đầu tiên, nó sẽ chỉ đưa ra các kết quả liên quan hoặc có ích đối với người tìm kiếm; Thứ hai, nó xếp hạng các kết quả dựa trên mức độ phổ biến của website cung cấp thông tin.
Độ liên quan và độ phổ biến chính là các thứ mà người làm SEO cần phải tác động tới.
Các bộ máy tìm kiếm xác định độ liên quan và độ phổ biến như thế nào?
Đối với một bộ máy tìm kiếm, mức độ liên quan không chỉ là tìm một trang có các từ chính xác.Trong thời kỳ đầu của mạng, các bộ máy tìm kiếm chỉ có thể làm được các bước đơn giản như trên, và các kết quả tìm kiếm trả về có giá trị khá thấp.
Tuy nhiên, về sau các kĩ sư đã đưa ra các cách tốt hơn để cho kết quả phù hợp với truy vấn của người tìm kiếm hơn.
Ngày nay, có hàng trăm yếu tố ảnh hưởng tới sự liên quan, và chúng ta sẽ thảo luận sâu hơn về những yếu tố quan trọng nhất trong các bài hướng dẫn tiếp theo.
Các bộ máy thường cho rằng các website, trang hay các tài liệu càng phổ biến thì càng chứa nhiều thông tin có giá trị.
Giả thuyết này đã được chứng minh là khá thành công khi người dùng hài lòng với các kết quả tìm kiếm.
Độ phổ biến và mức độ liên quan không phải được tạo ra một cách thủ công.
Mà thay vào đó, các thuật toán (algorithms) của các bộ máy tìm kiếm sẽ sắp xếp các kết quả từ chất lượng (độ liên quan), và tiếp theo là xếp hạng theo số lượng (độ phổ biến).
Các thuật toán thường bao gồm hàng trăm yếu tố. Thuật ngữ trong ngành gọi chúng là “Các yếu tố xếp hạng”. Moz đã soạn ra một tài liệu cụ thể về chủ đề này: bạn có thể xem thêm tại đây
Bài viết này thuộc quyền sở hữu của HiSEO – Chúng tôi không cho phép bạn sao chép dưới mọi hình thức