Eric Enge phỏng vấn Matt Cutts (phần 3) Tiếp theo phần 1 và phần 2, mình xin chia sẻ tiếp phần 3 nội dung bài phỏng vấn của Eric Enge với Matt Cutts (Googler). Eric Enge: Webmaster tools “bỏ qua những tham số” cũng giống như cách làm của canonical tag. Matt Cutts: Vâng, về bản chất thì đúng là như vậy. Đó là một việc khá dễ chịu vì có thể có bị cản đường bởi vì nếu bạn block một trang để nó không bị crawl thì chúng tôi sẽ không thể truy cập vào được. . | Eric Enge phỏng vấn Matt Cutts phần 3 Tiếp theo phần 1 và phần 2 mình xin chia sẻ tiếp phần 3 nội dung bài phỏng vấn của Eric Enge với Matt Cutts Googler . Eric Enge Webmaster tools bỏ qua những tham số cũng giống như cách làm của canonical tag. Matt Cutts Vâng về bản chất thì đúng là như vậy. Đó là một việc khá dễ chịu vì có thể có bị cản đường bởi vì nếu bạn block một trang để nó không bị crawl thì chúng tôi sẽ không thể truy cập vào được. Chúng tôi sẽ không thể biết nó là một bản sao của trang khác. Nhưng nếu như bạn nói cho chúng tôi biết trên bảng điều khiển của webmaster tham số nào không cần thiết chúng tôi có thể tận dụng được những thông tin đó. Eric Enge Hãy nói vể những file KML. Liệu có nên đặt những trang này vào robots. txt để tiết kiệm crawl budget . nếu như bạn cố block một URL nào đó trong file chúng tôi thường sẽ nhận ra URL đó và giữ thông tin đó ở index của chúng tôi. Chính vì thế không cần thiết phải tiết kiệm crawl budget của bạn. Matt Cutts Thông thường tôi sẽ không khuyến nghị làm việc đó. Những lời khuyên hữu ích nhất sẽ do những chuyên gia crawl và đội index là để cho Google crawl những trang mà bạn quan tâm và chúng rôi sẽ cố loại bỏ những trang có nội dung trùng lặp. Bạn cũng có thể khắc phục vấn đề này với việc tạo cấu trúc site tốt hoặc dùng 301s. Nhưng nếu bạn cố block một vài URL bằng chúng tôi thường sẽ nhận ra URL đó và giữ chúng ở index của chúng tôi. Chính vì thế không cần thiết phải tiết kiệm crawl budget của bạn. Đó cũng là một điều thú vị vì Google sẽ cố crawl rất nhiều những trang khác nhau ngay cả những trang không phải HTML và trong thực tế Google cũng sẽ crawl những file KML. Điều chúng ta nên làm là để Googlebot crawl những trang này rồi loại bỏ sự trùng lặp. Hoặc nếu bạn có khả năng bạn có thể sử dụng cấu trúc của trang để xử lý vấn đề trùng lặp trước đó. Nếu site của bạn 50 là file KML hoặc bạn có một lượng lớn không cân đối các fonts và bạn không muốn chúng được crawl bạn có thể sử dụng