ไฟล์ robots.txt ขั้นต่ำที่ถูกต้องคืออะไร


14

ฉันไม่ชอบที่ฉันเห็นข้อผิดพลาด 404 มากมายในaccess.logของเว็บเซิร์ฟเวอร์ของฉัน ฉันได้รับข้อผิดพลาดเหล่านี้เนื่องจากซอฟต์แวร์รวบรวมข้อมูลพยายามเปิดไฟล์robots.txtแต่หาไม่พบ ดังนั้นฉันต้องการวางไฟล์robots.txtแบบง่ายที่จะป้องกันข้อผิดพลาด 404 ไม่ให้ปรากฏในไฟล์บันทึกของฉัน

ไฟล์robots.txtขั้นต่ำที่ถูกต้องคืออะไรซึ่งจะทำให้ทุกอย่างในไซต์มีการรวบรวมข้อมูล

คำตอบ:


17

ตามที่ระบุไว้ที่นี่สร้างไฟล์ข้อความชื่อrobots.txtในไดเรกทอรีระดับบนสุดของเว็บเซิร์ฟเวอร์ของคุณ คุณสามารถปล่อยว่างไว้หรือเพิ่ม:

User-agent: *
Disallow:

หากคุณต้องการหุ่นยนต์ในการรวบรวมข้อมูลทุกอย่าง ถ้าไม่เช่นนั้นดูลิงค์ด้านบนสำหรับตัวอย่างเพิ่มเติม


ทำไมเพิ่ม "ไม่อนุญาต:" และไม่ใช่แค่ "อนุญาต: *"
Athoxx

2
@Patrik "Allow" ใช้สำหรับแทนที่คำสั่ง "Disallow" ก่อนหน้านี้ มันไม่มีความหมายหากไม่มี "Disallow" สุจริตทางออกที่ดีที่สุดคือไฟล์เปล่า
DisgruntledGoat

2
อ่าฉันเข้าใจแล้ว ฉันยอมรับด้วยว่าไฟล์เปล่าดีที่สุด
Athoxx

2
@PatrikAlienus เนื่องจาก "อนุญาต" ไม่ได้อยู่ในข้อกำหนดของ robots.txt
user11153

1
@ user11153: ใช่มั้ย สิ่งที่เกี่ยวกับส่วน "3.2.2 อนุญาตและไม่อนุญาตให้ใช้เส้น" ของร่างข้อกำหนด 1,997 อินเทอร์เน็ตวิธีสำหรับเว็บควบคุมหุ่นยนต์ ?
เดวิดแครี

2

ไฟล์ที่ดีที่สุดrobots.txtคือไฟล์เปล่า ๆ

คำสั่ง "null" อื่น ๆ เช่นว่างเปล่าDisallowหรือAllow: *ไม่เพียงไร้ประโยชน์เพราะมันเป็นแบบไม่มี ops แต่เพิ่มความซับซ้อนที่ไม่จำเป็น

หากคุณไม่ต้องการไฟล์ที่จะว่างเปล่า - หรือคุณต้องการที่จะทำให้มันมากขึ้นมนุษย์สามารถอ่าน - เพียงแค่เพิ่มความคิดเห็นที่เริ่มต้นด้วยตัวอักษรเช่น# โปรแกรมรวบรวมข้อมูลไม่สนใจสายที่เริ่มต้นด้วย# blank file allows all#


0

ฉันจะพูดแบบนี้

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

จะอนุญาตให้ Google รวบรวมข้อมูลทุกอย่าง แต่จะไม่อนุญาตให้ Google รวบรวมข้อมูลแผง aadminn ของคุณ ซึ่งเป็นสถานการณ์ที่เหมาะสำหรับคุณ


2
ฉันอาจจะหายไปบางอย่าง แต่ฉันไม่คิดว่าผู้ถามบอกว่าพวกเขากำลังใช้ Wordpress
Maximillian Laumeister
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.