เราสามารถใช้ regex ในไฟล์ robots.txt เพื่อบล็อก URL ได้หรือไม่?


23

ฉันมี URL ที่สร้างขึ้นแบบไดนามิกบางส่วน

ฉันสามารถใช้ regex เพื่อบล็อก URL เหล่านี้ในไฟล์ robots.txt ได้หรือไม่


นอกจากนี้ยังเป็นการสร้างมูลค่าให้กับการตั้งค่าเมตาแท็กของหุ่นยนต์ในหน้าเว็บที่คุณไม่ต้องการรวบรวมข้อมูล / จัดทำดัชนี
Andrew Lott

@AndrewLott ในกรณีของฉันฉันมีมากกว่า 500 หน้าดังนั้นฉันคิดว่าใช้ regex ใน robots.txt ..
Sudheera Njs

จากนั้นกฎในรหัสไซต์ของคุณอาจเป็นประโยชน์มากกว่า
Andrew Lott

คำตอบ:


27

นิพจน์ทั่วไปไม่ถูกต้องใน robots.txt แต่ Google, Bing และบอตอื่น ๆ จะรู้จักการจับคู่รูปแบบบางอย่าง

พูดว่าถ้าคุณต้องการปิดกั้น URL ทั้งหมดที่มีexampleที่ไหนใน URL คุณสามารถใช้รายการบัตรเสริม *

User-agent: *
Disallow: /*example

นอกจากนี้คุณยังสามารถใช้เครื่องหมายดอลลาร์เพื่อระบุว่า URL จะต้องจบด้วยวิธีนั้น ดังนั้นหากคุณต้องการปิดกั้น URL ทั้งหมดที่ลงท้ายด้วยexampleแต่ไม่ใช่ URL ที่มีที่exampleอื่นใน URL คุณสามารถใช้:

User-agent: *
Disallow: /*example$

ดูข้อมูลเชิงลึกเพิ่มเติมเกี่ยวกับ Google ได้ที่นี่: ข้อมูลจำเพาะของ Robots.txt , Bing ที่นี่: วิธีสร้างไฟล์ Robots.txtและมีคำแนะนำแบบโต้ตอบบน Moz ที่นี่


สมบูรณ์แบบ * ทำงานได้ดีผ่านการทดสอบในเครื่องมือเว็บมาสเตอร์ .. ขอบคุณสูงสุด ... :)
Sudheera Njs

ฉันขอเตือนไม่ให้ใช้คำสั่งแฟนซีเกินไปในไฟล์ robots.txt ของคุณ สิ่งเหล่านี้ยากมากที่จะทำการดีบักในภายหลัง พยายามทำให้สิ่งต่าง ๆ เรียบง่ายที่สุดเท่าที่จะทำได้ โปรดจำไว้ว่า robots.txt เป็นตัวพิมพ์เล็กและตัวพิมพ์ใหญ่ดังนั้นคุณอาจต้องเพิ่มคำสั่งเวอร์ชันอื่นขึ้นอยู่กับเว็บไซต์ของคุณ
John Mueller

จะดีถ้ารองรับ regex
SuperUberDuper
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.