HTTP ไม่ได้มีความคิดของไดเรกทอรีจริงๆ เครื่องหมายทับที่ไม่ใช่สามข้อแรก ( http://example.com/
) ไม่มีความหมายพิเศษใด ๆ ยกเว้นที่เกี่ยวข้องกับ..
ใน URL สัมพัทธ์ ดังนั้นหากเซิร์ฟเวอร์ตามรูปแบบเฉพาะไม่มีวิธีการ "ดาวน์โหลดไฟล์ทั้งหมดในไดเรกทอรีที่ระบุ"
หากคุณต้องการดาวน์โหลดทั้งไซต์ทางออกที่ดีที่สุดของคุณคือสำรวจลิงค์ทั้งหมดในหน้าหลักซ้ำ ๆ Curl ไม่สามารถทำได้ แต่สามารถทำได้ สิ่งนี้จะใช้งานได้หากเว็บไซต์ไม่ได้มีการเปลี่ยนแปลงมากเกินไป (โดยเฉพาะอย่างยิ่ง wget จะไม่เห็นลิงก์ที่สร้างขึ้นด้วยรหัส Javascript) เริ่มต้นด้วยwget -r http://example.com/
และดูภายใต้“ ตัวเลือกการเรียกซ้ำแบบเรียกซ้ำ” และ“ ตัวเลือกการยอมรับ / ปฏิเสธแบบเรียกซ้ำ” ในคู่มือ wget เพื่อดูตัวเลือกที่เกี่ยวข้องเพิ่มเติม (ความลึกแบบเรียกซ้ำรายการการยกเว้นเป็นต้น)
หากเว็บไซต์พยายามบล็อกการดาวน์โหลดอัตโนมัติคุณอาจต้องเปลี่ยนสตริงตัวแทนผู้ใช้ ( -U Mozilla
) และละเว้นrobots.txt
(สร้างไฟล์ว่างexample.com/robots.txt
และใช้-nc
ตัวเลือกเพื่อไม่ให้พยายามดาวน์โหลดจากเซิร์ฟเวอร์)