มีวิธีการดาวน์โหลดเว็บเซิร์ฟเวอร์ทั้งหมด (และอาจเรียกเซิร์ฟเวอร์)?


0

ไม่ใช่แค่ไซต์และเนื้อหาฉันต้องการสร้างการโทรหาสคริปต์ในพื้นที่ ฯลฯ ฉันลองใช้ HTTracker และ wget แต่มันไม่ทำงาน

ตัวอย่างเช่นใช้ donjon.bin.sh


1
คุณไม่สามารถเรียกคืนไฟล์รหัสฝั่งเซิร์ฟเวอร์ได้หากนั่นคือสิ่งที่คุณหมายถึง
Der Hochstapler

คำตอบ:


4

ไม่มีวิธีใช้ HTTP ในการดาวน์โหลดเว็บไซต์ทั้งหมดถ้าบางส่วนของมันไม่คงที่เช่นที่สร้างโดยสคริปต์หรือโปรแกรมฝั่งเซิร์ฟเวอร์

โดยปกติคุณจะต้องมีบัญชีผู้ใช้ที่เป็นผู้ดูแลระบบและโดยทั่วไปจะใช้โปรโตคอลอื่นเช่น FTP เพื่อถ่ายโอนไซต์ นอกจากนี้คุณจะต้องมีวิธีการแยกเนื้อหาของฐานข้อมูลใด ๆ ที่ใช้


0

คุณจะมีปัญหาหากคุณพยายามดาวน์โหลดเว็บเซิร์ฟเวอร์ที่ไม่ใช่สคริปต์ฝั่งไคลเอ็นต์ 100% หากไซต์นั้นใช้สคริปต์ฝั่งเซิร์ฟเวอร์ (ruby, python, php, asp, ฯลฯ ) คุณจะสามารถดาวน์โหลดสิ่งที่เรนเดอร์และไม่ใช่ไฟล์ต้นฉบับจริงที่สร้างเนื้อหาฝั่งไคลเอ็นต์

คำค้นหาที่คุณอาจต้องการวิจัยคือการรวบรวมข้อมูลบนเว็บ ตัวอย่างเช่น Google ใช้ซอฟต์แวร์รวบรวมข้อมูลเพื่อแคชข้อมูลจากเว็บไซต์ หลายครั้งถ้าเว็บไซต์หายไปหรือถูกปิดคุณสามารถดู Google Cache ของครั้งล่าสุดที่มีข้อมูล มีประโยชน์สำหรับเว็บไซต์เนื้อหาเก่าที่ไม่มีอยู่อีกต่อไป

http://en.wikipedia.org/wiki/Web_crawler

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.