คำถามติดแท็ก wget

GNU Wget (หรือ Wget เดิมชื่อ Geturl) เป็นโปรแกรมคอมพิวเตอร์ที่ดึงเนื้อหาจากเว็บเซิร์ฟเวอร์และเป็นส่วนหนึ่งของโครงการ GNU ชื่อนี้ได้มาจากเวิลด์ไวด์เว็บและได้รับ รองรับการดาวน์โหลดผ่านโปรโตคอล HTTP, HTTPS และ FTP

4
ทำไมถึงแขวน
ไปที่ url ที่เจาะจงหนึ่งอันจากเซิร์ฟเวอร์ของฉันเพื่อให้หมดเวลา URL อื่น ๆ ทั้งหมดจากช่องนี้ใช้งานได้ดี URL นี้ใช้งานได้ดีจากกล่องอื่น ๆ ที่ฉันมี นี่คือผลลัพธ์: wget -T 10 http://www.fcc-fac.ca --2011-07-14 14:44:29-- http://www.fcc-fac.ca/ Resolving www.fcc-fac.ca... 65.87.238.35, 207.195.108.140 Connecting to www.fcc-fac.ca|65.87.238.35|:80... failed: Connection timed out. Connecting to www.fcc-fac.ca|207.195.108.140|:80... failed: Connection timed out คุณบอกฉันได้ไหมว่ามีอะไรผิดปกติและฉันจะแก้ไขปัญหาได้อย่างไร ฉันใช้ Ubuntu 11.04 (GNU / Linux 2.6.38-8-server x86_64) ขอบคุณล่วงหน้ามากและให้อภัยฉันไม่รู้ noobish :) ping, …
12 ubuntu  wget 

5
WGET ไม่สามารถแก้ไขโฮสต์ได้
ฉันมี 2 เครื่องในเครือข่ายย่อยเดียวกันที่ใช้ Debian 5.0 พวกเขาใช้ DNS เดียวกัน (/etc/resolv.conf) พวกเขากำหนดเส้นทางไปที่เกตเวย์เดียวกัน (#route) และพวกเขามีการตั้งค่า iptables เดียวกัน (#iptables -L) ฉันสามารถ ping จากทั้งสองอย่างทั้งที่อยู่ IP และชื่อโฮสต์ ฉันสามารถใช้งาน #host www.google.com และรับผลลัพธ์เดียวกันทั้งคู่ แต่ปัญหาคือว่าหนึ่งในนั้นฉันไม่สามารถ wget หรือขด ดังนั้นในเครื่อง 1 ทุกอย่างก็โอเค แต่บนเครื่อง 2 (ด้วยการตั้งค่าเดียวกับเครื่อง 1) ฉันไม่สามารถ wget หรือขด ข้อผิดพลาดที่ฉันได้รับคือ: # wget google.com --2009-10-20 16:38:36-- http://google.com/ Resolving google.com... failed: Name or …

2
วิธีการยกเว้นไดเรกทอรีบางอย่างในขณะที่ใช้ wget
ฉันต้องการดาวน์โหลดไดเรกทอรีจาก FTP ซึ่งมีซอร์สโค้ดบางตัว เริ่มแรกฉันทำสิ่งนี้: wget -r ftp://path/to/src น่าเสียดายที่ตัวไดเรกทอรีเองนั้นเป็นผลมาจากการชำระเงินแบบ SVN ดังนั้นจึงมีไดเรกทอรี. svn จำนวนมากและการรวบรวมข้อมูลมากกว่านั้นจะใช้เวลานานกว่า เป็นไปได้ไหมที่จะไม่รวมไดเรกทอรี. svn เหล่านั้น
12 wget  exclude 

3
ฉันจะทำให้ wget ดาวน์โหลดเฉพาะหน้าที่ไม่ใช่ css images และอื่น ๆ ได้อย่างไร?
ฉันต้องการดาวน์โหลดทั้งเว็บไซต์โดยใช้ wget แต่ฉันไม่ต้องการให้ดาวน์โหลดรูปภาพวิดีโอ ฯลฯ ฉันเหนื่อย wget -bqre robots=off -A.html example.com –user-agent=”Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.6) Gecko/20070725 Firefox/2.0.0.6″ แต่เมื่อฉันทำเช่นนั้นมันจะไม่ดาวน์โหลดไฟล์. php เพียงแค่ดาวน์โหลดไฟล์. html แบบคงที่ มีวิธีแก้ปัญหานี้ด้วย wget หรือไม่?
10 linux  wget 

1
ฉันจะส่งออกท่อของ uptime / df ไปยังขดได้อย่างไร
ฉันต้องการส่งเอาต์พุตuptimeและdfคำสั่งไปยังเว็บแอปโดยใช้ cURL ฉันเหนื่อย: uptime | curl http://someurl.com -T - แต่ดูเหมือนจะไม่ส่งข้อมูล วิธีที่เหมาะสมในการส่งเอาต์พุตของคำสั่งไปยัง cURL เป็นพารามิเตอร์ POST คืออะไร? (หรือว่าถ้ามันง่ายกว่านี้)
10 linux  curl  wget  pipe 

3
วิธีการติดตั้ง wget ในสิ่งนี้?
ฉันดาวน์โหลดRubyStack 2.0.3 สำหรับ VMWare (Ubuntu 9.10) แล้วแต่ฉันไม่สามารถดาวน์โหลดอะไรได้เลย! ดูเหมือนว่าสาธารณูปโภคพื้นฐานทั้งหมดจะหายไป / เมา: bitnami@linux:/var/tmp$ wget -bash: wget: command not found bitnami@linux:/var/tmp$ curl curl: error while loading shared libraries: libcurl.so.4: cannot open shared obj ect file: No such file or directory bitnami@linux:/var/tmp$ man wget -bash: man: command not found bitnami@linux:/var/tmp$ sudo apt-get install wget …
10 ubuntu-9.10  wget 

6
ดาวน์โหลดแบบเรียกซ้ำ แต่ฉันไม่ต้องการติดตามทุกลิงก์
ฉันพยายามทำเว็บไซต์โดยใช้ wget แต่ฉันไม่ต้องการดาวน์โหลดไฟล์จำนวนมากดังนั้นฉันจึงใช้--rejectตัวเลือกของ wget เพื่อไม่บันทึกไฟล์ทั้งหมด อย่างไรก็ตาม wget จะยังคงดาวน์โหลดไฟล์ทั้งหมดแล้วลบไฟล์ในภายหลังหากตรงกับตัวเลือกการปฏิเสธของฉัน มีวิธีบอกไม่ให้ติดตามลิงค์บางอย่างถ้ามันตรงกับสัญลักษณ์ตัวแทนเชลล์หรือไม่? หาก wget ไม่สามารถทำได้มีคำสั่ง linux ทั่วไปอื่น ๆ ที่สามารถทำได้หรือไม่

6
วิธีการอนุญาตให้ wget เขียนทับไฟล์
ล็อคแล้ว คำถามและคำตอบของคำถามนี้ถูกล็อคเนื่องจากคำถามอยู่นอกหัวข้อ แต่มีความสำคัญทางประวัติศาสตร์ ขณะนี้ไม่ยอมรับคำตอบหรือการโต้ตอบใหม่ การใช้wgetคำสั่งฉันจะอนุญาต / สั่งให้เขียนทับไฟล์ในเครื่องของฉันทุกครั้งได้อย่างไรโดยไม่คำนึงถึงจำนวนครั้งที่ฉันเรียกใช้ สมมติว่าฉันต้องการดาวน์โหลดไฟล์จากที่ตั้ง: http: //server/folder/file1.html ที่นี่เมื่อใดก็ตามที่ฉันบอกว่าwget http://server/folder/file1.htmlฉันต้องการfile1.htmlให้มันถูกเขียนทับในระบบท้องถิ่นของฉันโดยไม่คำนึงถึงเวลาที่มีการเปลี่ยนแปลงดาวน์โหลดแล้ว ฯลฯ ความตั้งใจของฉัน / กรณีการใช้ที่นี่คือเมื่อฉันโทร wget ฉันมั่นใจมากว่าฉันต้องการ เพื่อแทนที่ / เขียนทับไฟล์ที่มีอยู่ ฉันได้ลองใช้ตัวเลือกต่อไปนี้แล้ว แต่ตัวเลือกแต่ละตัวนั้นมีวัตถุประสงค์ / ตั้งใจเพื่อวัตถุประสงค์อื่น -nc => - ไม่มีการอุดตัน -N => เปิดการประทับเวลา -r => เปิดการเรียกซ้ำ

2
ถ่ายโอนไฟล์ 30GB tar จากเซิร์ฟเวอร์ระยะไกลหนึ่งไปยังอีกเซิร์ฟเวอร์หนึ่ง - ถูก จำกัด โดยพื้นที่ดิสก์
ฉันมีไฟล์ tar "Moodle" ขนาด 38GB ซึ่งฉันต้องโอนจากเซิร์ฟเวอร์เก่า (Shared hosting) ซึ่งเราสามารถเรียก "Server A" ไปยังเซิร์ฟเวอร์ใหม่ (Dedicated virtual) หรือ "Server B" ฉันอยู่กับ Mediatemple ถ้าช่วยได้ ฉันได้ tarballed ไดเรกทอรีและใช้ wget เพื่อโอนไปยังเซิร์ฟเวอร์ B ผ่าน SSH อย่างไรก็ตาม - มันเป็นแพคเกจ 100GB ที่อ่อนแอและฉันมีความจุของดิสก์ 96% - หมายความว่าฉันไม่สามารถปลดไฟล์บนเซิร์ฟเวอร์ B! มีวิธีใดบ้างที่ฉันสามารถถ่ายโอนไฟล์ขนาดใหญ่นี้จากเซิร์ฟเวอร์ A ไปยังเซิร์ฟเวอร์ B รักษาสิทธิ์และมีโอกาสน้อยที่สุดที่ไฟล์เสียหายซึ่งจะไม่ทำให้ฉันถึงขีด จำกัด ของดิสก์ แม้ว่าฉันจะใช้เวลาไปกับการทำสิ่งนี้มาตลอด แต่ฉันก็ยินดีที่จะละทิ้งแผนเดิมของฉันหากมีใครสามารถเสนอแนวคิดที่ดีกว่านี้ได้และฉันจะขอบคุณมาก!
8 files  tar  wget 

1
หยุดการโลคัลไฟล์โลคัลเซิร์ฟเวอร์ไม่พร้อมใช้งาน
ฉันมีงาน cron บนเซิร์ฟเวอร์ซึ่งวันละครั้งใช้wgetเพื่อดาวน์โหลด "พารามิเตอร์การวางแนวของโลก" และข้อมูล leapsecond จากเซิร์ฟเวอร์ของนาซา โดยเฉพาะ: wget https://gemini.gsfc.nasa.gov/500/oper/solve_apriori_files/usno_finals.erp -O .eops wget https://gemini.gsfc.nasa.gov/500/oper/solve_apriori_files/ut1ls.dat -O .ut1ls มันใช้งานได้ดี อย่างไรก็ตามดูเหมือนว่าเมื่อเซิร์ฟเวอร์ไม่พร้อมใช้งานให้wgetปิดบังไฟล์ในเครื่องของฉัน (ขนาดไฟล์ 0) มีอยู่แล้วที่จะบอกwgetให้ยกเลิกหากเซิร์ฟเวอร์ไม่พร้อมใช้งานและปล่อยให้ไฟล์โลคัลไม่ได้รับผลกระทบ (ไฟล์มีคำทำนายของสองสามเดือนดังนั้นจึงขาดการอัปเดตสองสามวันจนกว่าเซิร์ฟเวอร์จะกลับมาไม่มีปัญหา)
-1 wget 
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.