คำถามติดแท็ก download

3
ความแตกต่างระหว่างขดและ wget คืออะไร?
ผมกระตือรือร้นที่จะทราบความแตกต่างระหว่างและcurl wgetทั้งสองใช้เพื่อรับไฟล์และเอกสาร แต่สิ่งที่สำคัญแตกต่างกัน เหตุใดจึงมีสองโปรแกรมที่แตกต่างกัน
258 utilities  wget  curl  download 

3
เค้นความเร็วในการดาวน์โหลดของ wget หรือขดขณะดาวน์โหลด
เป็นไปได้ไหมที่จะ จำกัด ความเร็วในการดาวน์โหลดของwgetหรือcurl? เป็นไปได้หรือไม่ที่จะเปลี่ยนค่าเค้นในขณะที่กำลังดาวน์โหลด?

8
จะดาวน์โหลดโฟลเดอร์จากไดรฟ์ google โดยใช้เทอร์มินัลได้อย่างไร
ฉันต้องการดาวน์โหลดโฟลเดอร์จากไดรฟ์ google โดยใช้เทอร์มินัลหรือไม่ มีวิธีใดที่จะทำเช่นนั้น? ฉันลองสิ่งนี้: $ wget "https://drive.google.com/folderview?id=0B-Zc9K0k9q-WWUlqMXAyTG40MjA&usp=sharing" แต่มันกำลังดาวน์โหลดไฟล์ข้อความนี้: folderview?id=0B-Zc9K0k9q-WdEY5a1BCUDBaejQ&usp=sharing. มีวิธีการดาวน์โหลดโฟลเดอร์ google ไดรฟ์จากสถานีหรือไม่
59 wget  download 

2
ฉันจะกระจายการดาวน์โหลดขนาดใหญ่ผ่านคอมพิวเตอร์หลายเครื่องได้อย่างไร
ฉันต้องดาวน์โหลดไฟล์ขนาดใหญ่ (1GB) ฉันยังสามารถเข้าถึงคอมพิวเตอร์หลายเครื่องที่ใช้ Linux แต่แต่ละเครื่องถูก จำกัด ความเร็วในการดาวน์โหลด 50kB / s โดยนโยบายการดูแลระบบ ฉันจะกระจายการดาวน์โหลดไฟล์นี้ในคอมพิวเตอร์หลายเครื่องและรวมไฟล์เหล่านั้นหลังจากดาวน์โหลดกลุ่มทั้งหมดเพื่อให้ฉันสามารถรับได้เร็วขึ้น

2
การดาวน์โหลดต่อไม่สำเร็จโดยใช้เครื่องมือบรรทัดคำสั่ง Linux
ฉันจะเรียกคืนไฟล์ที่ดาวน์โหลดบางส่วนโดยใช้เครื่องมือ commandline Linux ได้อย่างไร ฉันดาวน์โหลดไฟล์ขนาดใหญ่บางส่วนเช่น 400 MB จาก 900 MB เนื่องจากการขัดจังหวะการใช้พลังงาน แต่เมื่อฉันเริ่มดาวน์โหลดอีกครั้งจะกลับมาเริ่มต้นใหม่ ฉันจะเริ่มจาก 400 MB ได้อย่างไร
37 wget  curl  download 

3
ฉันจะใช้ wget กับรายการ URL และไฟล์เอาต์พุตที่เกี่ยวข้องได้อย่างไร
สมมติว่าlist_of_urlsมีลักษณะเช่นนี้: http://www.url1.com/some.txt http://www.url2.com/video.mp4 ฉันรู้วิธีใช้สิ่งนั้นด้วย: wget -i list_of_urls แต่ถ้าฉันlist_of_urlsมีสิ่งนี้และพวกเขาทั้งหมดกลับไฟล์ที่เหมาะสมเช่น PDF หรือวิดีโอ: http://www.url1.com/app?q=123&gibb=erish&gar=ble http://www.url2.com/app?q=111&wha=tcha&mac=allit สำหรับไฟล์เดียวฉันสามารถทำได้: wget -O some.txt "http://www.url1.com/app?q=123&gibb=erish&gar=ble" ฉันจะใช้wgetเพื่อดาวน์โหลดรายการ URL นั้นและบันทึกข้อมูลที่ส่งคืนไปยังไฟล์ในเครื่องที่เหมาะสมได้อย่างไร
35 files  wget  download  links 

5
จะดาวน์โหลดแพ็คเกจไม่ได้ติดตั้งด้วยคำสั่ง apt-get?
sudo apt-get install pppoe จะดาวน์โหลดpppoeแพ็คเกจและติดตั้ง เป็นไปได้หรือไม่ที่จะดาวน์โหลดpppoeแพ็คเกจและไม่ติดตั้งด้วยapt-getคำสั่ง? wget http://ftp.us.debian.org/debian/pool/main/p/ppp/ppp_2.4.7-1+4_amd64.deb ppp_2.4.7-1+4_amd64.deb อยู่ในไดเรกทอรีปัจจุบันทันที cd /tmp sudo apt-get install -d ppp Reading package lists... Done Building dependency tree Reading state information... Done The following NEW packages will be installed: ppp 0 upgraded, 1 newly installed, 0 to remove and 95 not upgraded. Need to …
32 apt  download 

7
ดาวน์โหลดไฟล์ขนาดใหญ่ผ่านการเชื่อมต่อที่ไม่ดี
มีเครื่องมือที่มีอยู่ซึ่งสามารถใช้ดาวน์โหลดไฟล์ขนาดใหญ่ผ่านการเชื่อมต่อที่ไม่ดีได้หรือไม่? ฉันต้องดาวน์โหลดไฟล์ที่ค่อนข้างเล็กเป็นประจำ: 300 MB แต่การเชื่อมต่อ TCP ที่ช้า (80-120 KBytes / วินาที) จะหยุดพักแบบสุ่มหลังจาก 10-120 วินาที (เป็นเครือข่ายของ บริษัท ใหญ่เราติดต่อผู้ดูแลระบบของพวกเขา (ทำงานจากอินเดีย) หลายครั้ง แต่พวกเขาไม่สามารถหรือไม่ต้องการทำอะไรเลย) ปัญหาอาจเกิดจากพร็อกซี / โหลดบาลานเซอร์ย้อนกลับของพวกเขา จนถึงตอนนี้ฉันใช้ pcurl รุ่นที่แก้ไขแล้ว: https://github.com/brunoborges/pcurl ฉันเปลี่ยนบรรทัดนี้: curl -s --range ${START_SEG}-${END_SEG} -o ${FILENAME}.part${i} ${URL} & สำหรับสิ่งนี้: curl -s --retry 9999 --retry-delay 3 --speed-limit 2048 --speed-time 10 \ --retry-max-time 0 …
30 curl  http  download 

4
wget - วิธีดาวน์โหลดแบบซ้ำ ๆ และเฉพาะประเภท mime / ส่วนขยายที่เฉพาะเจาะจง (เช่นข้อความเท่านั้น)
วิธีดาวน์โหลดเว็บไซต์แบบเต็ม แต่ไม่ต้องสนใจไฟล์ไบนารีทั้งหมด wgetมีฟังก์ชั่นนี้ใช้การ-rตั้งค่าสถานะ แต่มันดาวน์โหลดทุกอย่างและบางเว็บไซต์มีมากเกินไปสำหรับเครื่องที่มีทรัพยากรต่ำและมันไม่ได้ใช้งานด้วยเหตุผลเฉพาะที่ฉันดาวน์โหลดเว็บไซต์ นี่คือบรรทัดคำสั่งที่ฉันใช้: wget -P 20 -r -l 0 http://www.omardo.com/blog(บล็อกของตัวเอง)

2
ดาวน์โหลดไฟล์และสร้างโครงสร้างไฟล์เดียวกับแหล่งที่มา
ฉันมีไฟล์ปรับแต่งซึ่งประกอบด้วยรายการของ URIs ที่ฉันต้องการดาวน์โหลด ตัวอย่างเช่น, http://xyz.abc.com/Dir1/Dir3/sds.exe http://xyz.abc.com/Dir2/Dir4/jhjs.exe http://xyz.abc.com/Dir1/itr.exe ฉันต้องการอ่านไฟล์กำหนดค่าและคัดลอกแต่ละ URL แต่ในขณะเดียวกันก็สร้างโครงสร้างไดเรกทอรีเช่นเดียวกับบนโฮสต์ ตัวอย่างเช่นสำหรับบรรทัดแรกในไฟล์กำหนดค่าฉันต้องการสร้างโครงสร้างไดเรกทอรี Dir1 / Dir3 บนเครื่องของฉัน (ถ้าไม่มี) จากนั้นคัดลอก sds.exe ไปที่ ... / Dir1 / Dir3 / ฉันพบว่าฉันสามารถดาวน์โหลด URL ทั้งหมดในไฟล์โดยใช้ 'wget -i' แต่ฉันจะสร้างโครงสร้างไดเรกทอรีที่สอดคล้องกับสิ่งนั้นได้อย่างไร


7
เครื่องมือบรรทัดคำสั่งสำหรับการดาวน์โหลดฝนตกหนัก (เช่น wget หรือ curl)
ฉันสนใจในคำสั่งเดียวที่จะดาวน์โหลดเนื้อหาของ torrent (และอาจมีส่วนร่วมในฐานะ seed หลังจากดาวน์โหลดจนกว่าฉันจะหยุดมัน) โดยปกติจะมี daemon ฝนตกหนักไคลเอ็นต์ซึ่งควรเริ่มต้นแยกต่างหากก่อนและไคลเอนต์เพื่อควบคุม (เช่นtransmission-remote) แต่ฉันกำลังมองหาความเรียบง่ายของwgetหรือcurl: ให้หนึ่งคำสั่งรับผลหลังจากที่ในขณะ

1
ดำเนินการต่อกับไฟล์ที่ดาวน์โหลด aria2 โดยใช้ไฟล์ * .aria2
ฉันมีไฟล์ที่ดาวน์โหลดมาด้วย aria2 บางส่วน .aria2ถัดไปเป็นไฟล์ที่มีปลายที่มีชื่อเดียวกันกับ ฉันไม่รู้ลิงค์ดาวน์โหลด ฉันมีแค่สองไฟล์เท่านั้น ฉันต้องการทราบว่าฉันจะดาวน์โหลดต่อในสถานการณ์นี้ได้อย่างไร หมายเหตุ: *.aria2สร้างขึ้นข้างไฟล์ดาวน์โหลดและยังคงอยู่จนกว่าการดาวน์โหลดจะเสร็จสิ้น
13 download  aria2 

2
มีวิธีบรรทัดคำสั่งที่ฉันสามารถตรวจสอบว่าไฟล์ที่ดาวน์โหลดมานั้นสมบูรณ์หรือไม่?
ฉันกำลังเขียนสคริปต์ที่เกี่ยวข้องกับการดาวน์โหลดและการจัดการไฟล์และฉันต้องการให้แน่ใจว่าไฟล์ไม่สมบูรณ์ (เนื่องจากการเชื่อมต่อที่ลดลง) ก่อนที่ฉันจะทำงานกับมัน

2
Wget: แปลงลิงค์และหลีกเลี่ยงการดาวน์โหลดไฟล์ที่ดึงมาแล้ว?
ฉันกำลังดาวน์โหลดข้อมูลที่แพร่กระจายในหลาย ๆ ไฟล์ที่ไม่เปลี่ยนแปลงเมื่อเผยแพร่ ดังนั้นจึง--timestampingไม่ดีพอเพราะมันคอยตรวจสอบทรัพยากรที่เปลี่ยนแปลงอยู่ตลอดเวลาซึ่งในกรณีของฉันไม่มีจุดหมายอย่างสมบูรณ์ --no-clobberจะพอดีอย่างสมบูรณ์แบบ น่าเสียดายที่มันใช้งานไม่ได้ด้วย--convert-links เหตุผลบางอย่าง มีการระบุทั้ง - Clobber และ --convert-links เฉพาะ --convert-links เท่านั้น ฉันหวังว่า--backup-convertedจะช่วยได้ แต่มันก็ไม่ได้เปลี่ยนอะไรเลย (ใช้งาน--timestampingได้) ทำไมwget --convert-links --backup-converted --no-clobber --wait 1 https://example.comไม่สนใจ--no-clobberและจะแก้ไขอย่างไร
12 wget  download 

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.