ค้นหาไฟล์และดาวน์โหลด (ม้วน, grep, wget?)


-1

ฉันกำลังพยายามตั้งค่าคำสั่งด้วย curl และ grep ที่ให้ฉันค้นหารูปแบบเฉพาะบนเว็บไซต์และดาวน์โหลดลิงก์เป้าหมาย

ฉันได้ลองวิธีนับไม่ถ้วนกับขด wget และอะไร แต่ไม่สามารถหาทางออก งานวิจัยของฉันก็มีประโยชน์เช่นกัน

ดังนั้นสิ่งที่ฉันพยายามทำคือ:

ค้นหาเว็บไซต์ ( http://ci.athion.net/job/FastAsyncWorldEdit/lastStableBuild/ ) สำหรับทุกไฟล์ที่ขึ้นต้นด้วย "FastAsyncWorldEdit-bukkit-" และลงท้ายด้วย ".jar" แล้วบันทึกเป็นอะไรก็ตาม

บทเรียนที่ฉันพบดูเหมือนจะไม่ทำงานกับเจนกินส์

ขอบคุณสำหรับความช่วยเหลือใด ๆ !


คุณต้องการบันทึกไฟล์ทุกไฟล์เป็นwhatever.jarอย่างไร?
gronostaj

ขออภัยสำหรับความไม่ชัดเจนเกี่ยวกับเรื่องนี้เช่นผู้ใช้ 199239 แล้วคิดว่ามีเพียงหนึ่งไฟล์ที่ตรงกับเกณฑ์
FCS

คำตอบ:


0

เท่าที่ฉันเห็นอย่างถูกต้องบนหน้าเป็นไฟล์ jar เพียงไฟล์เดียวที่เหมาะกับเกณฑ์ของคุณ
นี่คือหนึ่งซับที่น่ารังเกียจที่ทำงาน

wget -c $(curl -s http://ci.athion.net/job/FastAsyncWorldEdit/lastStableBuild/ | tr '=' '\n' | grep FastAsyncWorldEdit-bukkit- | awk -F '"' '{ printf "http://ci.athion.net/job/FastAsyncWorldEdit/lastStableBuild/" $2"\n"}' | grep 'jar$')

ที่สมบูรณ์แบบ! สิ่งที่ฉันพยายามทำให้สำเร็จ
FCS

โอมีโอกาสใดที่คุณสามารถอธิบายให้ฉันว่าเกิดอะไรขึ้นที่นี่ เพราะฉันสับสนแล้วตอนนี้ทำไมมันถึงใช้งานได้ แต่สิ่งนี้: wget $(curl http://builds.enginehub.org/job/worldedit/last-successful?branch=master | tr '=' '\n' | grep worldedit-bukkit | awk -F '"' '{ printf "http://builds.enginehub.org/job/worldedit/last-successful?branch=master" $2"\n"}' | grep 'jar$') เคยชิน?
FCS

ฉันมีสิ่งนี้ทำงานให้ฉันตอนนี้ แต่พระเยซูคริสต์ฉันไม่สามารถรับสิ่งนั้น: / curl -L - บีบอัด(curl --compressed "http://builds.enginehub.org/job/worldedit/last-successful?branch=master" 2> /dev/null | grep -o '<a .*href=.*>' | sed -e 's/<a /\n<a /g' | grep worldedit-bukkit | sed -e 's/<a .*href=['"'"'"]//' -e 's/["'"'"'].*$//' -e '/^$/ d')> worldedit.jar 2> / dev / null ... ฉันไม่ได้ใส่มันในรหัสเพราะฉันไม่รู้วิธี เพื่อหลีกเลี่ยงการ "` "อยู่ในนั้น ...
FCS

0

มี Permalink ในหน้าเผยแพร่ซึ่งอาจจะง่ายกว่า: https://github.com/boy0001/FastAsyncWorldedit/releases/

นอกจากนี้ awk ยังเชื่อม url กับลิงค์ที่พบ แต่หน้าสองใช้เส้นทางสัมบูรณ์ดังนั้นคุณจึงไม่ต้องการเข้าร่วม:

wget -c $(curl -s http://builds.enginehub.org/job/worldedit/last-successful?br‌​anch=master/ | tr '=' '\n' | grep worldedit-bukkit- | awk -F '"' '{ printf $2"\n"}' | grep 'jar$')
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.