โดยเฉพาะฉันต้องการดาวน์โหลดบางหน้าจากโปรไฟล์ผู้ใช้ของฉันในเว็บไซต์ Stack Exchange ต่างๆ อย่างไรก็ตามฉันต้องการทำสิ่งนี้โดยอัตโนมัติ (ใช้cron
งาน) จากบรรทัดคำสั่งและในรูปแบบแยกวิเคราะห์ ฉันชอบใช้ Linux มากสำหรับสิ่งนี้ แต่ฉันสามารถเข้าถึงเครื่อง Mac หรือ Windows ได้ถ้าจำเป็น
โดยหลักการแล้วฉันต้องการใช้เครื่องมือเช่นWgetหรือcURLเพื่อดึงข้อมูลหน้าเว็บ ฉันไม่รู้ว่าจะผ่านการเข้าสู่ระบบได้อย่างไร ฉันเห็นคำแนะนำที่ระบุว่าคุณสามารถเข้าสู่ระบบผ่าน Firefox ส่งออกคุกกี้ที่เกี่ยวข้องและนำเข้าสู่ Wget ผ่าน--load-cookies
ตัวเลือก ยกตัวอย่างเช่นที่นี่และที่นี่ ขณะนี้ใช้งานได้หากฉันเพิ่งเข้าสู่ระบบ แต่หลังจากนั้นไม่นาน ฉันเดาเพราะโทเค็น ID ต้องได้รับการรีเฟรช
ดังนั้นหลังจากเข้าสู่ระบบ SU และส่งออกคุกกี้ของฉันฉันสามารถทำได้:
wget --load-cookies cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
หลังจากผ่านไปสองสามนาทีฉันได้รับข้อผิดพลาด 404:
wget -O ~/stack/$(date +%s) --load-cookies ~/cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
--2013-08-06 04:04:14-- https://superuser.com/users/151431/terdon?tab=responses
Resolving superuser.com (superuser.com)... 198.252.206.16
Connecting to superuser.com (superuser.com)|198.252.206.16|:80... connected.
HTTP request sent, awaiting response... 404 Not Found
2013-08-06 04:04:15 ERROR 404: Not Found.
ดังนั้นฉันจะเข้าสู่เว็บไซต์ที่เปิดใช้งาน OpenID โดยอัตโนมัติจากบรรทัดคำสั่งได้อย่างไร
PS ฉันคิดว่าสิ่งนี้เหมาะสมกว่าในเว็บแอปพลิเคชันเนื่องจากคำถามของฉันเกี่ยวกับลักษณะของบรรทัดคำสั่งไม่ใช่รายละเอียดที่แท้จริงของหน้าเว็บที่เป็นปัญหา ฉันเดาว่าโซลูชันใด ๆ จะสามารถใช้ได้กับไซต์OpenIDทั้งหมด