คำถามติดแท็ก http

ทุกอย่างเกี่ยวกับโปรแกรมและบริการที่ใช้ Hypertext Transfer Protocol

19
เซิร์ฟเวอร์บรรทัดคำสั่ง HTTP แบบง่าย
ฉันมีสคริปต์ที่สร้างรายงานรายวันซึ่งฉันต้องการให้บริการแก่สาธารณชนทั่วไปที่เรียกว่า ปัญหาคือฉันไม่ต้องการเพิ่มการบำรุงรักษาอาการปวดหัวของเซิร์ฟเวอร์ HTTP (เช่น Apache) ด้วยการกำหนดค่าทั้งหมดและผลกระทบด้านความปลอดภัย มีวิธีแก้ปัญหาง่าย ๆ สำหรับการแสดงหน้า HTML ขนาดเล็กเพียงหน้าเดียวโดยไม่ต้องพยายามกำหนดค่าเซิร์ฟเวอร์ HTTP แบบเต็มหรือไม่

9
ฉันจะได้รับชื่อเว็บไซต์โดยใช้บรรทัดคำสั่งได้อย่างไร
ฉันต้องการโปรแกรมบรรทัดคำสั่งที่พิมพ์ชื่อของเว็บไซต์ ตัวอย่างเช่น: Alan:~ titlefetcher http://www.youtube.com/watch?v=Dd7dQh8u4Hc ควรให้: Why Are Bad Words Bad? คุณให้มัน URL และมันจะพิมพ์ชื่อ
50 command-line  web  http 

7
ฉันสามารถสร้างการแทนที่ dns ที่คล้ายกับการเขียนใน / etc / hosts โดยไม่ต้องเข้าถึงรูท
ฉันต้องการตั้งค่าระเบียน dns ที่เบราว์เซอร์ของฉันจะใช้ แต่ฉันไม่มีสิทธิ์เข้าถึงระดับรากดังนั้นฉันจึงไม่สามารถแก้ไข/etc/hostsได้ ฉันต้องทำสิ่งนี้เพื่อทดสอบ vhosts ด้วย apache ซึ่ง dns ยังไม่ได้ตั้งค่า ฉันมีสิทธิ์เข้าถึง firefox และ chrome ดังนั้นหากมีปลั๊กอินที่สามารถอำนวยความสะดวกได้ หรือตัวเลือกอื่น ๆ มีประโยชน์ update:ทางเลือกในการแทนที่ dns น่าจะเป็นการแก้ไขส่วนหัว HTTP หากสิ่งที่ถูกต้องถูกส่งไปยัง apache เนื้อหาที่ถูกต้องควรถูกส่งคืน

4
เปลี่ยน Apache httpd“ เซิร์ฟเวอร์:” ส่วนหัว HTTP
หนึ่งในส่วนหัว HTTP ที่Apachehttpdส่งกลับมาพร้อมกับข้อมูลการตอบกลับคือ "เซิร์ฟเวอร์" ตัวอย่างเช่นเครื่องเว็บเซิร์ฟเวอร์ของฉันเป็น Arch Linux ที่ค่อนข้างทันสมัย มันส่งกลับส่วนหัวคล้ายคล้ายต่อไปนี้: HTTP/1.1 404 Not Found Date: Thu, 10 Apr 2014 17:19:27 GMT Server: Apache/2.4.9 (Unix) Content-Length: 1149 Connection: close Content-Type: text/html ฉันมีServerSignature offใน/etc/httpd/conf/httpd.confแต่ "เซิร์ฟเวอร์:" ส่วนหัวยังคงปรากฏ ฉันได้ทดลองกับ mod_headers ฉันเปิดใช้งานแล้วและฉันลองทำบางสิ่ง: <IfModule headers_module> Header set ProcessingTime "%D" Header set Server BigJohn </IfModule> หลังจากหยุดและเริ่ม httpdด้วยการกำหนดค่าข้างต้นส่วนหัว HTTP …

7
ดาวน์โหลดไฟล์ขนาดใหญ่ผ่านการเชื่อมต่อที่ไม่ดี
มีเครื่องมือที่มีอยู่ซึ่งสามารถใช้ดาวน์โหลดไฟล์ขนาดใหญ่ผ่านการเชื่อมต่อที่ไม่ดีได้หรือไม่? ฉันต้องดาวน์โหลดไฟล์ที่ค่อนข้างเล็กเป็นประจำ: 300 MB แต่การเชื่อมต่อ TCP ที่ช้า (80-120 KBytes / วินาที) จะหยุดพักแบบสุ่มหลังจาก 10-120 วินาที (เป็นเครือข่ายของ บริษัท ใหญ่เราติดต่อผู้ดูแลระบบของพวกเขา (ทำงานจากอินเดีย) หลายครั้ง แต่พวกเขาไม่สามารถหรือไม่ต้องการทำอะไรเลย) ปัญหาอาจเกิดจากพร็อกซี / โหลดบาลานเซอร์ย้อนกลับของพวกเขา จนถึงตอนนี้ฉันใช้ pcurl รุ่นที่แก้ไขแล้ว: https://github.com/brunoborges/pcurl ฉันเปลี่ยนบรรทัดนี้: curl -s --range ${START_SEG}-${END_SEG} -o ${FILENAME}.part${i} ${URL} & สำหรับสิ่งนี้: curl -s --retry 9999 --retry-delay 3 --speed-limit 2048 --speed-time 10 \ --retry-max-time 0 …
30 curl  http  download 

4
ฉันจะเล่นสตรีมเพลง HTTP บน SSH ได้อย่างไร
ฉันรู้ว่าฉันสามารถทำได้mplayer <stream>เพื่อเปิดและเล่นสตรีมบนเครื่องท้องถิ่น อย่างไรก็ตามฉันอยู่หลังไฟร์วอลล์ แต่ผมอยากจะเปิดสตรีมบนที่เครื่องระยะไกลแต่ก็ยังเล่นได้ในนี้ การเชื่อมต่อระยะไกลเป็นสิ่งที่SSHใช้ แต่การssh "mplayer <stream>"เปิดและเล่นกระแสข้อมูลบนรีโมทนั้น การ-xตั้งค่าสถานะSSH ช่วยให้ X11 แสดงการส่งต่อ ฉันต้องการสิ่งนั้นหรือไม่
29 ssh  http  mplayer  streaming  music 

2
วิธีการตรวจสอบว่าคำสั่งเช่น curl เสร็จสมบูรณ์โดยไม่มีข้อผิดพลาด?
ฉันใช้ curl เพื่ออัปโหลดไฟล์ไปยังเซิร์ฟเวอร์ผ่านโพสต์ HTTP curl -X POST -d@myfile.txt server-URL "Upload successful"เมื่อฉันด้วยตนเองรันคำสั่งนี้ในบรรทัดคำสั่งฉันได้รับการตอบสนองจากเซิร์ฟเวอร์เช่น อย่างไรก็ตามถ้าฉันต้องการรันคำสั่ง curl นี้ผ่านสคริปต์ฉันจะทราบได้อย่างไรว่าคำขอ POST ของฉันสำเร็จหรือไม่

2
เซิร์ฟเวอร์ HTTP ทั่วไปที่เพิ่งส่งคำขอ POST หรือไม่
ฉันกำลังมองหาเครื่องมือบรรทัดคำสั่งที่ฟังในส่วนที่กำหนดอย่างมีความสุขยกเว้นทุกคำขอ HTTP POST และทิ้งมัน ฉันต้องการใช้เพื่อวัตถุประสงค์ในการทดสอบเช่นสำหรับการทดสอบลูกค้าที่ออกคำขอ HTTP POST นั่นหมายถึงฉันกำลังค้นหาคู่ค้าcurl -F(ซึ่งฉันสามารถใช้เพื่อส่ง HTTP POSTs ทดสอบไปยังเซิร์ฟเวอร์ HTTP) อาจจะเป็นสิ่งที่ชอบsocat TCP4-LISTEN:80,fork,bind=127.0.0.1 ...- แต่ socat นั้นไม่เพียงพอเพราะมันไม่ได้พูดถึง HTTP

3
ฉันสามารถใช้เครื่องมือใดในการดมปริมาณข้อมูล HTTP / HTTPS
ฉันกำลังมองหาเครื่องมือบรรทัดคำสั่งที่สามารถสกัดกั้นคำขอ HTTP / HTTPS แยกข้อมูลเช่น: (เนื้อหาปลายทาง ฯลฯ ) ดำเนินการวิเคราะห์ต่าง ๆ และสุดท้ายกำหนดว่าคำขอควรจะลดลงหรือไม่ คำขอทางกฎหมายจะต้องถูกส่งต่อไปยังแอปพลิเคชัน เครื่องมือที่มีลักษณะคล้ายกันtcpdump, WiresharkหรือSnortแต่ดำเนินการในระดับของ HTTP อ้างอิง สกัดกั้นคำขอ HTTP บน Linux

3
ไม่สามารถเข้าถึงไซต์ https ที่เลือกบน Linux ผ่าน PPPoE
การเชื่อมต่ออินเทอร์เน็ตของฉันเคยเป็นการเชื่อมต่อ LAN โดยตรงกับผู้ให้บริการของฉัน ย้อนกลับไปทุกอย่างจะโหลดได้ดีทั้งบน Windows และ Ubuntu (ดูอัลบูต) อย่างไรก็ตามเมื่อไม่นานมานี้พวกเขาเริ่มต้องการให้ฉันโทร (PPPoE) โดยใช้ชื่อผู้ใช้และรหัสผ่าน Gateway, subnet mask, IP, DNS servers ทั้งหมดยังคงเหมือนเดิม แต่ตั้งแต่นั้นมาฉันไม่สามารถเรียกดูบางเว็บไซต์ใน Ubuntu ได้แม้ว่าจะไม่มีปัญหาดังกล่าวใน Windows ตัวอย่างเว็บไซต์ ได้แก่ - หน้าลงชื่อเข้าใช้ของ Ovi (แม้ว่า share.ovi.com จะโหลดได้ดีและโหลด nokia.com ได้ดี), Live Mail (ใช้ได้กับ Chrome (ium) และ Opera แต่ไม่ใช่ใน Firefox (ทั้ง 3.6 และ 4) Mozilla เว็บไซต์ Addonsและเว็บไซต์สุ่มอื่น ๆ บางเว็บไซต์ที่ไม่โหลดข้อความแสดงการหมดเวลาและสำหรับบางเว็บไซต์ …
18 networking  ip  internet  http 

4
ฉันสามารถ telnet ไปยังพอร์ต HTTP 80 ได้อย่างไร
หลังจากค้นหาใน google ฉันพบว่าเราสามารถtelnetไปยังเว็บเซิร์ฟเวอร์ไปยังพอร์ต http ของมันและใช้GETเพื่อดึงหน้า html ตัวอย่างเช่น: $ telnet web-server-name 80 แต่ฉันไม่สามารถเข้าใจว่าเป็นไปได้อย่างไร ฉันคิดว่าถ้าพอร์ต 80 สำหรับเซิร์ฟเวอร์ http พอร์ต 80 จะรับฟังhttpคำขอเท่านั้น แต่ฉันจะtelnetไปยังHTTPพอร์ตได้อย่างไร ไม่ได้telnetและHTTPสองโปรโตคอลที่แตกต่างกันอย่างไร

2
ซิงค์กับรายชื่อไดเรกทอรีของเว็บเซิร์ฟเวอร์
มีวิธีง่ายๆในการทำให้โฟลเดอร์ซิงค์กับรายชื่อไดเรกทอรีผ่าน HTTP หรือไม่? แก้ไข : ขอบคุณสำหรับเคล็ดลับด้วย wget! ฉันสร้างเชลล์สคริปต์และเพิ่มเป็นงาน cron: remote_dirs=( "http://example.com/" "…") # Add your remote HTTP directories here local_dirs=( "~/examplecom" "…") for (( i = 0 ; i < ${#local_dirs[@]} ; i++ )) do cd "${local_dirs[$i]}" wget -r -l1 --no-parent -A "*.pdf" -nd -nc ${remote_dirs[$i]} done # Explanation: # …

2
กลับมาไบนารีแทน html หรือไม่
ฉันใช้ wget เพื่อดาวน์โหลดหน้า html คงที่ เครื่องมือตรวจสอบ W3C บอกฉันว่าหน้านั้นเข้ารหัสใน UTF-8 แต่เมื่อฉันแมวไฟล์หลังจากดาวน์โหลดฉันได้รับพวงของไบนารีไร้สาระ ฉันใช้ Ubuntu และฉันคิดว่าการเข้ารหัสเริ่มต้นคือ UTF-8 นั่นคือสิ่งที่ไฟล์ภาษาของฉันดูเหมือนว่าจะพูด เหตุใดสิ่งนี้จึงเกิดขึ้นและฉันจะแก้ไขได้อย่างไร Content-Encoding: gzipนอกจากนี้ดูเหมือนว่า บางทีนี่อาจจะทำให้ต่าง นี่คือคำขอที่เรียบง่าย: wget https://www.example.com/page.html ฉันก็ลองทำเช่นนี้: wget https://www.example.com/page.html -q -O - | iconv -f utf-16 -t utf-8 > output.html ซึ่งส่งคืน: iconv: illegal input sequence at position 40 cat'ing ไฟล์คืนค่าไบนารีที่มีลักษณะดังนี้: l�?חu�`�q"�:)s��dġ__��~i��6n)T�$H�#���QJ ผลลัพธ์ของxxd output.html | …

2
ฉันจะใช้ไฟล์จาก HTTP เป็นสิ่งที่จำเป็นต้องมีใน GNU ได้อย่างไร
ฉันต้องการใช้ไฟล์จากเวิลด์ไวด์เว็บเป็นข้อกำหนดเบื้องต้นใน makefiles ของฉัน: local.dat: http://example.org/example.gz curl -s $< | gzip -d | transmogrify >$@ ฉันแค่ต้องการ "ส่งผ่าน" หากไฟล์รีโมตใหม่กว่าไฟล์โลคัลเช่นเดียวกับที่ทำให้ใช้งานได้ตามปกติ ฉันไม่ต้องการเก็บตัวอย่าง example.gz ที่เก็บไว้ชั่วคราว- ไฟล์มีขนาดใหญ่และฉันไม่ต้องการข้อมูลดิบ ฉันต้องการหลีกเลี่ยงการดาวน์โหลดไฟล์ทั้งหมด เป้าหมายคือการประมวลผลสองสามขนานพร้อมกันโดยใช้-jแฟล็ก make วิธีที่สะอาดในการแก้ปัญหานี้คืออะไร? ฉันสามารถนึกถึงวิธีไปสองสามวิธี: เก็บไฟล์ดัมมี่ที่ว่างเปล่าออกไปอัพเดตทุกครั้งที่เป้าหมายถูกสร้างขึ้นใหม่ ปลั๊กอินบางตัวที่ใช้ระบบปลั๊กอินใหม่ของ GNU make (ซึ่งฉันไม่รู้อะไรเลย) วิธีการที่ไม่เชื่อเรื่องพระเจ้าที่เมาท์เซิร์ฟเวอร์ HTTP ในระบบไฟล์โลคอล ก่อนที่จะขุดเพิ่มเติมฉันต้องการคำแนะนำตัวอย่างที่ดีกว่า!
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.