คำถามติดแท็ก web

9
ฉันจะได้รับชื่อเว็บไซต์โดยใช้บรรทัดคำสั่งได้อย่างไร
ฉันต้องการโปรแกรมบรรทัดคำสั่งที่พิมพ์ชื่อของเว็บไซต์ ตัวอย่างเช่น: Alan:~ titlefetcher http://www.youtube.com/watch?v=Dd7dQh8u4Hc ควรให้: Why Are Bad Words Bad? คุณให้มัน URL และมันจะพิมพ์ชื่อ
50 command-line  web  http 

7
วิธีการดาวน์โหลดไฟล์โดยใช้เพียงแค่ทุบตีและไม่มีอะไรอื่น (ไม่มี curl, wget, perl ฯลฯ )
ฉันมีหัวขาดน้อยที่สุด * ซึ่งไม่มียูทิลิตี้บรรทัดคำสั่งใด ๆ สำหรับการดาวน์โหลดไฟล์ (เช่นไม่มี curl, wget เป็นต้น) ฉันทุบตีเท่านั้น ฉันจะดาวน์โหลดไฟล์ได้อย่างไร เป็นการดีที่ฉันต้องการวิธีการแก้ปัญหาที่จะทำงานในหลากหลาย * ระวัง
40 bash  command-line  web 

5
วิธีตรวจสอบคำขอ HTTP ที่เข้ามา
ฉันจะติดตามHTTPคำร้องขอขาเข้าไปยังพอร์ตได้80อย่างไร ฉันได้ตั้งค่าเว็บโฮสติ้งในเครื่องท้องถิ่นของฉันโดยใช้และDynDNS ฉันต้องการทราบจำนวนคำขอบนเซิร์ฟเวอร์ของฉันทุกวันNginx ขณะนี้ฉันกำลังใช้คำสั่งนี้: netstat -an | grep 80
31 monitoring  web 

2
มีอินเทอร์เฟซออนไลน์ / เว็บเพื่อค้นหาและแสดงรายการแพกเกจ apt-get และดูสรุปและคำแนะนำหรือไม่
ฉันกำลังมองหาฟังก์ชั่นประเภท 'app-store' หรือ Google Play store สำหรับแพ็คเกจ apt-get สิ่งที่ฉันต้องการทำคือเลือกหมวดหมู่เช่น 'เพลง' หรือ 'อินเทอร์เน็ต' และดูรายการแพ็คเกจที่มีในหมวดหมู่นั้นพร้อมสรุป มันจะดีกว่านี้ถ้าแพ็คเกจมีการให้คะแนนหรือรีวิว มีอะไรแบบนี้อยู่อีกไหม?

3
แบบฝึกหัด grep ออนไลน์ [ปิด]
ปิด. คำถามนี้เป็นคำถามปิดหัวข้อ ไม่ยอมรับคำตอบในขณะนี้ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้เป็นไปตามหัวข้อสำหรับ Unix & Linux Stack Exchange ปิดให้บริการใน9 เดือนที่ผ่านมา มี grep tutorials ออนไลน์ที่มีเครื่องมือออนไลน์สำหรับการฝึกหัดหรือไม่? ตัวอย่างเช่นมีตัวอย่างข้อความที่กำหนดไว้ล่วงหน้าและได้รับการบอกว่ารูปแบบการค้นหาและอื่น ๆ ? มันจะเป็นเครื่องมือที่มีประโยชน์มากสำหรับการเรียนรู้ภาคปฏิบัติของ grep ในสภาพแวดล้อมที่คาดการณ์ได้

3
การร้องขอเว็บอัตโนมัติโดยใช้ curl?
ฉันมีระบบ "แบบองค์กร" ที่ฉันต้องใช้ในที่ทำงาน บางคนน่ากลัวด้วยกรอบป๊อปอัพและอื่น ๆ ฉันกำลังคิดที่จะทำสิ่งต่าง ๆ โดยอัตโนมัติด้วยการใช้ขดหรืออะไรทำนองนั้น ฉันต้องการเข้าสู่ระบบคลิกที่การเชื่อมโยงหลายมิติตั้งค่าข้อมูลบางอย่างและพวกเขาจะโพสต์บางส่วน เป็นไปได้ไหมที่จะใช้ curl? หรือฉันจะใช้ซีลีเนียมได้ดีกว่า
13 curl  web 

1
วิธีแก้ไขส่วนหัว 'ที่แก้ไขล่าสุด' หายไปอย่างไร
ฉันทำงานwgetแบบนี้: wget --mirror --adjust-extension --convert-links --no-cookies http://tshepang.net -o log-main ฉันได้รับข้อความเหล่านี้: Last-modified header missing -- time-stamps turned off. ฉันคิดว่านั่นหมายความว่าหน้าเว็บจะได้รับการดาวน์โหลดซ้ำแม้ว่าฉันจะมีอยู่ในเครื่องก็ตาม หมายเหตุ : ฉันต้องการสิ่งนี้เพื่อที่ฉันจะได้ไม่ต้องดาวน์โหลดไฟล์ที่มีอยู่ทุกครั้งที่ฉันเรียกใช้มิเรอร์คำสั่ง
13 wget  web 

1
เครื่องมือค้นหาบรรทัดคำสั่งที่เป็นมิตรสำหรับใช้กับลิงค์
มีเครื่องมือค้นหาใดที่เป็นมิตรพอที่จะใช้ในลิงค์หรือไม่ บางทีพร็อกซี google ที่ไม่มีความยุ่งเหยิงฉันพบว่า Google ใช้การนำทางจำนวนมากผ่านลิงก์จำนวนมากก่อนที่จะสามารถวางเคอร์เซอร์ในแถบค้นหาโดยใช้น้อยกว่าเป็ดเป็ดไปเกือบจะอยู่ที่นั่น แต่ผลการค้นหาจะดีขึ้น ใน google ในความคิดของฉัน มีเครื่องมือค้นหาที่ดีกว่าที่ฉันสามารถใช้หรืออาจเป็นสิ่งที่ฉันสามารถทำได้ในลิงค์เพื่อไปยังกล่องค้นหาได้เร็วขึ้นโดยใช้ปุ่มลูกศร
11 search  web  links 

3
ฉันจะบล็อก URL เฉพาะบนเราเตอร์ DD-WRT ได้อย่างไร?
ฉันกำลังมองหาทุกสิ่งนี้ ไม่มีใครรู้วิธีการบล็อก URL เฉพาะในเราเตอร์ DD-WRT หรือไม่? ตัวอย่างเช่นผมต้องการปิดกั้นwebsite.com/whateverแต่ไม่website.com, หรือblah.website.com website.com/blahมีวิธีการทำเช่นนี้หรือคุณสามารถบล็อกทั้งโดเมนได้หรือไม่ ฉันพยายามเพิ่ม URL ที่เป็นปัญหาภายใต้ข้อ จำกัด การเข้าถึงในการกำหนดค่า DD-WRT แต่ดูเหมือนจะไม่มีผลใด ๆ นี่คือการตั้งค่าของฉัน: และนี่คือรายชื่อลูกค้า: ฉันยังสามารถเรียกดูไปที่ google.com/imghp และ google.com/images ได้อย่างง่ายดาย (ซึ่งเปลี่ยนเส้นทางไปที่ google.com/imghp) บนพีซีหลักของฉันที่มีที่อยู่ IP 192.168.1.146 ในหน้านี้ของวิกิ DD-WRT จะมีข้อความระบุว่า "ภายใต้การบล็อกเว็บไซต์โดยใช้ที่อยู่ URL ให้ป้อนชื่อโดเมนที่คุณต้องการบล็อก (ถ้ามี)" นอกเหนือจากการโพสต์ในฟอรัม DD-WRT ทำให้ฉันรู้สึกว่าคุณสามารถบล็อกโดเมนภายใต้ข้อ จำกัด การเข้าถึงในการตั้งค่า DD-WRT ฉันเริ่มสงสัยว่าปัญหานี้จะต้องแก้ไขโดยใช้ iptables หรืออาจจะโดยการติดตั้งพร็อกซีเซิร์ฟเวอร์บนเราเตอร์ของตัวเอง แก้ไข ผู้ใช้ goli ในฟอรัม DD-WRT …
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.