ฉันมีไดเรกทอรีที่มีไฟล์ขนาดเล็กประมาณ 100,000 ไฟล์ (แต่ละไฟล์มีตั้งแต่ 1-3 บรรทัดแต่ละไฟล์เป็นไฟล์ข้อความ) ขนาดไดเรกทอรีไม่ใหญ่มาก (<2GB) ข้อมูลนี้อาศัยอยู่ในเซิร์ฟเวอร์ NFS ที่ดูแลอย่างมืออาชีพ เซิร์ฟเวอร์รัน Linux ฉันคิดว่าระบบไฟล์ ext3 แต่ฉันไม่รู้แน่นอน นอกจากนี้ฉันไม่สามารถเข้าถึงเซิร์ฟเวอร์ได้
ไฟล์เหล่านี้เป็นผลลัพธ์ของการทดลองทางวิทยาศาสตร์ขนาดใหญ่ซึ่งฉันไม่สามารถควบคุมได้ อย่างไรก็ตามฉันต้องวิเคราะห์ผลลัพธ์
การดำเนินการ / การประมวลผล I / O ใด ๆ ในไดเรกทอรีนี้ช้ามาก การเปิดไฟล์ (fopen ใน python) การอ่านจากไฟล์ที่เปิดปิดไฟล์ทั้งหมดช้ามาก ใน bash ls, du ฯลฯ ไม่ทำงาน
คำถามคือ:
จำนวนไฟล์สูงสุดในไดเรกทอรีในลีนุกซ์ในทางที่เป็นไปได้ในการประมวลผล, fopen, อ่าน, ฯลฯ คืออะไร? ฉันเข้าใจว่าคำตอบนั้นขึ้นอยู่กับหลาย ๆ อย่าง: ประเภท fs, รุ่นเคอร์เนล, รุ่นของเซิร์ฟเวอร์, ฮาร์ดแวร์ ฯลฯ ฉันต้องการกฎง่ายๆถ้าเป็นไปได้