6
ฉันจะค้นหาภาพถ่ายที่ซ้ำกันในแหล่งข้อมูลที่มีขนาดใหญ่มาก (หลายสิบถึงหลายร้อยกิ๊ก) ได้อย่างไร
ทุกคนสามารถแนะนำยูทิลิตีการตรวจจับการทำสำเนาภาพถ่ายที่ดีซึ่งทำงานได้ดีเมื่อฉันจัดการกับข้อมูลขนาด 100GB (รวบรวมในช่วงหลายปีที่ผ่านมา) ฉันต้องการบางสิ่งที่ใช้งานได้บน Ubuntu ขอบคุณล่วงหน้า! แก้ไข: มีเครื่องมือที่จะช่วยฉันจัดระเบียบคอลเล็กชันใหม่และลบรายการที่ซ้ำกันเมื่อตรวจพบแล้วหรือไม่? แก้ไข 2: ส่วนที่ยากคือการหาว่าจะทำอย่างไรเมื่อฉันมีผลลัพธ์ประกอบด้วยไฟล์ซ้ำหลายพันไฟล์ (เช่นผลลัพธ์ของ fdupes) มันไม่ชัดเจนถ้าฉันยังสามารถลบไดเรกทอรีได้อย่างปลอดภัย (เช่นถ้าไดเรกทอรีอาจมีไฟล์ที่ไม่ซ้ำกัน) ซึ่งไดเรกทอรีเป็นส่วนย่อยของไดเรกทอรีอื่น ๆ และอื่น ๆ เครื่องมือที่เหมาะสำหรับปัญหานี้ควรจะสามารถกำหนดความซ้ำซ้อนของไฟล์จากนั้นให้วิธีที่มีประสิทธิภาพในการปรับโครงสร้างไฟล์และโฟลเดอร์ของคุณ การรวมโดย hardlinking (ตามที่ fslint ทำ) นั้นทำให้พื้นที่ว่างเพิ่มขึ้น แต่มันก็ไม่ได้แก้ปัญหาพื้นฐานที่ทำให้เกิดการซ้ำซ้อนที่เริ่มต้นด้วย - นั่นคือการจัดระเบียบไฟล์ / dir ที่ไม่ดี
16
backup
duplicates