การสำรองข้อมูลคุณภาพสูงของ Google Photos - Google จะได้รับการบีบอัดที่ยอดเยี่ยมได้อย่างไรและฉันกำลังสูญเสียข้อมูลบางส่วน


21

ฉันแน่ใจว่าพวกเราหลายคนใช้การสำรองข้อมูลคุณภาพสูงของ Google photos ซึ่งทำให้เราสามารถจัดเก็บรูปภาพออนไลน์ได้โดยไม่เสียค่าธรรมเนียม

เมื่อเร็ว ๆ นี้ฉันคิดถึงการทดสอบว่าการอัปโหลดมีคุณภาพสูงเพียงใดโดยการอัปโหลดภาพ (ต่ำกว่า 16 MP) และเปรียบเทียบกับภาพต้นฉบับในแง่ของความละเอียดคุณภาพ (เท่าที่เห็นด้วยตา) และขนาดไฟล์

ฉันรู้สึกประหลาดใจที่ทราบว่าความละเอียดและคุณภาพเกือบจะเหมือนเดิม (ไม่มีความแตกต่างในการมองเห็นแม้จะซูมในกรณีส่วนใหญ่) แต่ขนาดไฟล์ก็ลดลงอย่างมาก - อย่างน้อย 2-3 เท่าและประมาณ 10x ใน บางกรณี. เมื่อก่อนเคยใช้ RAR สำหรับไฟล์ประเภทต่าง ๆ ฉันรู้ว่ามันจะไม่เข้าใกล้และไม่ต้องทดสอบ

คำถามคือ: Google จัดการกับการบีบอัดขนาดใหญ่เช่นนี้ได้อย่างไรโดยไม่มีการเปลี่ยนแปลงของภาพที่เห็นได้ชัดเจน? พวกเขาทิ้งข้อมูลตำแหน่งหรือข้อมูลอื่น ๆ ที่เกี่ยวข้องกับภาพที่ช่างภาพสมัครเล่นไม่รู้จักหรือไม่?


2
คำตอบของฉันตอบคำถามที่สองได้จริง พวกเขาไม่พบอัลกอริทึมการบีบอัดแบบ lossless ทั่วไปที่น่าอัศจรรย์อย่าง ZIP หรือ RAR รุ่นซุปเปอร์ พวกเขาเพิ่งปรับปรุงการบีบอัดเฉพาะ JPEG
mattdm

คำตอบ:


20

สำหรับสิ่งหนึ่งภาพทั้งหมดที่มีขนาดใหญ่กว่า 16 ล้านพิกเซลถูกปรับขนาดเป็น 16 MP ดังนั้นสำหรับกล้องจำนวนมากในวันนี้นั่นคือความละเอียดที่ลดลงอย่างเห็นได้ชัดทันที

แต่ภาพถ่ายอื่น ๆ ทั้งหมดจะถูกบีบอัดด้วยโดยใช้อัลกอริทึมการบีบอัดที่ปรับให้เหมาะสม ฉันไม่คิดว่า Google จะออกมาและพูดว่าพวกเขาทำอะไรกันแน่ แต่มันอาจเป็นอัลกอริทึมของGuetzli แบบโอเพนซอร์ส Google อ้างสิทธิ์:

ภาพที่สร้างโดย Guetzli โดยทั่วไปแล้วจะเล็กกว่ารูปภาพที่มีคุณภาพเทียบเท่ากันที่สร้างโดย libjpeg 20-30%

สิ่งที่พวกเขาทำผลที่ได้ค่อนข้างน่าประทับใจ - มักจะมากกว่า 20-30% (มันอาจจะเป็นไปตามที่ Google ไม่พิจารณาเหล่านี้ "ที่มีคุณภาพเทียบเท่า" จริงๆ.) คุณสามารถดูการเปรียบเทียบเคียงข้างเคียงบางอย่างในโทรศัพท์ Arena บล็อกโพสต์นี้

แต่คำถามชื่อของคุณ: คุณกำลังแน่นอนการสูญเสียข้อมูลบางส่วน อัลกอริทึมนี้ไม่ใช่มายากล - เพียงใช้แบบจำลองการรับรู้เพื่อทิ้งข้อมูลภาพที่การบีบอัด JPEG แบบธรรมดาไม่ส่งผลให้มีอัตราการบีบอัดที่สูงขึ้นในขณะที่ (หวังว่า) จะไม่ก่อให้เกิดความวุ่นวายกับสิ่งที่คุณสังเกตเห็น

มีเพียงคุณเท่านั้นที่สามารถตัดสินใจได้ว่าคุณโอเคกับสิ่งนั้นหรือไม่ หากคุณกำลังสำรองต้นฉบับ RAW (พร้อมการปรับค่าด้วยการสำรอง) และสามารถสร้าง JPEG ได้ตามต้องการฉันจะไม่คิดอีกสองครั้ง แต่ถ้าคุณจริงจังกับการถ่ายภาพและมีเวิร์กโฟลว์เป็นศูนย์กลาง JPEG - และแม้จะมีการโกง RAW ออนไลน์ก็ไม่เป็นไรคุณอาจต้องการให้ไฟล์ JPEG ดั้งเดิมไม่เปลี่ยนแปลง เพิ่มพื้นที่เก็บข้อมูลเทราไบต์เพียง $ 10 / เดือนด้วย Google หรือถ้าคุณเป็นลูกค้า Amazon Prime ($ 100 / ปี) คุณจะได้รับการจัดเก็บภาพถ่ายไม่ จำกัดจริงรวมถึงไฟล์ RAW



5

โดยทั่วไปแล้วพวกเขาจะทิ้งกำลังการประมวลผลที่ปัญหาโดยใช้วิธีการคำนวณที่เข้มข้นมากซึ่งพยายามใช้วิธีต่างๆในการบีบอัดภาพภายในกฎ JPG การประมวลผลเป็นสิ่งที่ Google น่าจะมีมากมายโดยเฉพาะอย่างยิ่งมันยังช่วยประหยัดแบนด์วิดท์

คุณสามารถทำเช่นเดียวกัน - ซอฟต์แวร์และบริการต่าง ๆ นั้นฟรีหรือถูก โปรแกรม / กล้องของคุณไม่มีพลังในการประมวลผลที่จะเกิดขึ้นด้วยวิธีที่ "ดีที่สุด" ในการใช้การบีบอัดข้อมูลแบบ JPG ที่สูญเสียไป


นี่เป็นจุดที่ดีแม้ว่ามันจะลดขนาดของภาพลงเพียงเล็กน้อย
ซัลมาน

4
ว้าวอัลกอริทึม Guetzli ที่กล่าวถึงโดย @mattdm ด้านบนนั้นเป็นหมู! บนเว็บไซต์ github ด้วยซอฟต์แวร์มันบอกคุณว่ามันต้องใช้ RAM ขนาด 300Mb ต่อล้านพิกเซลของภาพในการประมวลผลและใช้เวลา CPUหนึ่งนาทีเต็มต่อเมกะพิกเซลเช่นกัน!
davidbak

ใช่. โดยพื้นฐานแล้ว "ลองชุดค่าผสมจำนวนมากแล้วใช้ชุดค่าผสมที่ดีที่สุด" Lightroom neigher ใดและตัวอย่างเช่นกล้องของคุณ (โดยเฉพาะกล้องของคุณ) สามารถทำได้
TomTom

แต่เนื่องจากอัลกอริทึมเป็นพื้นrecompressingภาพ JPEG ที่แล้วไม่ได้ด้อยกว่านี้ในผลถ้าคุณ apllied ขั้นตอนวิธีการเดียวกันกับที่เดิม?
ไมเคิล

ใช่. ไม่ค้นหาGützli Jpeg - ส่วนหนึ่งทำได้โดยกล้อง - เสร็จรวดเร็ว Tehy สามารถใช้เวลาหนึ่งนาทีในการค้นหาการเข้ารหัสที่ดีที่สุดต่อภาพบริการเช่นcompressor.io ก็ทำเช่นเดียวกัน คุณจะได้รับการลดขนาดที่สำคัญมากด้วยภาพเดียวกัน
TomTom
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.