มีกลยุทธ์อะไรบ้างในการจดจำสื่อที่ทำขึ้นมา?


12

ด้วยความสามารถที่เพิ่มมากขึ้นในการสร้างภาพปลอมราคาถูกเสียงปลอมและวิดีโอปลอมทำให้กลายเป็นปัญหาที่เพิ่มขึ้นด้วยการรับรู้สิ่งที่เป็นจริงและสิ่งที่ไม่ใช่ แม้ตอนนี้เราจะเห็นตัวอย่างของแอปพลิเคชั่นที่สร้างสื่อปลอมในราคาเพียงเล็กน้อย (ดูDeepfake , FaceAppและอื่น ๆ )

เห็นได้ชัดว่าหากมีการใช้แอปพลิเคชันเหล่านี้ในทางที่ผิดพวกเขาอาจถูกใช้เพื่อทำให้ภาพลักษณ์ของบุคคลอื่นเสื่อม Deepfake สามารถใช้เพื่อทำให้คนดูนอกใจคู่ของตน อาจใช้แอปพลิเคชันอื่นเพื่อทำให้ดูเหมือนว่านักการเมืองพูดถึงสิ่งที่ขัดแย้ง

เทคนิคใดบ้างที่สามารถใช้ในการรับรู้และป้องกันสื่อที่ทำขึ้นโดยทำเทียม

คำตอบ:


2

ฟิลด์Digital Media Forensics (DMF) มีวัตถุประสงค์เพื่อพัฒนาเทคโนโลยีสำหรับการประเมินความสมบูรณ์ของภาพหรือวิดีโอโดยอัตโนมัติดังนั้นDMFจึงเป็นฟิลด์ที่คุณกำลังมองหา มีหลายวิธีใน DMF: ตัวอย่างเช่นโดยอาศัยเทคนิคการเรียนรู้ด้วยเครื่องจักร (ML) โดยเฉพาะเครือข่ายประสาทเทียม (CNNs)

ตัวอย่างเช่นในกระดาษDeepfake Video Detection โดยใช้ Recurrent Neural Networks (2018), David Güeraและ Edward J. Delp เสนอการวิเคราะห์สองขั้นตอนที่ประกอบด้วย CNN เพื่อแยกคุณสมบัติที่ระดับเฟรมตามด้วย RNN ที่รับรู้ชั่วคราว ความไม่สอดคล้องกันชั่วคราวระหว่างเฟรมที่แนะนำโดยเครื่องมือ deepfake โดยเฉพาะอย่างยิ่งพวกเขาใช้สถาปัตยกรรม LSTM แบบ convolutional (CNN รวมกับ LSTM) ซึ่งผ่านการฝึกอบรมแบบ end-to-end เพื่อให้ CNN เรียนรู้คุณสมบัติในวิดีโอซึ่งส่งผ่านไปยัง RNN ซึ่งพยายามทำนายโอกาส ของคุณสมบัติเหล่านั้นเป็นของวิดีโอปลอมหรือไม่ ส่วนที่ 3 อธิบายการสร้างวิดีโอ deepfake ซึ่งนำไปสู่ความไม่สอดคล้องระหว่างเฟรมวิดีโอ (ซึ่งใช้ประโยชน์จากวิธีการที่เสนอ) เนื่องจากการใช้ภาพที่มีสภาพการรับชมและการส่องสว่างที่แตกต่างกัน

มีการเสนองานอื่นที่คล้ายคลึงกันนี้ ดูรายการที่รวบรวมไว้นี้https://github.com/aerophile/awesome-deepfakesสำหรับเอกสารที่เกี่ยวข้องเพิ่มเติม


1

ฉันคิดว่าบริบทมีความสำคัญที่นี่ การใช้กลวิธีเช่นเดียวกับที่ใช้ในสกอตแลนด์ยาร์ดมานานกว่าหนึ่งศตวรรษน่าจะเป็นวิธีที่ดีที่สุด การสร้างข้อแก้ตัวเส้นเวลาที่เหมือนจริงแรงจูงใจ สำหรับการตั้งค่าทางกฎหมายมันเป็นไปได้ที่จะพิสูจน์ว่าภาพเหล่านี้เป็นของปลอมโดยใช้วิธีการเช่นนี้ จากมุมมองด้านไอทีอาจเป็นไปได้ที่จะระบุจุดเริ่มต้นสำหรับรูปภาพเหล่านี้ หากมีภาพซ้ำซ้อนหลายพันภาพมาจากต้นกำเนิดเดียวภาพใด ๆ จากต้นกำเนิดนี้เป็นที่น่าสงสัย

โดยทั่วไปฉันคิดว่าเราควรฝึกฝนตัวเองใหม่เพื่อไม่เชื่อทุกสิ่งที่เราเห็น มีวิธีการมากมายในการแกล้งภาพการถ่ายภาพนั้นไม่สามารถถือได้ว่าเป็นหลักฐานที่ดีที่สุดของเหตุการณ์ที่เกิดขึ้น เราไม่ควรเพิกเฉยต่อภาพทั้งหมด แต่ควรมองหาความจริงจากภายนอกก่อนที่จะข้ามไปสู่ข้อสรุป หากข้อเท็จจริงทั้งหมดชี้ไปที่เหตุการณ์ที่เกิดขึ้นแสดงว่าภาพถ่ายนั้นเป็นของจริง


0

สมมติว่าสิ่งประดิษฐ์และองค์ประกอบที่ผิดธรรมชาตินั้นไม่มีอยู่ในสื่อที่เป็นปัญหาและสื่อนั้นแยกไม่ออกจากสายตามนุษย์วิธีเดียวที่จะทำได้คือการติดตามกลับไปยังแหล่งที่มาของภาพ

การเปรียบเทียบสามารถดึงการโจมตี DoS (ปฏิเสธการบริการ) ซึ่งจำนวนคำขอที่ไร้สาระจะถูกส่งจาก IP เดียวไปยังเซิร์ฟเวอร์เดียวทำให้เกิดปัญหา - ปัญหาทั่วไปคือ honeypot ที่มีคำขอจำนวนมากจากที่หนึ่ง IP จะถูกเปลี่ยนเส้นทางไปยังเซิร์ฟเวอร์ล่อที่ซึ่งถึงแม้ว่ามันจะล้มเหลวสถานะการออนไลน์ก็จะไม่ถูกบุกรุก มีงานวิจัยบางชิ้นทำขึ้นบนบรรทัดเหล่านี้ที่บทความนี้พูดถึงการตรวจสอบลายเซ็นดิจิทัลของภาพหรืองานนี้ที่พวกเขาเสนอให้ตรวจจับภาพที่ดัดแปลงและการระบุกล้องต้นทาง

เมื่อย้อนกลับไปที่แหล่งที่มาหากภาพไร้สาระปลอมอาจมาจากแหล่งที่มาที่ไม่ซ้ำจำนวนมากก็จะต้องถูกสอบสวน

ความกลัวร่วมกันเกิดขึ้นเมื่อเราจัดการกับบางสิ่งบนพื้นฐานของการเปรียบเทียบเช่นการโจมตี DDoS (กระจายการปฏิเสธบริการ) ที่คำขอปลอมมาจากแหล่งที่มากระจาย - ความปลอดภัยเครือข่ายพบวิธีจัดการกับสิ่งนี้ แต่ความปลอดภัย และการตรวจจับการฉ้อโกงในแง่ของ AI ก็ไม่ได้ถูกจัดตั้งขึ้น

โดยพื้นฐานแล้วสำหรับสื่อประดิษฐ์ที่คิดดีออกมาเพื่อจุดประสงค์ที่เป็นอันตรายในปัจจุบันค่อนข้างยากที่จะถูกจับได้ - แต่ขณะนี้งานด้านความปลอดภัยใน AI กำลังดำเนินการอยู่ หากคุณวางแผนที่จะใช้สื่อเทียมเพื่อจุดประสงค์ที่เป็นอันตรายฉันจะบอกว่าตอนนี้เป็นเวลาที่ดีที่สุดแล้ว

ความปลอดภัยนี้ได้รับความกังวลจากเล็กน้อยในขณะนี้ บทความที่เขียนโดยนักวิทยาศาสตร์ข้อมูลคำพูด

Deepfakes มีการใช้เพื่อพยายามที่จะก่อกวนและทำให้อับอายขายหน้าผู้หญิงผ่านวิดีโอโป๊ปลอม จริง ๆ แล้วคำว่ามาจากชื่อผู้ใช้ของผู้ใช้ Reddit ที่กำลังสร้างวิดีโอเหล่านี้โดยการสร้างเครือข่าย adversarial (GANs) โดยใช้ TensorFlow ตอนนี้เจ้าหน้าที่หน่วยข่าวกรองกำลังพูดถึงความเป็นไปได้ของวลาดิมีร์ปูตินโดยใช้วิดีโอปลอมที่มีอิทธิพลต่อการเลือกตั้งประธานาธิบดีในปี 2563 มีการวิจัยเพิ่มเติมเกี่ยวกับการทำฟาวเคชั่นเป็นภัยคุกคามต่อประชาธิปไตยและความมั่นคงของชาติรวมถึงวิธีการตรวจจับ

หมายเหตุ - ฉันค่อนข้างไร้เดียงสาเกี่ยวกับความปลอดภัยของเครือข่ายความรู้ทั้งหมดของฉันมาจากการสนทนากับเพื่อนและคิดว่านี่จะเป็นการเปรียบเทียบที่ดีที่จะใช้ที่นี่ ให้อภัยข้อผิดพลาดใด ๆ ในการเปรียบเทียบและโปรดแก้ไขถ้าเป็นไปได้!


มันจะดีถ้าคุณสามารถทำวิจัยและให้ลิงก์ไปยังงานวิจัย / กระดาษอย่างน้อย 1 งานซึ่งมีพื้นฐานมาจากบางสิ่งในสายเหล่านั้น (นั่นคือการใช้ประโยชน์จากแหล่งที่มาของวิดีโอปลอมที่อาจเกิดขึ้น)
nbro

นอกเหนือจากเอกสารที่พูดเกี่ยวกับอันตรายที่อาจเกิดขึ้นและคนทั่วไปพยายามตรวจจับสิ่งประดิษฐ์เอกสารน้อยลงทำอะไรที่ระบุไว้ในคำตอบเช่นนี้หรืออย่างนี้ - ตามที่กล่าวว่าการวิจัยอย่างกว้างขวางไม่ได้ทำในบรรทัดเหล่านี้ แต่มันเป็น กำลังสำรวจ หวังว่าลิงก์เหล่านี้จะช่วยได้!
ashenoy

-1

เทคนิคที่คุณพูดถึงใช้ GANs แนวคิดหลักของ GAN คือคุณมีเครื่องกำเนิดและผู้เลือกปฏิบัติ เครื่องกำเนิดสร้างเนื้อหาใหม่ discriminator ต้องบอกว่าเนื้อหานั้นมาจากข้อมูลจริงหรือถ้ามันถูกสร้างขึ้น

discriminator นั้นมีประสิทธิภาพมากกว่า ไม่ควรที่จะฝึกให้มี discriminator ตรวจจับของปลอมได้ยาก การฝึกอบรมรูปแบบที่สามารถระบุการจัดการและความเข้าใจในเรื่องนี้เป็นข้อพิสูจน์ของการจัดการที่ยาก มันเป็นไปไม่ได้ที่จะได้รับการพิสูจน์ว่าบางสิ่งบางอย่างไม่ได้จัดการ

เกี่ยวกับคำถามที่คุณจัดการกับรูปถ่ายที่มีรูปถ่าย: คุณดูความแตกต่างของระดับการบีบอัดในภาพ คำสำคัญที่ต้องการค้นหาคือนิติภาพ: http://fotoforensics.com/tutorial-estq.php

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.