สมมติว่าสิ่งประดิษฐ์และองค์ประกอบที่ผิดธรรมชาตินั้นไม่มีอยู่ในสื่อที่เป็นปัญหาและสื่อนั้นแยกไม่ออกจากสายตามนุษย์วิธีเดียวที่จะทำได้คือการติดตามกลับไปยังแหล่งที่มาของภาพ
การเปรียบเทียบสามารถดึงการโจมตี DoS (ปฏิเสธการบริการ) ซึ่งจำนวนคำขอที่ไร้สาระจะถูกส่งจาก IP เดียวไปยังเซิร์ฟเวอร์เดียวทำให้เกิดปัญหา - ปัญหาทั่วไปคือ honeypot ที่มีคำขอจำนวนมากจากที่หนึ่ง IP จะถูกเปลี่ยนเส้นทางไปยังเซิร์ฟเวอร์ล่อที่ซึ่งถึงแม้ว่ามันจะล้มเหลวสถานะการออนไลน์ก็จะไม่ถูกบุกรุก มีงานวิจัยบางชิ้นทำขึ้นบนบรรทัดเหล่านี้ที่บทความนี้พูดถึงการตรวจสอบลายเซ็นดิจิทัลของภาพหรืองานนี้ที่พวกเขาเสนอให้ตรวจจับภาพที่ดัดแปลงและการระบุกล้องต้นทาง
เมื่อย้อนกลับไปที่แหล่งที่มาหากภาพไร้สาระปลอมอาจมาจากแหล่งที่มาที่ไม่ซ้ำจำนวนมากก็จะต้องถูกสอบสวน
ความกลัวร่วมกันเกิดขึ้นเมื่อเราจัดการกับบางสิ่งบนพื้นฐานของการเปรียบเทียบเช่นการโจมตี DDoS (กระจายการปฏิเสธบริการ) ที่คำขอปลอมมาจากแหล่งที่มากระจาย - ความปลอดภัยเครือข่ายพบวิธีจัดการกับสิ่งนี้ แต่ความปลอดภัย และการตรวจจับการฉ้อโกงในแง่ของ AI ก็ไม่ได้ถูกจัดตั้งขึ้น
โดยพื้นฐานแล้วสำหรับสื่อประดิษฐ์ที่คิดดีออกมาเพื่อจุดประสงค์ที่เป็นอันตรายในปัจจุบันค่อนข้างยากที่จะถูกจับได้ - แต่ขณะนี้งานด้านความปลอดภัยใน AI กำลังดำเนินการอยู่ หากคุณวางแผนที่จะใช้สื่อเทียมเพื่อจุดประสงค์ที่เป็นอันตรายฉันจะบอกว่าตอนนี้เป็นเวลาที่ดีที่สุดแล้ว
ความปลอดภัยนี้ได้รับความกังวลจากเล็กน้อยในขณะนี้ บทความที่เขียนโดยนักวิทยาศาสตร์ข้อมูลคำพูด
Deepfakes มีการใช้เพื่อพยายามที่จะก่อกวนและทำให้อับอายขายหน้าผู้หญิงผ่านวิดีโอโป๊ปลอม จริง ๆ แล้วคำว่ามาจากชื่อผู้ใช้ของผู้ใช้ Reddit ที่กำลังสร้างวิดีโอเหล่านี้โดยการสร้างเครือข่าย adversarial (GANs) โดยใช้ TensorFlow ตอนนี้เจ้าหน้าที่หน่วยข่าวกรองกำลังพูดถึงความเป็นไปได้ของวลาดิมีร์ปูตินโดยใช้วิดีโอปลอมที่มีอิทธิพลต่อการเลือกตั้งประธานาธิบดีในปี 2563 มีการวิจัยเพิ่มเติมเกี่ยวกับการทำฟาวเคชั่นเป็นภัยคุกคามต่อประชาธิปไตยและความมั่นคงของชาติรวมถึงวิธีการตรวจจับ
หมายเหตุ - ฉันค่อนข้างไร้เดียงสาเกี่ยวกับความปลอดภัยของเครือข่ายความรู้ทั้งหมดของฉันมาจากการสนทนากับเพื่อนและคิดว่านี่จะเป็นการเปรียบเทียบที่ดีที่จะใช้ที่นี่ ให้อภัยข้อผิดพลาดใด ๆ ในการเปรียบเทียบและโปรดแก้ไขถ้าเป็นไปได้!