ทำไมเครือข่ายประสาทถูกหลอกง่าย


13

ฉันได้อ่านเอกสารเกี่ยวกับการสร้างภาพด้วยตนเองเพื่อ "หลอก" เครือข่ายประสาท (ดูด้านล่าง)

นี่เป็นเพราะเครือข่ายเป็นแบบจำลองความน่าจะเป็นแบบมีเงื่อนไขเท่านั้นหรือไม่? หากเครือข่ายสามารถจำลองความน่าจะเป็นแบบร่วมกรณีดังกล่าวจะยังคงเกิดขึ้นได้หรือไม่p ( y , x )p(y|x)
p(y,x)

ฉันเดาภาพที่สร้างขึ้นเทียมดังกล่าวมีความแตกต่างจากข้อมูลการฝึกอบรมเพื่อให้พวกเขามีความน่าจะเป็นที่ต่ำ(x) ดังนั้นควรต่ำแม้ว่าจะสูงสำหรับภาพเหล่านี้p ( y , x ) p ( y | x )p(x)p(y,x)p(y|x)

ปรับปรุง

ฉันลองแบบจำลองทั่วไปแล้วมันกลับกลายเป็นว่าไม่ได้มีประโยชน์ดังนั้นฉันเดาว่านี่น่าจะเป็นผลมาจาก MLE?

ฉันหมายถึงในกรณีที่ KL divergence ถูกใช้เป็นฟังก์ชันการสูญเสียค่าของโดยที่มีขนาดเล็กไม่ส่งผลกระทบต่อการสูญเสีย ดังนั้นสำหรับอิมเมจที่วางแผนไว้ซึ่งไม่ตรงกับค่าของสามารถกำหนดเองได้p d a t a ( x ) p d a t a p θpθ(x)pdata(x)pdatapθ

ปรับปรุง

ฉันพบบล็อกของ Andrej Karpathy ที่แสดง

ผลลัพธ์เหล่านี้ไม่เฉพาะเจาะจงกับรูปภาพ ConvNets และไม่ใช่ "ข้อบกพร่อง" ใน Deep Learning

ป้อนคำอธิบายรูปภาพที่นี่
การอธิบายและการทดสอบตัวอย่างที่ไม่เกี่ยวข้องกับเครือข่ายโครงข่ายประสาทลึกนั้นเป็นเรื่องง่าย: การคาดคะเนความเชื่อมั่นสูงสำหรับภาพที่ไม่สามารถจดจำได้
ป้อนคำอธิบายรูปภาพที่นี่


คำถามดูเหมือนจะเป็น DNNs มากกว่า NNs โดยทั่วไปหรือไม่
Matthew Gunn

@ MatthunGunn ฉันไม่แน่ใจตามคำตอบของ seanv507 ดูเหมือนว่าจะเป็นปัญหาทั่วไปมากขึ้น
dontloo

@MattewGunn อธิบายและควบคุมตัวอย่างเอกสารที่เป็นปฏิปักษ์ - รายการนี้ใช้กับการถดถอยโลจิสติกด้วย
seanv507

คำตอบ:


10

ประเภทของแบบจำลองที่คุณอ้างถึงนั้นเรียกว่าแบบจำลอง 'กำเนิด' ซึ่งตรงข้ามกับการเลือกปฏิบัติและไม่ได้ปรับขนาดข้อมูลเป็นมิติสูง ส่วนหนึ่งของความสำเร็จของ NN ในงานภาษาคือการย้ายจากโมเดลทั่วไป (HMM) ทำโมเดลการแบ่งแยกแบบ 'มากกว่า' (เช่น MEMM ใช้การถดถอยโลจิสติกซึ่งอนุญาตให้ใช้ข้อมูลบริบทได้อย่างมีประสิทธิภาพhttps://en.wikipedia.org/ wiki / Hidden_Markov_model # Extensions )

ฉันจะเถียงว่าเหตุผลที่พวกเขาถูกหลอกนั้นเป็นปัญหาทั่วไปมากกว่า มันคือการปกครองปัจจุบันของ 'AI' ที่ขับเคลื่อนด้วย ML ตื้นกว่าวิธีการที่ซับซ้อนมากขึ้น [ในเอกสารหลายฉบับมีการกล่าวถึงว่ารุ่น ML อื่น ๆ นั้นถูกหลอกได้อย่างง่ายดาย - http://www.kdnuggets.com/2015/07/deep-learning-adversarial-examples-misconceptions.html - Ian Goodfellow

'รูปแบบภาษา' ที่มีประสิทธิภาพมากที่สุดสำหรับงานหลาย ๆ อย่างคือ 'bag of word' ไม่มีใครจะอ้างว่านี่เป็นรูปแบบของภาษามนุษย์ที่มีความหมาย มันไม่ยากเลยที่จะจินตนาการว่าแบบจำลองเหล่านี้จะหลอกได้ง่ายเช่นกัน

การมองเห็นคอมพิวเตอร์ในลักษณะเดียวกันเช่นการรับรู้วัตถุได้รับการปฏิวัติโดย 'visual bag of word' ซึ่งจะทำให้วิธีการคำนวณที่เข้มข้นยิ่งขึ้นหมดไป (ซึ่งไม่สามารถนำไปใช้กับชุดข้อมูลขนาดใหญ่ได้)

ฉันจะเถียงซีเอ็นเอ็นว่า 'ถุงภาพของคำ' ที่ดีกว่า - ในขณะที่คุณแสดงในภาพของคุณความผิดพลาดเกิดขึ้นที่คุณสมบัติระดับพิกเซล / ระดับต่ำ แม้จะมีอติพจน์ทั้งหมดไม่มีการแสดงระดับสูงในเลเยอร์ที่ซ่อนอยู่ - (ทุกคนทำผิดพลาดประเด็นก็คือบุคคลจะทำ 'ความผิดพลาด' เนื่องจากคุณสมบัติระดับสูงและจะรู้จักการ์ตูนของแมวซึ่งฉันไม่ชอบ ไม่เชื่อว่าจะ NN)

ตัวอย่างของโมเดลคอมพิวเตอร์ที่มีความซับซ้อนมากขึ้น (ซึ่งทำงานได้แย่กว่า NN) คือโมเดล 'ชิ้นส่วนที่ถอดเปลี่ยนได้'


4

เท่าที่ฉันรู้เครือข่ายประสาทส่วนใหญ่ไม่ได้ใช้การแจกแจงความน่าจะเป็นมาก่อนภาพอินพุต อย่างไรก็ตามคุณสามารถตีความการเลือกชุดฝึกอบรมให้เป็นการกระจายความน่าจะเป็น ในมุมมองนั้นภาพที่สร้างขึ้นเองเหล่านี้ไม่น่าจะถูกเลือกเป็นภาพในชุดทดสอบ วิธีหนึ่งในการวัด 'ความน่าจะเป็นแบบร่วม' คือการสร้างภาพแบบสุ่มแล้วติดป้าย ปัญหาจะเกิดขึ้นได้ว่า VAST ส่วนใหญ่จะไม่มีฉลาก ดังนั้นในการรับตัวอย่างที่มีป้ายกำกับจำนวนมากจะใช้เวลานานเกินไป


ขอบคุณสำหรับการตอบคำถาม :) ฉันไม่แน่ใจว่ามันหมายความว่า "วิธีหนึ่งในการวัด 'ความน่าจะเป็นร่วม' คือการสร้างภาพแบบสุ่มแล้วติดป้ายกำกับ" คุณหมายถึงการติดป้ายกำกับภาพแบบสุ่มด้วยตนเอง (เป็นหมวดหมู่อื่น )?
dontloo

1
ฉันหมายถึงการสร้างภาพโดยเลือกค่า RGB ของแต่ละพิกเซลแบบสุ่ม นั่นหมายความว่ารูปภาพแพนด้าขวาบนในโพสต์ของคุณและรูปภาพแพนด้า "กิบบอน" บนซ้ายจะมีโอกาสสร้างเท่า ๆ กัน ปัญหานี้คือว่าแต่ละพิกเซลมี 2 ^ 24 สีเป็นไปได้และภาพส่วนใหญ่ที่สร้างขึ้นจะไร้สาระ เมื่อถึงเวลาที่คุณสร้างแม้แต่ภาพเดียวที่สามารถระบุว่าเป็น "แพนด้า" จักรวาลก็จะหายไป
dimpol

โอ้ฉันเข้าใจแล้วดูเหมือนว่าจะมีงานต้องทำอีกมากขอบคุณมาก
dontloo
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.