โดยทั่วไปโครงข่ายประสาทเทียมไม่ได้ใช้เพื่อจำลองความหนาแน่นของความน่าจะเป็นที่สมบูรณ์ การมุ่งเน้นของพวกเขาคือเพียงทำแบบจำลองค่าเฉลี่ยของการแจกแจง (หรือในสถานการณ์ที่กำหนดได้ง่าย ๆ คือฟังก์ชันที่ไม่ใช่เชิงเส้น) อย่างไรก็ตามมันเป็นไปได้ที่จะสร้างแบบจำลองความหนาแน่นของความน่าจะเป็นที่สมบูรณ์ผ่านโครงข่ายประสาทเทียม
วิธีที่ง่ายวิธีหนึ่งในการทำเช่นนี้สำหรับกรณีเกาส์เซียนคือการปล่อยค่าเฉลี่ยจากเอาต์พุตหนึ่งและความแปรปรวนจากเอาต์พุตอื่นของเครือข่ายและจากนั้นย่อเป็นส่วนหนึ่งของ กระบวนการฝึกอบรมแทนข้อผิดพลาดกำลังสองทั่วไป นี่เป็นขั้นตอนความน่าจะเป็นสูงสุดสำหรับโครงข่ายประสาทเทียม−logN(y|x;μ,σ)
เมื่อคุณฝึกฝนเครือข่ายนี้ทุกครั้งที่คุณเสียบค่าเป็นอินพุตมันจะให้μและσจากนั้นคุณสามารถเสียบทริปเลตทั้งหมดy , μ , σกับความหนาแน่นf ( y | x ) ∼ N ( μ , σ )เพื่อให้ได้ค่าความหนาแน่นสำหรับy ที่คุณชอบ ในขั้นตอนนี้คุณสามารถเลือกค่าy ที่จะใช้ตามฟังก์ชันการสูญเสียโดเมนจริง สิ่งหนึ่งที่ต้องจำไว้ก็คือสำหรับμการเปิดใช้งานเอาต์พุตควรไม่ถูก จำกัด เพื่อให้คุณสามารถปล่อย-xμσy,μ,σf(y|x)∼N(μ,σ)yyμถึง + infขณะที่ σควรเป็นการเปิดใช้งานเชิงบวกเท่านั้น−inf+infσ
โดยทั่วไปเว้นแต่เป็นฟังก์ชันที่กำหนดไว้แล้วหลังจากที่เราฝึกอบรมการสูญเสียกำลังสองมาตรฐานที่ใช้ในเครือข่ายประสาทเทียมเป็นขั้นตอนเดียวกับที่ฉันอธิบายไว้ข้างต้น ภายใต้ประทุนที่กระจายสันนิษฐานโดยปริยายโดยไม่ต้องดูแลเกี่ยวกับσและถ้าคุณตรวจสอบอย่างรอบคอบ- L o กรัมN ( Y | x ; μ , σ )ช่วยให้คุณแสดงออกสำหรับการสูญเสียกำลังสอง ( การสูญเสีย ฟังก์ชั่นของเครื่องมือประมาณความเป็นไปได้สูงสุดของเกาส์เซียน ) ในสถานการณ์สมมตินี้แทนที่จะเป็นyGaussianσ−logN(y|x;μ,σ)yค่าที่คุณชอบคุณติดอยู่กับการเปล่งทุกครั้งเมื่อได้รับค่าxใหม่μx
สำหรับการจำแนกการส่งออกจะเป็นกระจายแทนG U s s ฉันnซึ่งมีพารามิเตอร์เดียวในการปล่อย ตามที่ระบุในคำตอบอื่น ๆ พารามิเตอร์นี้อยู่ระหว่าง0ถึง1ดังนั้นการเปิดใช้งานเอาต์พุตควรเป็นไปตามนั้น มันอาจเป็นฟังก์ชันลอจิสติกหรืออย่างอื่นที่บรรลุวัตถุประสงค์เดียวกันBernoulliGaussian01
วิธีการที่ซับซ้อนมากขึ้นคือเครือข่ายความหนาแน่นของส่วนผสมของบิชอป คุณสามารถอ่านเกี่ยวกับเรื่องนี้ได้ในเอกสารอ้างอิงบ่อยที่นี่:
https://publications.aston.ac.uk/373/1/NCRG_94_004.pdf