ตัวอย่างที่ 1
กรณีทั่วไปกำลังแท็กในบริบทของการประมวลผลภาษาธรรมชาติ ดูที่นี่สำหรับคำอธิบายโดยละเอียด ความคิดนั้นโดยทั่วไปจะสามารถกำหนดหมวดหมู่คำศัพท์ในประโยค (มันเป็นคำนามคำคุณศัพท์ ... ) แนวคิดพื้นฐานคือคุณมีรูปแบบของภาษาของคุณประกอบด้วยแบบจำลองมาร์คอฟที่ซ่อนอยู่ ( HMM ) ในโมเดลนี้สถานะที่ซ่อนอยู่นั้นสอดคล้องกับหมวดหมู่คำศัพท์และสถานะที่สังเกตได้กับคำที่แท้จริง
โมเดลกราฟิกที่เกี่ยวข้องมีรูปแบบ
โดยที่คือลำดับของคำในประโยคและเป็นลำดับ จากแท็กx = ( x 1 , . . . , x N )y =(y1 , . . , yยังไม่มีข้อความ)x =(x1,..., xยังไม่มีข้อความ)
เมื่อผ่านการฝึกอบรมแล้วเป้าหมายคือการหาลำดับที่ถูกต้องของหมวดคำศัพท์ที่สอดคล้องกับประโยคอินพุตที่กำหนด นี่คือสูตรในการค้นหาลำดับของแท็กที่เข้ากันได้มากที่สุด / มีแนวโน้มมากที่สุดที่จะสร้างขึ้นโดยโมเดลภาษาเช่น
ฉ( y) = a r g m a xx ∈Yp ( x ) p ( y | x )
ตัวอย่างที่ 2
จริงๆแล้วตัวอย่างที่ดีกว่าคือการถดถอย ไม่เพียงเพราะง่ายต่อการเข้าใจ แต่ยังเป็นเพราะทำให้ความแตกต่างระหว่างโอกาสสูงสุด (ML) และสูงสุดหลัง (MAP) ชัดเจน
โดยทั่วไปปัญหาคือการปรับฟังก์ชั่นบางอย่างที่กำหนดโดยตัวอย่างด้วยการรวมกันเชิงเส้นของชุดของฟังก์ชันพื้นฐาน
โดยที่เป็นฟังก์ชันพื้นฐานและเป็นตุ้มน้ำหนัก โดยปกติจะสันนิษฐานว่าตัวอย่างเสียหายจากเสียงเกาส์เซียน ดังนั้นถ้าเราคิดว่าฟังก์ชั่นเป้าหมายสามารถเขียนได้อย่างแน่นอนเช่นการรวมกันเชิงเส้นแล้วเรามีเสื้อ
Y( x ; w ) = ∑ผมWผมφผม( x )
ϕ ( x )W
t = y( x ; w ) + ϵ
ดังนั้นเราจึงมี
การแก้ปัญหา ML ของปัญหานี้เทียบเท่ากับการย่อเล็กสุดp ( t | w ) = N( t | y( x ; w ) )
E( w ) = 12Σn( tn- น้ำหนักTϕ ( xn) )2
ซึ่งให้วิธีการแก้ไขข้อผิดพลาดน้อยที่สุดที่รู้จักกันดี ตอนนี้ ML มีความไวต่อเสียงรบกวนและในบางสถานการณ์อาจไม่มั่นคง MAP ช่วยให้คุณเลือกวิธีแก้ปัญหาที่ดีกว่าโดยการ จำกัด น้ำหนัก ตัวอย่างเช่นกรณีทั่วไปคือการถดถอยของสันเขาซึ่งคุณต้องการให้ตุ้มน้ำหนักมีบรรทัดฐานที่เล็กที่สุด
E( w ) = 12Σn( tn- น้ำหนักTϕ ( xn) )2+ λ ∑kW2k
ซึ่งเทียบเท่ากับการตั้งค่าแบบเกาส์ก่อนในน้ำหนัก{I}) โดยรวมแล้วน้ำหนักโดยประมาณคือยังไม่มีข้อความ( w | 0 , λ- 1ฉัน )
w = a r g m ฉันnWp ( w ; λ ) p ( t | w ; ϕ )
โปรดสังเกตว่าใน MAP น้ำหนักนั้นไม่ใช่พารามิเตอร์เหมือนใน ML แต่เป็นตัวแปรสุ่ม อย่างไรก็ตามทั้ง ML และ MAP เป็นตัวประมาณค่าจุด (จะส่งคืนชุดน้ำหนักที่เหมาะสมที่สุดแทนที่จะกระจายน้ำหนักที่เหมาะสมที่สุด)