คำถามติดแท็ก statistics

12
ทำไมกำลังพลเกินกำลังไม่ดี?
ฉันได้ศึกษาล็อตนี้แล้วพวกเขาบอกว่าการกระทำที่เกินจริงในการเรียนรู้ด้วยเครื่องจักรนั้นไม่ดี แต่เซลล์ประสาทของเราแข็งแกร่งมากและค้นหาการกระทำ / ความรู้สึกที่ดีที่สุดที่เราไปหรือหลีกเลี่ยง / ดีโดยตัวกระตุ้นที่ไม่ดีหรือดีหมายถึงการกระทำจะมีระดับและจบลงด้วยการกระทำที่ดีที่สุด (ขวา) ความมั่นใจที่แข็งแกร่งเป็นพิเศษ มันล้มเหลวอย่างไร มันใช้ทริกเกอร์ที่เป็นบวกและลบเพื่อยกเลิกการเพิ่มการกระทำที่พูดจาก 44pos ถึง 22neg

1
การใช้ความคาดหวังสูงสุดกับตัวอย่างเหรียญ
เมื่อเร็ว ๆ นี้ฉันได้ศึกษาด้วยตนเองถึงความคาดหวังสูงสุดและคว้าตัวอย่างง่ายๆในกระบวนการ: จากที่นี่ : มีสามเหรียญ ,และมี ,และความน่าจะเป็นที่จะลงจอดบนเฮดเมื่อถูกโยน โยนc_0หากผลลัพธ์คือ Head ให้โยนสามครั้งมิฉะนั้นจะโยนสามครั้ง ข้อมูลที่สังเกตได้ที่ผลิตโดยและเป็นดังนี้: HHH, TTT, HHH, TTT, HHH ข้อมูลที่ซ่อนอยู่เป็นผลมาจากc_0ประมาณการหน้า1 p 2c0c0c_0c1c1c_1c2c2c_2p0p0p_0p1p1p_1p2p2p_2c0c0c_0c1c1c_1c2c2c_2c1c1c_1c2c2c_2c 0 c0c0c_0p0p0p_0 ,และP_2p1p1p_1p2p2p_2 และจากที่นี่ : มีสองเหรียญcAcAc_AและcBcBc_BกับpApAp_AและpBpBp_Bเป็นความน่าจะเป็นที่จะลงจอดบนหัวเมื่อโยน ในแต่ละรอบเลือกหนึ่งเหรียญโดยการสุ่มและโยนสิบครั้ง; บันทึกผลลัพธ์ ข้อมูลที่สังเกตได้คือผลลัพธ์การโยนที่ได้จากสองเหรียญ อย่างไรก็ตามเราไม่ทราบว่าเหรียญใดถูกเลือกสำหรับรอบหนึ่ง ๆ ประมาณการpApAp_AและpBpBp_Bบี ในขณะที่ฉันสามารถคำนวณได้ แต่ฉันไม่สามารถเกี่ยวข้องกับวิธีที่พวกเขาแก้ไขกับทฤษฎี EM ดั้งเดิมได้ โดยเฉพาะอย่างยิ่งระหว่างขั้นตอน M-Step ของทั้งสองตัวอย่างฉันไม่เห็นว่าพวกเขากำลังเพิ่มประสิทธิภาพสูงสุดอย่างไร ดูเหมือนว่าพวกเขากำลังคำนวณพารามิเตอร์ใหม่และพารามิเตอร์ใหม่นั้นดีกว่าพารามิเตอร์เดิม ยิ่งไปกว่านั้น E-Steps ทั้งสองนั้นไม่ได้มีลักษณะที่เหมือนกันซึ่งไม่ต้องพูดถึง E-Step ของทฤษฎีดั้งเดิม ดังนั้นตัวอย่างเหล่านี้ทำงานอย่างไร

6
การหาค่า XOR สูงสุดของตัวเลขสองตัวในช่วงเวลาหนึ่ง: เราจะทำได้ดีกว่าสมการกำลังสองหรือไม่?
สมมติว่าเรากำลังได้รับสองหมายเลขและและที่เราต้องการที่จะหาสำหรับL \ le i, \, J \ le Rlllrrrmax(i⊕j)max(i⊕j)\max{(i\oplus j)}l≤i,j≤rl≤i,j≤rl\le i,\,j\le r อัลกอริทึมnaïveเพียงตรวจสอบคู่ที่เป็นไปได้ทั้งหมด เช่นในทับทิมเรามี: def max_xor(l, r) max = 0 (l..r).each do |i| (i..r).each do |j| if (i ^ j > max) max = i ^ j end end end max end ฉันรู้สึกว่าเราสามารถทำได้ดีกว่าสมการกำลังสอง มีอัลกอริทึมที่ดีกว่าสำหรับปัญหานี้หรือไม่?

4
อะไรคือความสัมพันธ์ระหว่างสหสัมพันธ์และสาเหตุในการเรียนรู้ของเครื่อง?
มันเป็นความจริงที่รู้จักกันดีว่า "ความสัมพันธ์ไม่ได้เป็นสาเหตุที่เท่าเทียมกัน" แต่การเรียนรู้ของเครื่องดูเหมือนจะเกือบทั้งหมดขึ้นอยู่กับสหสัมพันธ์ ฉันกำลังทำงานกับระบบเพื่อประเมินประสิทธิภาพของนักเรียนตามคำถามตามผลงานที่ผ่านมา ไม่เหมือนกับงานอื่น ๆ เช่นการค้นหาโดย Google สิ่งนี้ไม่เหมือนกับระบบที่สามารถหาได้ง่าย - ดังนั้นสาเหตุไม่เกี่ยวข้องกับเรื่องนั้น เห็นได้ชัดว่าถ้าเราต้องการทำการทดลองเพื่อปรับระบบให้เหมาะสมเราจะต้องใส่ใจกับความแตกต่างของความสัมพันธ์ / สาเหตุ แต่จากมุมมองของการสร้างระบบเพื่อเลือกคำถามที่น่าจะเป็นระดับความยากที่เหมาะสมความแตกต่างนี้มีความสำคัญหรือไม่?

1
ปรับให้เรียบในโมเดลไร้เดียงสา
ตัวทำนายไร้เดียงสาทำการทำนายโดยใช้สูตรนี้: P(Y=y|X=x)=αP(Y=y)∏iP(Xi=xi|Y=y)P(Y=y|X=x)=αP(Y=y)∏iP(Xi=xi|Y=y)P(Y=y|X=x) = \alpha P(Y=y)\prod_i P(X_i=x_i|Y=y) โดยที่เป็นปัจจัยทำให้ปกติ สิ่งนี้ต้องการประมาณพารามิเตอร์จากข้อมูล ถ้าเราทำเช่นนี้กับ -smoothing เราก็จะได้ค่าประมาณαα\alphaP(Xi=xi|Y=y)P(Xi=xi|Y=y)P(X_i=x_i|Y=y)kkk P^(Xi=xi|Y=y)=#{Xi=xi,Y=y}+k#{Y=y}+nikP^(Xi=xi|Y=y)=#{Xi=xi,Y=y}+k#{Y=y}+nik\hat{P}(X_i=x_i|Y=y) = \frac{\#\{X_i=x_i,Y=y\} + k}{\#\{Y=y\}+n_ik} ที่มีค่าเป็นไปได้สำหรับx_iฉันสบายดีกับสิ่งนี้ อย่างไรก็ตามก่อนหน้านี้เรามีninin_iXiXiX_i P^(Y=y)=#{Y=y}NP^(Y=y)=#{Y=y}N\hat{P}(Y=y) = \frac{\#\{Y=y\}}{N} โดยที่มีตัวอย่างในชุดข้อมูล ทำไมเราไม่ทำให้เรียบก่อนหน้านี้ด้วย? หรือค่อนข้างไม่เราเรียบก่อน? ถ้าเป็นเช่นนั้นเราเลือกพารามิเตอร์การปรับให้เรียบอะไร ดูเหมือนโง่เล็กน้อยที่จะเลือกเนื่องจากเราทำการคำนวณที่แตกต่างกัน มีฉันทามติหรือไม่? หรือมันไม่สำคัญมากเกินไป?NNNkkk
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.