คำถามติดแท็ก probability

ความน่าจะเป็นให้คำอธิบายเชิงปริมาณของเหตุการณ์ที่เกิดขึ้นโดยเฉพาะ

3
ความน่าจะเป็นที่เป็นอย่างไรจาก 25 ตัวเลขสุ่มระหว่าง 1 ถึง 100 ค่าสูงสุดจะปรากฏมากกว่าหนึ่งครั้ง
ในเกมออนไลน์หลายเกมเมื่อผู้เล่นทำภารกิจที่ยากบางครั้งรางวัลพิเศษจะมอบให้ทุกคนที่ทำงานให้สำเร็จสามารถใช้งานได้ โดยปกติจะเป็นเมานท์ (วิธีการขนส่ง) หรือรายการโต๊ะเครื่องแป้งอื่น (รายการที่ไม่ปรับปรุงประสิทธิภาพของตัวละคร เมื่อได้รับรางวัลดังกล่าววิธีที่ใช้กันโดยทั่วไปมากที่สุดในการพิจารณาว่าใครได้รับรางวัลคือการใช้ตัวเลขสุ่ม เกมมักจะมีคำสั่งพิเศษที่สร้างแบบสุ่ม (น่าจะเป็นแบบสุ่มหลอกไม่เข้ารหัสลับแบบสุ่ม) จำนวนระหว่าง 1 ถึง 100 (บางครั้งผู้เล่นสามารถเลือกการแพร่กระจายอื่นได้ แต่ 100 เป็นเรื่องธรรมดาที่สุด) ผู้เล่นแต่ละคนใช้คำสั่งนี้ผู้เล่นทุกคนสามารถดูได้ว่าใครรีดอะไรและไอเท็มนั้นจะมอบให้กับคนที่ม้วนสูงสุด เกมส่วนใหญ่มีระบบในตัวซึ่งผู้เล่นเพียงแค่กดปุ่มและเมื่อทุกคนกดปุ่มเกมจะจัดการที่เหลือโดยอัตโนมัติ บางครั้งผู้เล่นบางคนสร้างจำนวนสูงเท่ากันและไม่มีใครชนะ สิ่งนี้มักจะได้รับการแก้ไขโดยผู้เล่นที่สร้างหมายเลขใหม่จนกว่าจะมีจำนวนสูงสุดที่ไม่ซ้ำกัน คำถามของฉันมีดังต่อไปนี้: สมมติตัวสร้างตัวเลขสุ่มซึ่งสามารถสร้างตัวเลขใด ๆ ระหว่าง 1 ถึง 100 ด้วยความน่าจะเป็นเดียวกัน สมมติว่าคุณมีกลุ่มผู้เล่น 25 คนซึ่งแต่ละคนสร้าง 1 หมายเลขด้วยตัวสร้างตัวเลขแบบสุ่ม (แต่ละอันมีเมล็ดของตัวเอง) คุณจะมี 25 ตัวเลขระหว่าง 1 ถึง 100 โดยไม่มีข้อ จำกัด เกี่ยวกับจำนวนผู้เล่นที่หมุนปุ่มเฉพาะและไม่มีความสัมพันธ์ระหว่างตัวเลข โอกาสที่จำนวนสูงสุดที่สร้างจะถูกสร้างโดยผู้เล่นมากกว่า 1 คนคืออะไร? กล่าวอีกนัยหนึ่งความน่าจะเป็นของเน็คไทคืออะไร?

2
ความแตกต่างของตัวแปรสุ่ม iid lognormal สองตัว
Let X1X1X_1และX2X2X_2 2 iidrv ของที่log(X1),log(X2)∼N(μ,σ)log⁡(X1),log⁡(X2)∼N(μ,σ)\log(X_1),\log(X_2) \sim N(\mu,\sigma) ) ผมอยากจะรู้ว่าการกระจายสำหรับX1- X2X1-X2X_1 - X_2 2 สิ่งที่ดีที่สุดที่ฉันสามารถทำได้คือนำซีรีย์ของทั้งสอง Taylor และได้รับความแตกต่างคือผลรวมของความแตกต่างระหว่างสอง rv ปกติและสอง chi-squared rv นอกเหนือจากความแตกต่างที่เหลือระหว่างเงื่อนไขที่เหลือ มีวิธีที่ตรงไปตรงมามากขึ้นที่จะได้รับการกระจายความแตกต่างระหว่าง 2 iid log-normal rv หรือไม่?

1
การแปลงฟูริเยร์เพื่อแปลงเป็นฟิชเชอร์
ฟังก์ชั่นคุณสมบัติของการกระจายฟิชเชอร์ คือ: C ( t ) = Γ ( α + 1F( 1 , α )F(1,α)\mathcal{F}(1,\alpha) ที่Uเป็นฟังก์ชั่นไหลมารวมกัน hypergeometric ฉันพยายามที่จะแก้ปัญหาที่ผกผันฟูเรียร์F-1ที,xของn-convolutionการกู้คืนความหนาแน่นของตัวแปรxที่: F-1ที,x(C(T)n) โดยมีวัตถุประสงค์ของการได้รับ การกระจายตัวของผลรวมของnฟิชเชอร์กระจายตัวแปรสุ่ม ฉันสงสัยว่าใครบางคนมีความคิดใด ๆ ตามที่ดูเหมือนจะแก้ยากมาก ฉันลองค่าของαC( t ) = Γ ( α + 12)ยู( 1)2, 1 - α2, - ฉันt α )Γ ( α2)C(เสื้อ)=Γ(α+12)ยู(12,1-α2,-ผมเสื้อα)Γ(α2)C(t)=\frac{\Gamma \left(\frac{\alpha +1}{2}\right) U\left(\frac{1}{2},1-\frac{\alpha }{2},-i t \alpha …

3
K ประสบความสำเร็จในการทดลอง Bernoulli หรือการทดลองภาพยนตร์ของ George Lucas
ฉันกำลังอ่าน "The Drunkard's Walk" ตอนนี้และไม่สามารถเข้าใจเรื่องใดเรื่องหนึ่งได้ นี่มันไป: ลองนึกภาพว่า George Lucas สร้างภาพยนตร์ Star Wars ใหม่และในตลาดการทดสอบเดียวตัดสินใจทำการทดลองที่บ้า เขาเผยแพร่ภาพยนตร์เรื่องเดียวกันภายใต้สองชื่อ: "Star Wars: Episode A" และ "Star Wars: Episode B" ภาพยนตร์แต่ละเรื่องมีแคมเปญการตลาดและตารางการจัดจำหน่ายของตัวเองโดยมีรายละเอียดที่เหมือนกันยกเว้นตัวอย่างภาพยนตร์และโฆษณาสำหรับภาพยนตร์เรื่องหนึ่งที่พูดว่า "Episode A" และภาพยนตร์อื่น ๆ "Episode B" ตอนนี้เราทำการประกวดออกมา ภาพยนตร์เรื่องใดที่จะได้รับความนิยมมากขึ้น สมมติว่าเราดูผู้ชมภาพยนตร์ 20,000 คนแรกและบันทึกภาพยนตร์ที่พวกเขาเลือกที่จะดู (ไม่สนใจแฟน ๆ ที่กำลังจะตายทั้งคู่และยืนยันว่ามีความแตกต่างที่ลึกซึ้ง แต่มีความหมายระหว่างทั้งสอง) เนื่องจากภาพยนตร์และแคมเปญการตลาดของพวกเขาเหมือนกันเราสามารถสร้างแบบจำลองทางคณิตศาสตร์ด้วยวิธีนี้: ลองนึกภาพผู้ชมทั้งหมดในแถวและพลิกเหรียญสำหรับผู้ชมแต่ละคน ถ้าเหรียญก้มลงหัวเขาหรือเธอเห็นตอนที่ A; หากเหรียญก้อยจบลงก็เป็นตอนที่ B. เนื่องจากเหรียญมีโอกาสเท่ากันที่จะเกิดขึ้นไม่ว่าด้วยวิธีใดคุณอาจคิดว่าในสงครามบ็อกซ์ออฟฟิศทดลองนี้ภาพยนตร์แต่ละเรื่องควรเป็นผู้นำในครึ่งเวลา แต่คณิตศาสตร์ของการสุ่มบอกว่าเป็นอย่างอื่น: จำนวนการเปลี่ยนแปลงที่น่าจะเป็นไปได้มากที่สุดในการเป็นผู้นำคือ 0 และมันน่าจะเป็น …

1
มันมีความหมายอะไรกับ
บ่อยครั้งที่ในการศึกษาสถิติของฉันฉันพบคำศัพท์ " σσ\sigma -algebra ที่สร้างโดยตัวแปรสุ่ม" ฉันไม่เข้าใจคำจำกัดความของวิกิพีเดียแต่สิ่งสำคัญที่สุดคือฉันไม่เข้าใจสัญชาตญาณ ทำไม / เมื่อไหร่ที่เราต้องการσ−σ−\sigma-จีบราส์ที่สร้างขึ้นโดยตัวแปรสุ่ม? ความหมายของพวกเขาคืออะไร? ฉันรู้ดังต่อไปนี้: σσ\sigmaพีชคณิตในชุดΩΩ\Omegaคือชุดของว่างย่อยของΩΩ\Omegaซึ่งมีΩΩ\Omega , ปิดให้บริการภายใต้การเติมเต็มและอยู่ภายใต้สหภาพนับ เราแนะนำσσ\sigma -algebras ไปที่ช่องว่างสร้างความน่าจะเป็นตัวอย่างในช่องว่างที่ไม่มีที่สิ้นสุด โดยเฉพาะอย่างยิ่งถ้าΩΩ\Omegaไม่มีที่สิ้นสุดนับไม่ถ้วนเรารู้ว่ามีเซตย่อยที่ไม่สามารถวัดค่าได้ (ชุดที่เราไม่สามารถกำหนดความน่าจะเป็น) ดังนั้นเราไม่สามารถใช้ชุดพลังของΩΩ\Omega P(Ω)P(Ω)\mathcal{P}(\Omega)เป็นชุดเหตุการณ์FF\mathcal{F}เรา เราต้องการชุดที่มีขนาดเล็กกว่าซึ่งยังใหญ่พอที่จะกำหนดความน่าจะเป็นของเหตุการณ์ที่น่าสนใจและเราสามารถพูดคุยเกี่ยวกับการลู่เข้าของลำดับของตัวแปรสุ่ม ในระยะสั้นฉันคิดว่าฉันมีความเข้าใจอย่างเป็นธรรมชาติเกี่ยวกับσ-σ−\sigma- algebras ฉันต้องการที่จะมีความเข้าใจคล้ายกันสำหรับσ-σ−\sigma- algebras ที่สร้างขึ้นโดยตัวแปรสุ่ม: นิยามว่าทำไมเราต้องใช้พวกเขาปรีชาตัวอย่าง ...

1
ฉันต้องตายหลายครั้งเพื่อประเมินความเป็นธรรมของมันอย่างมั่นใจหรือไม่?
(ขออภัยล่วงหน้าสำหรับการใช้ภาษาฆราวาสมากกว่าภาษาทางสถิติ) ถ้าฉันต้องการวัดอัตราต่อรองของการกลิ้งแต่ละด้านของแม่พิมพ์หกด้านทางกายภาพที่เฉพาะเจาะจงให้อยู่ภายใน +/- 2% ด้วยความมั่นใจอย่างสมเหตุสมผลมั่นใจว่าจะต้องมีตัวอย่างม้วนจำนวนเท่าใด นั่นคือฉันจะต้องหมุนกี่ครั้งนับผลแต่ละครั้งเพื่อให้แน่ใจ 98% ว่าโอกาสที่จะหมุนแต่ละด้านอยู่ในช่วง 14.6% - 18.7% (หรือบางเกณฑ์ที่คล้ายกันซึ่งจะมีประมาณ 98% แน่ใจว่าผู้ตายมีความยุติธรรมภายใน 2%) (นี่เป็นเรื่องจริงในโลกแห่งเกมการจำลองโดยใช้ลูกเต๋าและต้องการให้แน่ใจว่าการออกแบบของลูกเต๋านั้นยอมรับได้ใกล้กับโอกาสที่จะหมุนแต่ละหมายเลขได้ 1/6 ซึ่งมีการอ้างว่าการออกแบบของลูกเต๋าทั่วไปหลายตัวนั้น กลิ้งลูกเต๋าดังกล่าวหลายครั้งละ 1,000 ครั้ง)

3
ทำไมความน่าจะเป็นสูงสุดและไม่น่าจะเป็นไปได้?
เหตุใดจึงเป็นเรื่องธรรมดาที่จะได้รับการประมาณการความน่าจะเป็นสูงสุดของพารามิเตอร์ แต่คุณแทบไม่เคยได้ยินเกี่ยวกับการประมาณค่าพารามิเตอร์ความน่าจะเป็นที่คาดหวัง (กล่าวคืออิงจากค่าที่คาดหวังมากกว่าโหมดของฟังก์ชันโอกาส) นี่เป็นเหตุผลหลักในเชิงประวัติศาสตร์หรือมีเหตุผลทางเทคนิคหรือเชิงทฤษฎีมากกว่านี้หรือไม่? จะมีข้อได้เปรียบที่สำคัญและ / หรือข้อเสียในการใช้การประมาณความน่าจะเป็นที่คาดหวังมากกว่าการประมาณการความเป็นไปได้สูงสุดหรือไม่? มีบางพื้นที่ที่คาดการณ์ความน่าจะเป็นใช้เป็นประจำหรือไม่?

4
ทำไม softmax เอาท์พุตจึงไม่ใช่สิ่งที่ไม่แน่นอนสำหรับการเรียนรู้แบบลึก?
ฉันได้ทำงานกับ Convolutional Neural Networks (CNNs) มาระยะหนึ่งแล้วซึ่งส่วนใหญ่เป็นข้อมูลภาพสำหรับเซกเมนต์เซกเมนต์ / เซกเมนต์อินสแตนซ์ ฉันมักจะเห็นภาพซอฟต์แม็กซ์ของเอาต์พุตเครือข่ายเป็น "แผนที่ความร้อน" เพื่อดูว่าการเปิดใช้งานพิกเซลต่อคลาสสำหรับระดับหนึ่งนั้นสูงเพียงใด ฉันตีความการเปิดใช้งานในระดับต่ำว่า "ไม่แน่นอน" / "ไม่มั่นใจ" และมีการเปิดใช้งานสูงตามการคาดการณ์ "มั่นใจ" / "มั่นใจ" โดยทั่วไปสิ่งนี้หมายถึงการตีความเอาต์พุต softmax (ค่าภายใน( 0 , 1 )(0,1)(0,1) ) เป็นความน่าจะเป็นหรือ (ไม่) การวัดความแน่นอนของโมเดล ( เช่นฉันตีความวัตถุ / พื้นที่ที่มีการเปิดใช้งานซอฟต์แม็กซ์ต่ำโดยเฉลี่ยอยู่ที่พิกเซลของมันยากสำหรับ CNN ในการตรวจจับดังนั้น CNN จึง "ไม่แน่ใจ" เกี่ยวกับการทำนายวัตถุชนิดนี้ ) ในการรับรู้ของฉันนี้มักจะทำงานและเพิ่มตัวอย่างเพิ่มเติมของพื้นที่ "ไม่แน่นอน" เพื่อผลลัพธ์การฝึกอบรมปรับปรุงผลลัพธ์เหล่านี้ อย่างไรก็ตามตอนนี้ฉันได้ยินมาค่อนข้างบ่อยจากหลาย ๆ ด้านที่การใช้ / การตีความเอาต์พุต softmax …

3
มีความแตกต่างระหว่างผู้ถี่ถ้วนและเบย์ในคำจำกัดความของความน่าจะเป็นหรือไม่?
บางแหล่งกล่าวว่าฟังก์ชันความน่าจะเป็นไม่ใช่ความน่าจะเป็นแบบมีเงื่อนไขบางคนบอกว่าเป็น นี่ทำให้ฉันสับสนมาก จากแหล่งข้อมูลส่วนใหญ่ที่ฉันเคยเห็นความน่าจะเป็นของการกระจายด้วยพารามิเตอร์ควรเป็นผลคูณของฟังก์ชันความน่าจะเป็นที่ได้รับจากตัวอย่างของ :θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) ตัวอย่างเช่นใน Logistic Regression เราใช้อัลกอริธึมการปรับให้เหมาะสมเพื่อเพิ่มฟังก์ชั่นความน่าจะเป็นสูงสุด (การประมาณความน่าจะเป็นสูงสุด) เพื่อให้ได้พารามิเตอร์ที่ดีที่สุด จากตัวอย่างการฝึกอบรมซึ่งเราคิดว่าเป็นอิสระจากกันเราต้องการเพิ่มผลลัพธ์ของความน่าจะเป็นสูงสุด (หรือฟังก์ชั่นมวลความน่าจะเป็นร่วม) ดูเหมือนว่าฉันจะค่อนข้างชัดเจนnnn ตามความสัมพันธ์ระหว่าง: ความน่าจะเป็น, ความน่าจะเป็นตามเงื่อนไขและอัตราความล้มเหลว "ความน่าจะเป็นไม่ใช่ความน่าจะเป็นและไม่ใช่ความน่าจะเป็นแบบมีเงื่อนไข" นอกจากนี้ยังกล่าวถึง"ความน่าจะเป็นคือความน่าจะเป็นแบบมีเงื่อนไขเฉพาะในการทำความเข้าใจความน่าจะเป็นแบบเบย์เช่นถ้าคุณคิดว่าเป็นตัวแปรสุ่ม"θθ\theta ฉันอ่านเกี่ยวกับมุมมองที่แตกต่างกันของการรักษาปัญหาการเรียนรู้ระหว่างผู้ใช้บ่อยและ Bayesian แหล่งอ้างอิงสำหรับการอนุมานแบบเบส์เรามีความสำคัญ , โอกาสและเราต้องการที่จะได้รับหลังโดยใช้ทฤษฎีบทแบบเบส์:P(θ)P(θ)P(\theta)P(X|θ)P(X|θ)P(X|\theta)P(θ|X)P(θ|X)P(\theta|X) P(θ|X)=P(X|θ)×P(θ)P(X)P(θ|X)=P(X|θ)×P(θ)P(X)P(\theta|X)=\dfrac{P(X|\theta) \times P(\theta)}{P(X)} ฉันไม่คุ้นเคยกับการอนุมานแบบเบย์ เหตุใดซึ่งเป็นการกระจายของข้อมูลที่สังเกตตามเงื่อนไขในพารามิเตอร์ของมันก็ถูกเรียกว่าเป็นไปได้หรือไม่? ในวิกิพีเดียมันบอกว่าบางครั้งมันก็เป็นลายลักษณ์อักษรtheta) สิ่งนี้หมายความว่า?P(X|θ)P(X|θ)P(X|\theta)L(θ|X)=p(X|θ)L(θ|X)=p(X|θ)L(\theta|X)=p(X|\theta) มีความแตกต่างระหว่างคำจำกัดความของ Frequentistist และ Bayesian เกี่ยวกับความเป็นไปได้หรือไม่? ขอบคุณ แก้ไข: มีหลายวิธีในการตีความทฤษฎีบทของเบย์ - การตีความแบบเบย์และการตีความบ่อย (ดู: ทฤษฎีบทของเบย์ - วิกิพีเดีย …

2
การกระจายแบบไม่ต่อเนื่องนี้มีชื่อหรือไม่?
การกระจายแบบไม่ต่อเนื่องนี้มีชื่อหรือไม่? สำหรับi∈1...Ni∈1...Ni \in 1...N f(i)=1N∑Nj=i1jf(i)=1N∑j=iN1jf(i) = \frac{1}{N} \sum_{j = i}^N \frac{1}{j} ฉันเจอการกระจายตัวนี้จากรายการต่อไปนี้: ฉันมีรายการของรายการที่ถูกจัดอันดับโดยฟังก์ชั่นยูทิลิตี้ ฉันต้องการสุ่มเลือกหนึ่งในรายการโดยให้ความเอนเอียงไปยังจุดเริ่มต้นของรายการ ดังนั้นก่อนอื่นให้เลือกดัชนีระหว่าง 1 ถึงอย่างสม่ำเสมอ จากนั้นผมก็เลือกรายการระหว่างดัชนี 1 และเจฉันเชื่อว่ากระบวนการนี้ส่งผลให้เกิดการกระจายตัวข้างต้นj N jNNNJjjยังไม่มีข้อความNNJjj

1
การแปลง (การทำให้เป็นปกติ) ค่าความน่าจะเป็นที่น้อยมากเป็นความน่าจะเป็น
ฉันกำลังเขียนอัลกอริทึมที่ได้รับแบบจำลองฉันคำนวณความน่าจะเป็นของรายการชุดข้อมูลจากนั้นจำเป็นต้องทำให้เป็นปกติ (เป็นความน่าจะเป็น) แต่ละโอกาส ดังนั้นบางอย่างเช่น [0.00043, 0.00004, 0.00321] อาจถูกแปลงเป็นอาจจะเป็น [0.2, 0.03, 0.77] ปัญหาของฉันคือความน่าจะเป็นของบันทึกที่ฉันกำลังทำงานอยู่มีขนาดค่อนข้างเล็ก (ตัวอย่างเช่นในพื้นที่บันทึกค่ามีค่าเช่น -269647.432, -231444.981 เป็นต้น) ในรหัส C ++ ของฉันเมื่อฉันพยายามเพิ่มพวกเขาสองคน (โดยการยกกำลังของพวกเขา) ฉันได้รับคำตอบของ "Inf" ฉันพยายามเพิ่มพวกเขาใน log-space (Summation / Subtraction of log)แต่ก็พบปัญหาเดียวกันอีกครั้ง ใครสามารถแบ่งปันความเห็นของผู้เชี่ยวชาญเกี่ยวกับเรื่องนี้?

3
การเปรียบเทียบและการตัดกันค่า p ระดับนัยสำคัญและข้อผิดพลาดประเภทที่ 1
ฉันสงสัยว่าถ้าใครสามารถให้บทสรุปสั้น ๆ เกี่ยวกับคำจำกัดความและการใช้ค่า p, ระดับนัยสำคัญและข้อผิดพลาดประเภทที่ 1 ฉันเข้าใจว่าค่า p ถูกกำหนดเป็น "ความน่าจะเป็นที่จะได้รับสถิติการทดสอบอย่างน้อยที่สุดเท่าที่เราสังเกตจริง" ในขณะที่ระดับนัยสำคัญเป็นเพียงค่า cutoff ตามอำเภอใจเพื่อประเมินว่าค่า p นั้นมีความสำคัญหรือไม่ . ข้อผิดพลาดประเภทที่ 1 คือข้อผิดพลาดของการปฏิเสธสมมติฐานว่างที่เป็นจริง อย่างไรก็ตามฉันไม่แน่ใจเกี่ยวกับความแตกต่างระหว่างระดับนัยสำคัญและข้อผิดพลาดประเภทที่ 1 พวกเขาไม่ใช่แนวคิดเดียวกันหรือไม่ ตัวอย่างเช่นสมมติว่าการทดลองง่าย ๆ ที่ฉันพลิกเหรียญ 1,000 ครั้งและนับจำนวนครั้งที่มันตกลงบน 'หัว' สมมุติฐานว่างของฉัน, H0, นั่นคือหัว = 500 (เหรียญไม่มีอคติ) จากนั้นฉันตั้งระดับความสำคัญของฉันที่ alpha = 0.05 ฉันพลิกเหรียญ 1,000 ครั้งจากนั้นฉันคำนวณค่า p ถ้าค่า p เป็น> 0.05 จากนั้นฉันไม่สามารถปฏิเสธสมมติฐานว่างได้และถ้าค่า p เป็น <0.05 …

3
ตัวแปรสุ่มสองตัวมีการแจกแจงแบบเดียวกัน แต่แตกต่างกันอย่างแน่นอนหรือไม่?
เป็นไปได้ว่าตัวแปรสุ่มสองตัวมีการแจกแจงแบบเดียวกัน แต่พวกเขาก็เกือบจะแตกต่างกันแน่นอน?

2
เราจะหาความน่าจะเป็นที่ตัวแปรสุ่มสูงสุดได้อย่างไร
\newcommand{\P}{\mathbb{P}}สมมติว่าเรามีตัวแปรสุ่มอิสระ , ,ด้วยวิธีการ จำกัดและความแปรปรวน , , 2 ฉันกำลังมองหาขอบเขตการกระจายฟรีที่น่าจะเป็นที่ใดมีขนาดใหญ่กว่าอื่น ๆ ทั้งหมด ,ฉันNNNX1X1X_1……\ldotsXnXnX_nμ1≤…≤μNμ1≤…≤μN\mu_1 \leq \ldots \leq \mu_Nσ21σ12\sigma_1^2……\ldotsσ2NσN2\sigma_N^2Xi≠XNXi≠XNX_i \neq X_NXjXjX_jj≠ij≠ij \neq i กล่าวอีกนัยหนึ่งถ้าเพื่อความง่ายเราถือว่าการแจกแจงของนั้นต่อเนื่อง (เช่น ) ฉันกำลังมองหาขอบเขตบน: ถ้าเราสามารถใช้อสมการของ Chebyshev เพื่อรับ: \ P (X_1 = \ max_j X_j) = \ P (X_1> X_2) \ leq \ frac {\ sigma_1 ^ 2 + \ sigma_2 ^ …

1
การกระจายตัวเล็กน้อยของเส้นทแยงมุมของเมทริกซ์ Wishart แบบกระจาย
สมมติว่า ) ฉันสนใจในการกระจายร่อแร่ขององค์ประกอบในแนวทแยงวินิจฉัย( X ) = ( x 11 , ... , x พีพี ) มีผลลัพธ์ง่าย ๆ สองสามข้อเกี่ยวกับการกระจายตัวของเมทริกซ์ย่อยของX (อย่างน้อยก็บางอันอยู่ในวิกิพีเดีย) จากนี้ฉันสามารถคิดได้ว่าการกระจายตัวขององค์ประกอบเดี่ยวใด ๆ ในแนวทแยงเป็นแกมมาผกผัน แต่ฉันไม่สามารถอนุมานการกระจายข้อต่อได้X∼ InvWishart( ν, Σ0)X~InvWishart⁡(ν,Σ0)X\sim \operatorname{InvWishart}(\nu, \Sigma_0)วินิจฉัย( X) = ( x11, … , xพีพี)วินิจฉัย⁡(X)=(x11,...,xพีพี)\operatorname{diag}(X) = (x_{11}, \dots, x_{pp})XXX ฉันคิดว่าบางทีมันอาจจะมาจากองค์ประกอบเช่น: p ( x11|xผมฉัน, ฉัน> 1 ) p ( x22|xผมฉัน, ฉัน> …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.