คำถามติดแท็ก simulation

พื้นที่กว้างใหญ่ซึ่งรวมถึงการสร้างผลลัพธ์จากแบบจำลองคอมพิวเตอร์

3
อะไรคือข้อได้เปรียบของเครื่องกำเนิดไฟฟ้าแบบเอกซ์โพเนนเชียลแบบสุ่มโดยใช้วิธีของ Ahrens และ Dieter (1972) แทนที่จะใช้การแปลงผกผัน?
คำถามของฉันเป็นแรงบันดาลใจR 's rexp()ในตัวเครื่องกำเนิดไฟฟ้าจำนวนสุ่มชี้แจงฟังก์ชั่น เมื่อพยายามที่จะสร้างการกระจายชี้แจงตัวเลขสุ่มตำราหลายแนะนำผกผันเปลี่ยนวิธีการตามที่ระบุไว้ในหน้านี้วิกิพีเดีย ฉันรู้ว่ามีวิธีการอื่นเพื่อให้งานนี้สำเร็จ โดยเฉพาะอย่างยิ่งR 's รหัสที่มาใช้วิธีการที่ระบุไว้ในกระดาษโดย Ahrens & หิวโหย (1972) ฉันมั่นใจว่าวิธี Ahrens-Dieter (AD) นั้นถูกต้อง ยังฉันไม่เห็นประโยชน์ของการใช้วิธีการของพวกเขาเมื่อเทียบกับวิธีการแปลงผกผัน (IT) โฆษณาไม่เพียง แต่ซับซ้อนในการติดตั้งมากกว่าไอที ดูเหมือนจะไม่ได้รับประโยชน์ความเร็วอย่างใดอย่างหนึ่ง นี่คือรหัสRของฉันที่จะเปรียบเทียบทั้งสองวิธีแล้วตามด้วยผลลัพธ์ invTrans <- function(n) -log(runif(n)) print("For the inverse transform:") print(system.time(invTrans(1e8))) print("For the Ahrens-Dieter algorithm:") print(system.time(rexp(1e8))) ผล: [1] "For the inverse transform:" user system elapsed 4.227 0.266 4.597 [1] "For …

2
การตั้งค่าใดที่จะมั่นใจได้ว่าช่วงเวลาจะไม่ดีขึ้นเมื่อขนาดตัวอย่างเพิ่มขึ้น
ในโพสต์บล็อกฉันพบการอ้างสิทธิ์นั้น "ฉันเชื่อ WG Cochrane จุดแรก (ประมาณ 1970's) ว่าด้วยช่วงความเชื่อมั่นในการตั้งค่าการสังเกตขนาดของตัวอย่างขนาดเล็กส่งผลให้การครอบคลุมที่ดีขึ้นด้วยตัวอย่างที่มีขนาดใหญ่พอให้ใกล้ศูนย์ครอบคลุม! ตอนนี้ฉันคิดว่าความกว้างของ CI ควรเข้าหา 0 ด้วยการเพิ่มขนาดตัวอย่าง แต่ความคิดที่ว่าความครอบคลุมจะแย่ลงพร้อมกันไม่น่าเชื่อถือสำหรับฉัน การเรียกร้องนี้เป็นจริงและภายใต้สถานการณ์ใด หรือฉันอ่านผิด ฉันใช้การจำลองโดยใช้ข้อมูลที่กระจายแบบสุ่มที่มีขนาดตัวอย่างจาก 10,000 ถึง 1000000 (ทดสอบหนึ่งตัวอย่าง, 95% CI), 1,000 เรียกใช้ในทุกขนาดตัวอย่างและความครอบคลุมไม่เลวร้ายสำหรับขนาดตัวอย่างที่สูงขึ้น (แทนฉันพบอัตราข้อผิดพลาดที่คาดว่าจะใกล้ ~ 5%)

3
การใช้คอมพิวเตอร์จำลองเพื่อเข้าใจแนวคิดทางสถิติในระดับบัณฑิตศึกษา
สวัสดีฉันกำลังเรียนหลักสูตรบัณฑิตศึกษาในสถิติและเราได้ครอบคลุมสถิติการทดสอบและแนวคิดอื่น ๆ อย่างไรก็ตามฉันมักจะสามารถใช้สูตรและพัฒนาสัญชาตญาณเกี่ยวกับวิธีการทำงาน แต่ฉันมักจะรู้สึกว่าถ้าฉันสำรองการศึกษาของฉันด้วยการทดลองจำลองฉันจะพัฒนาสัญชาตญาณเป็นปัญหาที่มือ . ดังนั้นฉันจึงคิดว่าจะเขียนแบบจำลองง่าย ๆ เพื่อให้เข้าใจแนวคิดบางอย่างที่เราพูดถึงในชั้นเรียนได้ดีขึ้น ตอนนี้ฉันสามารถใช้พูด Java เพื่อ: สร้างประชากรสุ่มโดยมีค่าเฉลี่ยและส่วนเบี่ยงเบนมาตรฐาน จากนั้นนำตัวอย่างเล็ก ๆ และลองพยายามคำนวณข้อผิดพลาด Type-I และ Type-II เชิงประจักษ์ ตอนนี้คำถามที่ฉันมีคือ: นี่เป็นวิธีที่ถูกต้องตามกฎหมายในการพัฒนาสัญชาตญาณหรือไม่? มีซอฟต์แวร์ให้ทำเช่นนี้SASหรือRไม่? นี่เป็นวินัยในสถิติที่เกี่ยวข้องกับการเขียนโปรแกรมเช่น: สถิติการทดลองหรือไม่, สถิติการคำนวณ? จำลอง?

3
การศึกษาแบบจำลอง: วิธีการเลือกจำนวนการทำซ้ำ?
ฉันต้องการสร้างข้อมูลด้วย "รุ่น 1" และปรับให้พอดีกับ "รุ่น 2" แนวคิดพื้นฐานคือการตรวจสอบคุณสมบัติความทนทานของ "รุ่น 2" ฉันสนใจเป็นพิเศษในอัตราความครอบคลุมของช่วงความมั่นใจ 95% (ตามการประมาณปกติ) ฉันจะตั้งค่าจำนวนการทำซ้ำได้อย่างไร เป็นความจริงหรือไม่ที่การทำซ้ำที่มีขนาดใหญ่เกินความจำเป็น ถ้าเป็นเช่นนั้นได้อย่างไร

2
ทำไมไม่ทำการวิเคราะห์อภิมานข้อมูลที่จำลองบางส่วน?
พื้นหลัง: meta-analysis ทั่วไปในด้านจิตวิทยาอาจพยายามที่จะสร้างแบบจำลองความสัมพันธ์ระหว่างสองตัวแปร X และ Y การวิเคราะห์มักจะเกี่ยวข้องกับการได้รับชุดของความสัมพันธ์ที่เกี่ยวข้องจากวรรณกรรมพร้อมกับขนาดของกลุ่มตัวอย่าง สูตรสามารถนำไปใช้ในการคำนวณความสัมพันธ์เฉลี่ยถ่วงน้ำหนัก จากนั้นการวิเคราะห์สามารถดำเนินการเพื่อดูว่าสหสัมพันธ์แตกต่างกันไปตามการศึกษามากกว่าที่จะถูกบอกเป็นนัยจากผลกระทบของการสุ่มตัวอย่างแบบสุ่ม นอกจากนี้การวิเคราะห์สามารถทำให้ซับซ้อนมากขึ้น การประมาณการสามารถปรับได้สำหรับความน่าเชื่อถือข้อ จำกัด ช่วงและอื่น ๆ ความสัมพันธ์สามารถใช้ร่วมกันเพื่อสำรวจการสร้างแบบจำลองสมการโครงสร้างหรือการถดถอยเมตาดาต้าและอื่น ๆ อย่างไรก็ตามการวิเคราะห์ทั้งหมดเหล่านี้จะดำเนินการโดยใช้สถิติสรุป (เช่นความสัมพันธ์อัตราส่วนอัตราต่อรองความแตกต่างของค่าเฉลี่ยที่ได้มาตรฐาน) เป็นข้อมูลอินพุต สิ่งนี้ต้องการการใช้สูตรและขั้นตอนพิเศษที่ยอมรับสถิติสรุป วิธีการทางเลือกในการวิเคราะห์อภิมาน ดังนั้นฉันจึงคิดเกี่ยวกับวิธีทางเลือกในการวิเคราะห์อภิมานโดยใช้ข้อมูลดิบเป็นข้อมูลป้อนเข้า เช่นสำหรับความสัมพันธ์ข้อมูลอินพุตจะเป็นข้อมูลดิบที่ใช้ในการสร้างความสัมพันธ์ เห็นได้ชัดว่าใน meta-analyse ส่วนใหญ่จะมีหลายอย่างถ้าไม่มีข้อมูลดิบที่แท้จริงไม่สามารถใช้ได้ ดังนั้นขั้นตอนพื้นฐานอาจมีลักษณะเช่นนี้: ติดต่อผู้เขียนและเผยแพร่ทั้งหมดที่กำลังมองหาข้อมูลดิบและถ้าให้ใช้ข้อมูลดิบที่เกิดขึ้นจริง สำหรับผู้เขียนที่ไม่ได้ให้ข้อมูลดิบให้จำลองข้อมูลดิบเพื่อให้มีสถิติสรุปเหมือนกันกับที่รายงาน การจำลองดังกล่าวยังสามารถรวมความรู้ใด ๆ ที่ได้รับจากข้อมูลดิบ (เช่นหากตัวแปรนั้นรู้ว่าเบ้เป็นต้น) ดูเหมือนว่าวิธีดังกล่าวอาจมีประโยชน์หลายประการ: เครื่องมือทางสถิติที่ใช้ข้อมูลดิบเป็นอินพุตสามารถใช้สำหรับการวิเคราะห์ได้ อย่างน้อยที่สุดการได้รับข้อมูลดิบจริงผู้เขียนวิเคราะห์ meta จะถูกบังคับให้พิจารณาประเด็นที่เกี่ยวข้องกับข้อมูลจริง (เช่นค่าผิดปกติการแจกแจง ฯลฯ ) คำถาม มีปัญหาใดบ้างกับการศึกษาวิเคราะห์อภิมานเกี่ยวกับการรวมกันของข้อมูลดิบจริงและข้อมูลจำลองเพื่อให้มีสถิติสรุปที่เหมือนกันกับการศึกษาที่ตีพิมพ์ในปัจจุบันหรือไม่? วิธีการดังกล่าวจะดีกว่าวิธีที่มีอยู่ในการดำเนินการวิเคราะห์เมตาดาต้าบนสถิติสรุปหรือไม่ มีวรรณกรรมที่มีการถกเถียงสนับสนุนหรือวิจารณ์วิธีการนี้หรือไม่?

1
ทำไมการทิ้งส่วนที่เหลือจากรูปแบบเอฟเฟกต์ผสมจึงให้ช่วงความมั่นใจในการต่อต้านอย่างอนุรักษ์นิยม?
ฉันมักจะจัดการกับข้อมูลที่แต่ละคนวัดกันหลายครั้งในแต่ละเงื่อนไขตั้งแต่ 2 ข้อขึ้นไป เมื่อไม่นานมานี้ฉันได้เล่นกับการสร้างแบบผสมเอฟเฟกต์เพื่อประเมินหลักฐานความแตกต่างระหว่างเงื่อนไขการสร้างแบบจำลองindividualเป็นเอฟเฟกต์แบบสุ่ม เพื่อให้เห็นภาพความไม่แน่นอนเกี่ยวกับการคาดการณ์จากแบบจำลองดังกล่าวฉันได้ใช้ bootstrapping ซึ่งในแต่ละการวนซ้ำของ bootstrap ทั้งบุคคลและการสังเกต - ภายใน - เงื่อนไข - ภายใน - บุคคล - ตัวอย่างจะถูกแทนที่ด้วยและแบบจำลองเอฟเฟกต์ใหม่ ได้รับ วิธีนี้ใช้งานได้ดีสำหรับข้อมูลที่ถือว่าข้อผิดพลาด gaussian แต่เมื่อข้อมูลเป็นแบบทวินามการบูตสแตรปอาจใช้เวลานานมากเนื่องจากการวนซ้ำแต่ละครั้งจะต้องคำนวณรูปแบบเอฟเฟกต์ผสมแบบทวินามที่คำนวณได้ค่อนข้างเข้มข้น ความคิดที่ฉันมีคือฉันอาจใช้ส่วนที่เหลือจากแบบจำลองเดิมแล้วใช้ส่วนที่เหลือเหล่านี้แทนข้อมูลดิบใน bootstrapping ซึ่งจะอนุญาตให้ฉันคำนวณรูปแบบเอฟเฟกต์แบบ gaussian ในการวนซ้ำของ bootstrap แต่ละครั้ง การเพิ่มการทำนายดั้งเดิมจากแบบจำลองทวินามของข้อมูลดิบไปยังการคาดการณ์ bootstrapped จากส่วนที่เหลือให้ผลตอบแทน 95% CI สำหรับการคาดการณ์ดั้งเดิม อย่างไรก็ตามฉันเพิ่งเขียนโค้ดการประเมินอย่างง่ายของวิธีการนี้การสร้างแบบจำลองไม่แตกต่างกันระหว่างสองเงื่อนไขและการคำนวณสัดส่วนของช่วงเวลาที่ความมั่นใจ 95% ล้มเหลวในการรวมศูนย์และฉันพบว่าขั้นตอนการบูตสต็อก (ไม่รวมศูนย์มากกว่า 5% ของเวลา) ยิ่งไปกว่านั้นฉันเขียนโค้ด (ลิงค์เดียวกันก่อนหน้านี้) การประเมินที่คล้ายกันของวิธีการนี้ที่นำไปใช้กับข้อมูลที่เป็นเกาส์เดิมและได้รับ CIs ต่อต้านอนุรักษ์นิยมในทำนองเดียวกัน ความคิดใด ๆ ว่าทำไมถึงเป็นเช่นนั้น?

2
สร้างเสียงที่สม่ำเสมอจากลูกบอล p-norm (
ฉันพยายามเขียนฟังก์ชั่นที่สร้างเสียงที่กระจายอย่างสม่ำเสมอซึ่งมาจากลูก p-norm ของมิติ :nnn ||x||p≤r||x||พี≤R\begin{equation} ||x||_p \leq r \end{equation} ผมพบว่าการแก้ปัญหาที่เป็นไปได้สำหรับวงการ ( ) ( http://mathworld.wolfram.com/DiskPointPicking.html ) แต่ฉันมีปัญหาในการขยายนี้สำหรับค่าที่แตกต่างกันของพีp=2พี=2p = 2pพีp ฉันได้ลองทำโดยเพียงแค่สุ่มตัวอย่างจากการแจกแจงแบบเดียวกันและวาดใหม่เมื่อไม่เป็นไปตามข้อ จำกัด ที่กำหนด อย่างไรก็ตามนอกจากจะเป็นวิธีการแก้ปัญหาที่น่าเกลียดมันยังกลายเป็นไปไม่ได้ที่คำนวณได้สำหรับมิติสูง
11 simulation  noise 

2
วิธีการจำลองข้อมูลเซ็นเซอร์
ฉันสงสัยว่าฉันจะจำลองตัวอย่างของอายุการใช้งานการแจกจ่าย Weibull ได้อย่างไรซึ่งรวมถึงการสังเกตการณ์ที่ถูกตรวจสอบด้วย Type I ตัวอย่างเช่นให้มี n = 3, รูปร่าง = 3, มาตราส่วน = 1 และอัตราการเซ็นเซอร์ = .15, และเวลาการเซ็นเซอร์ = .88 ฉันรู้วิธีสร้างตัวอย่าง Weibull แต่ฉันไม่ทราบวิธีการสร้างข้อมูลเซ็นเซอร์ที่มีการเซ็นเซอร์ประเภทขวาฉันใน R T = rweibull(3, shape=.5, scale=1)

2
ใช้โมเดล ARMA-GARCH เพื่อจำลองราคาแลกเปลี่ยนเงินตราต่างประเทศ
ฉันได้ติดตั้งแบบจำลอง ARIMA (1,1,1) -GARCH (1,1) เข้ากับช่วงเวลาของราคาบันทึกอัตราแลกเปลี่ยน AUD / USD ที่สุ่มตัวอย่างเป็นระยะเวลาหนึ่งนาทีตลอดระยะเวลาหลายปีทำให้ฉันมากกว่าสองปี ล้านจุดข้อมูลที่จะประเมินรูปแบบ ชุดข้อมูลที่สามารถใช้ได้ที่นี่ เพื่อความชัดเจนนี่เป็นรูปแบบ ARMA-GARCH ที่ติดตั้งเพื่อส่งคืนบันทึกเนื่องจากการรวมราคาบันทึกครั้งแรก ซีรี่ส์เวลา AUD / USD ดั้งเดิมมีลักษณะดังนี้: จากนั้นฉันพยายามจำลองอนุกรมเวลาตามโมเดลที่ติดตั้งให้ฉันดังนี้: ฉันคาดหวังและต้องการอนุกรมเวลาที่จำลองมานั้นจะแตกต่างจากซีรี่ส์ดั้งเดิม แต่ฉันไม่ได้คาดหวังว่าจะมีความแตกต่างที่มีนัยสำคัญ โดยเนื้อแท้แล้วฉันต้องการให้ซีรีย์ที่จำลองขึ้นมีลักษณะหรือกว้างเหมือนต้นฉบับ นี่คือรหัส R ที่ฉันใช้ประเมินโมเดลและจำลองซีรีย์: library(rugarch) rows <- nrow(data) data <- (log(data[2:rows,])-log(data[1:(rows-1),])) spec <- ugarchspec(variance.model = list(model = "sGARCH", garchOrder = c(1, 1)), mean.model = list(armaOrder = c(1, …

2
การสุ่มตัวอย่างที่แน่นอนจากส่วนผสมที่ไม่เหมาะสม
สมมติว่าผมต้องการที่จะตัวอย่างจากการกระจายอย่างต่อเนื่อง(x) ถ้าฉันมีการแสดงออกของในรูปแบบหน้าp(x)p(x)p(x)ppp p(x)=∑i=1∞aifi(x)p(x)=∑i=1∞aifi(x)p(x) = \sum_{i=1}^\infty a_i f_i(x) โดยที่และf_iคือการแจกแจงซึ่งสามารถสุ่มตัวอย่างได้ง่ายจากนั้นฉันสามารถสร้างตัวอย่างจากpโดย:ai⩾0,∑iai=1ai⩾0,∑iai=1a_i \geqslant 0, \sum_i a_i= 1fifif_ippp การสุ่มตัวอย่างฉลากiiiด้วยความน่าจะเป็นaiaia_i การสุ่มตัวอย่างX∼fiX∼fiX \sim f_i เป็นไปได้หรือไม่ที่จะทำให้ขั้นตอนนี้เป็นมาตรฐานหากaiaia_iเป็นลบในบางครั้ง? ฉันสงสัยว่าฉันเคยเห็นสิ่งนี้ทำที่ไหนสักแห่ง - อาจจะเป็นในหนังสือบางทีสำหรับการแจกจ่าย Kolmogorov - ดังนั้นฉันยินดีอย่างยิ่งที่จะยอมรับการอ้างอิงเป็นคำตอบ หากตัวอย่างของเล่นคอนกรีตมีประโยชน์สมมติว่าฉันต้องการตัวอย่างจากp(x,y)∝exp(−x−y−αxy−−√)x,y>0p(x,y)∝exp⁡(−x−y−αxy)x,y>0p(x,y) \propto \exp(-x-y-\alpha\sqrt{xy})\qquad x,y > 0ฉันจะ รับα∈(0,2)α∈(0,2)\alpha \in (0, 2)ด้วยเหตุผลทางเทคนิคซึ่งไม่ควรมีความสำคัญมากเกินไปในโครงการที่ยิ่งใหญ่ โดยหลักการแล้วฉันสามารถขยายสิ่งนี้เป็นผลรวมต่อไปนี้: p(x,y)∝∑n=0∞(−1)nαn(n2)!(n2)!n!(xn/2e−x(n2)!)(yn/2e−y(n2)!).p(x,y)∝∑n=0∞(−1)nαn(n2)!(n2)!n!(xn/2e−x(n2)!)(yn/2e−y(n2)!).p(x,y) \propto \sum_{n=0}^\infty \frac{(-1)^n \alpha^n \left( \frac{n}{2} \right)! \left( \frac{n}{2} \right)!}{n!} \left( \frac{x^{n/2} e^{-x}}{\left( \frac{n}{2} …

4
ทำไมการทดสอบสมมติฐานเกี่ยวกับชุดข้อมูลที่ resampled ปฏิเสธค่า null บ่อยเกินไป?
tl; dr: เริ่มต้นด้วยชุดข้อมูลที่สร้างขึ้นภายใต้ null ฉัน resampled กรณีที่มีการเปลี่ยนและดำเนินการทดสอบสมมติฐานในแต่ละชุดข้อมูล resampled การทดสอบสมมติฐานเหล่านี้ปฏิเสธค่าว่างมากกว่า 5% ของเวลา ในด้านล่างการจำลองที่ง่ายมากฉันสร้างชุดข้อมูลด้วยและฉันพอดีกับ OLS แบบง่าย ๆ จากนั้นสำหรับแต่ละชุดข้อมูลฉันสร้างชุดข้อมูลใหม่ 1,000 ชุดโดยการสุ่มแถวใหม่ของชุดข้อมูลเดิมพร้อมการแทนที่ (อัลกอริทึมที่อธิบายไว้โดยเฉพาะในข้อความคลาสสิกของ Davison & Hinkley ว่าเหมาะสมสำหรับการถดถอยเชิงเส้น) สำหรับแต่ละอันฉันพอดีกับ OLS รุ่นเดียวกัน ในที่สุดประมาณ 16% ของการทดสอบสมมติฐานในตัวอย่าง bootstrap ปฏิเสธ nullในขณะที่เราควรได้รับ 5% (ตามที่เราทำในชุดข้อมูลดั้งเดิม)X∼N(0,1)⨿Y∼N(0,1)X∼N(0,1)⨿Y∼N(0,1)X \sim N(0,1) \amalg Y \sim N(0,1) ฉันสงสัยว่ามันมีบางอย่างเกี่ยวกับการสังเกตซ้ำ ๆ ทำให้เกิดความสัมพันธ์ที่สูงเกินจริงดังนั้นในการเปรียบเทียบฉันลองวิธีอื่นสองวิธีในรหัสด้านล่าง (แสดงความคิดเห็น) ในวิธีที่ 2 ฉันแก้ไขจากนั้นแทนที่ด้วยส่วนที่เหลือ resampled จากโมเดล OLS …

2
ตัวอย่างของตัวแปรสุ่มคืออะไร?
ตัวแปรสุ่มถูกกำหนดให้เป็นฟังก์ชั่นที่สามารถวัดได้จากที่หนึ่งσพีชคณิต( Ω 1 , F 1 )ที่มีพื้นฐานการวัดPไปยังอีกσพีชคณิต( Ω 2 , F 2 )XXXσσ\sigma(Ω1,F1)(Ω1,F1)(\Omega_1, \mathcal F_1)PPPσσ\sigma(Ω2,F2)(Ω2,F2)(\Omega_2, \mathcal F_2) เราจะพูดถึงตัวอย่างของตัวแปรสุ่มนี้ได้อย่างไร เราปฏิบัติต่อมันเป็นองค์ประกอบจากΩ 2หรือไม่? หรือเป็นฟังก์ชั่นที่วัดเช่นเดียวกับX ?XnXnX^nΩ2Ω2\Omega_2XXX ฉันจะอ่านเพิ่มเติมเกี่ยวกับเรื่องนี้ได้ที่ไหน ตัวอย่าง: ในการประมาณค่า Monte Carlo เราพิสูจน์ความเป็นกลางของตัวประมาณโดยพิจารณาจากตัวอย่างเพื่อใช้เป็นฟังก์ชัน หากความคาดหวังของตัวแปรสุ่มXถูกกำหนดเป็น(Xn)Nn=1(Xn)n=1N(X^n)_{n = 1}^NXXX E[X]=∫Ω1X(ω1)dP(ω1)E[X]=∫Ω1X(ω1)dP(ω1)\begin{align} \mathbb E[X] = \int_{\Omega_1} X(\omega_1) \,\mathrm dP(\omega_1) \end{align} และสมมติว่าเป็นฟังก์ชันและX n = Xเราสามารถดำเนินการดังนี้:XnXnX^nXn=XXn=XX^n = X E[1N∑n=1Nf(Xn)]=1N∑n=1NE[f(Xn)]=1N∑n=1NE[f(X)]=E[f(X)].E[1N∑n=1Nf(Xn)]=1N∑n=1NE[f(Xn)]=1N∑n=1NE[f(X)]=E[f(X)].\begin{align} \mathbb E\left[\frac{1}{N} \sum_{n …

2
การกระจายไขมันนิ้ว
คำถามโดยย่อ: มีการกระจายนิ้วไขมันหรือไม่ ฉันแน่ใจว่าถ้ามีอยู่แล้วมันมีชื่ออื่น ฉันไม่ทราบวิธีกำหนดเป็นฟังก์ชันวิเคราะห์ คุณสามารถช่วยฉันค้นหารุ่นที่มีอยู่หรือเริ่มต้นในการกำหนดในสิ่งที่สะอาดกว่าการจำลองขนาดยักษ์ได้หรือไม่ มันคือการกระจายของตัวเลขที่เกิดขึ้นจริงเมื่อจำนวนที่กำหนดเป็นเป้าหมายที่ต้องการ แต่ปุ่มนั้นเล็กกว่านิ้วมากดังนั้นบางครั้งปุ่มที่อยู่ใกล้เคียงจึงถูกบางครั้งโดนโดยบังเอิญ การใช้งานการแจกจ่ายเช่นนี้เป็นรายการที่ผิดพลาดในการกดปุ่มบนโทรศัพท์มือถือ หากฉันดำเนินการ บริษัท ที่มี "กด 1 ตอนนี้" หรืออะไรบางอย่างและ "คุณกด 1 ถูกต้อง" จากนั้นพวกเขาจะได้ประมาณความน่าจะเป็นของไขมันนิ้วที่ดีแม้ว่า 2 นิ้วในแถวไขมันนิ้วอาจยุ่งเหยิง ขึ้นบ้าง (ระยะห่างของแฮมมิงในนิ้วอ้วน? โซ่มาร์คอฟนิ้วอ้วน?) ฉันต้องการใช้มันเพื่อลองและสร้างการแก้ไขข้อผิดพลาดในการกดปุ่ม ฉันมีตัวอย่างบางส่วนของตัวเอง แต่มีความผันแปรไม่เพียงพอในนิ้ว "ความอ้วน" หรือโครงสร้างของแป้นพิมพ์โทรศัพท์มือถือที่มีความทนทาน ความเป็นมาและรายละเอียด: นี่คือรูปแบบปุ่มกดโทรศัพท์มือถือปกติ: ลองนึกภาพว่านิ้วมือของฉันมีขนาดใหญ่กว่าปุ่มมากดังนั้นเมื่อฉันไปกด 5 ฉันมักจะได้รับ 5 แต่ส่วนใหญ่แล้วฉันก็มีแนวโน้มที่จะได้ 2,4,6 หรือ 8 เท่ากัน ) จากนั้นมีโอกาสน้อยกว่า (แต่ไม่เป็นศูนย์) ที่จะได้รับ 1,3,7,9 (มีโอกาสเท่ากัน) และฉันไม่น่าจะได้รับ 0 ฉันสามารถจินตนาการได้ว่าถ้าฉันพยายามพิมพ์จำนวนอนันต์ของ 5 …

4
ถูกต้องหรือไม่ (การสร้าง Truncated-norm-multivariate-Gaussian)
ถ้า นั่นคือ X∈Rn, X∼N(0–,σ2I)X∈Rn, X∼N(0_,σ2I)X\in\mathbb{R}^n,~X\sim \mathcal{N}(\underline{0},\sigma^2\mathbf{I})fX(x)=1(2πσ2)n/2exp(−||x||22σ2)fX(x)=1(2πσ2)n/2exp⁡(−||x||22σ2) f_X(x) = \frac{1}{{(2\pi\sigma^2)}^{n/2}} \exp\left(-\frac{||x||^2}{2\sigma^2}\right) ฉันต้องการการแจกแจงแบบปกติที่ถูกตัดทอนในกรณีแบบหลายตัวแปร แม่นยำมากขึ้นฉันต้องการสร้างเกณฑ์ปกติ (ค่า ) หลายตัวแปร Gaussianเซนต์ โดยที่≥a≥a\geq aYYYfY(y)={c.fX(y), if ||y||≥a0, otherwise .fY(y)={c.fX(y), if ||y||≥a0, otherwise . f_Y(y) = \begin{cases} c.f_X(y), \text{ if } ||y||\geq a \\[2mm] 0, \text{ otherwise }. \end{cases} c=1Prob{||X||≥a}c=1Prob{||X||≥a}c=\frac{1}{Prob\big\{||X||\geq a\big\}} ตอนนี้ฉันสังเกตต่อไปนี้: หาก ,x=(x1,x2,…,xn)x=(x1,x2,…,xn)x=(x_1,x_2,\ldots,x_n)||x||≥a||x||≥a||x||\geq a ⟹|xn|≥T≜max(0,(a2−∑n−11x2i))−−−−−−−−−−−−−−−−−−−−√⟹|xn|≥T≜max(0,(a2−∑1n−1xi2))\implies |x_n|\geq T\triangleq …

1
ฉันจะรวมเอานวัตกรรมล้ำสมัยที่การสังเกตที่ 48 ในโมเดล ARIMA ของฉันได้อย่างไร
ฉันกำลังทำงานกับชุดข้อมูล หลังจากใช้เทคนิคการระบุตัวแบบบางอย่างฉันก็ออกมาพร้อมกับแบบจำลอง ARIMA (0,2,1) ผมใช้detectIOฟังก์ชั่นในแพคเกจTSAในการวิจัยที่จะตรวจพบนวัตกรรมขอบเขต (IO) ที่สังเกต 48th ของชุดข้อมูลเดิมของฉัน ฉันจะรวมค่าผิดปกตินี้ไว้ในแบบจำลองของฉันเพื่อที่ฉันจะสามารถใช้เพื่อวัตถุประสงค์ในการพยากรณ์ได้อย่างไร ฉันไม่ต้องการใช้แบบจำลอง ARIMAX เนื่องจากฉันอาจไม่สามารถคาดการณ์ได้จากสิ่งนั้นใน R มีวิธีอื่นที่ฉันสามารถทำได้หรือไม่ นี่คือค่านิยมของฉันตามลำดับ: VALUE <- scan() 4.6 4.5 4.4 4.5 4.4 4.6 4.7 4.6 4.7 4.7 4.7 5.0 5.0 4.9 5.1 5.0 5.4 5.6 5.8 6.1 6.1 6.5 6.8 7.3 7.8 8.3 8.7 9.0 9.4 9.5 9.5 …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.