สถิติและข้อมูลขนาดใหญ่

ถามตอบสำหรับผู้ที่สนใจในสถิติการเรียนรู้ของเครื่องจักรการวิเคราะห์ข้อมูลการขุดข้อมูล

2
การแจกแจงแบบใดมีตัวประมาณแบบไม่เอนเอียงสำหรับค่าเบี่ยงเบนมาตรฐาน
สำหรับการแจกแจงแบบปกติจะมีการประมาณค่าส่วนเบี่ยงเบนมาตรฐานโดย: σ^unbiased=Γ(n−12)Γ(n2)12∑k=1n(xi−x¯)2−−−−−−−−−−−−√σ^unbiased=Γ(n−12)Γ(n2)12∑k=1n(xi−x¯)2\hat{\sigma}_\text{unbiased} = \frac{\Gamma(\frac{n-1}{2})}{\Gamma(\frac{n}{2})} \sqrt{\frac{1}{2}\sum_{k=1}^n(x_i-\bar{x})^2} เหตุผลที่ผลนี้ไม่เป็นที่รู้จักเป็นอย่างดีน่าจะเป็นที่มันเป็นส่วนใหญ่โบราณมากกว่าเรื่องของการนำเข้าที่ดีใด ๆ หลักฐานที่จะครอบคลุมในหัวข้อนี้ ; มันใช้ประโยชน์จากคุณสมบัติที่สำคัญของการแจกแจงแบบปกติ: 1σ2∑k=1n(xi−x¯)2∼χ2n−11σ2∑k=1n(xi−x¯)2∼χn−12 \frac{1}{\sigma^2} \sum_{k=1}^n(x_i-\bar{x})^2 \sim \chi^{2}_{n-1} จากนั้นด้วยการทำงานเล็กน้อยก็เป็นไปได้ที่จะคาดหวังและโดยการระบุคำตอบนี้เป็นหลายของσเราสามารถสรุปผลการ σเป็นกลางE(∑nk=1(xi−x¯)2−−−−−−−−−−−−√)E(∑k=1n(xi−x¯)2)\mathbb{E}\left( \sqrt{\sum_{k=1}^n(x_i-\bar{x})^2} \right)σσ\sigmaσ^unbiasedσ^unbiased\hat{\sigma}_\text{unbiased} นี่ทำให้ฉันอยากรู้ว่าการแจกแจงแบบอื่นมีตัวประมาณค่าเบี่ยงเบนมาตรฐานแบบปิดแบบเป็นกลาง ต่างจากการประมาณค่าความแปรปรวนแบบไม่เอนเอียงนี่คือการแจกแจงที่เฉพาะเจาะจงอย่างชัดเจน ยิ่งไปกว่านั้นมันจะไม่ตรงไปตรงมาที่จะปรับเปลี่ยนหลักฐานเพื่อค้นหาตัวประมาณสำหรับการแจกแจงแบบอื่น การแจกแจงแบบเบ้ปกติมีคุณสมบัติการแจกแจงที่ดีสำหรับรูปแบบสมการกำลังสองซึ่งคุณสมบัติการแจกแจงแบบปกติที่เราใช้นั้นมีประสิทธิภาพเป็นกรณีพิเศษของ (เนื่องจากปกติเป็นชนิดพิเศษแบบเบ้ปกติ) ดังนั้นบางทีมันอาจไม่ยากนัก ขยายวิธีการนี้ให้กับพวกเขา แต่สำหรับความแตกต่างอื่น ๆ มันจะปรากฏวิธีการที่แตกต่างกันโดยสิ้นเชิงเป็นสิ่งจำเป็น มีการแจกแจงอื่น ๆ ที่ทราบการประมาณเช่นนี้หรือไม่?

2
ทำไมคนเราถึงใช้ความมั่นใจแบบสุ่มหรือช่วงเวลาที่เชื่อถือได้
เมื่อเร็ว ๆ นี้ฉันกำลังอ่านกระดาษที่รวมการสุ่มในความมั่นใจและช่วงเวลาที่น่าเชื่อถือและฉันสงสัยว่านี่เป็นมาตรฐานหรือไม่และถ้าเป็นเช่นนั้นทำไมมันถึงเป็นสิ่งที่สมเหตุสมผล ไปยังชุดสัญกรณ์สมมติว่าข้อมูลของเราคือและเรามีความสนใจในการสร้างช่วงเวลาสำหรับพารามิเตอร์\ ฉันเคยชินกับช่วงความมั่นใจ / ความน่าเชื่อถือที่ถูกสร้างโดยการสร้างฟังก์ชั่น:θ ∈ Θx∈Xx∈Xx \in Xθ∈Θθ∈Θ\theta \in \Theta fx:Θ→{0,1}fx:Θ→{0,1}f_{x} : \Theta \rightarrow \{0,1\} และปล่อยให้ช่วงเวลาของเราจะเป็น\}I={θ∈Θ:fx(θ)=1}I={θ∈Θ:fx(θ)=1}I = \{ \theta \in \Theta \, : \, f_{x}(\theta) = 1\} นี่คือการสุ่มในแง่ที่ว่ามันขึ้นอยู่กับข้อมูล แต่เงื่อนไขกับข้อมูลมันเป็นเพียงช่วงเวลา กระดาษนี้แทนกำหนด gx:Θ→[0,1]gx:Θ→[0,1]g_{x} : \Theta \rightarrow [0,1] และยังเป็นคอลเลกชันของตัวแปรสุ่ม IID เครื่องแบบบน[0,1]มันกำหนดช่วงเวลาที่เกี่ยวข้องจะเป็นI = \ {\ theta \ in \ Theta \: …

1
จำนวนแผนที่คุณลักษณะในเครือข่ายประสาทเทียม
เมื่อเรียนรู้โครงข่ายประสาทเทียมฉันมีคำถามเกี่ยวกับรูปต่อไปนี้ 1) C1 ในเลเยอร์ 1 มีแผนที่คุณลักษณะ 6 รูปแบบนั่นหมายความว่ามีเมล็ดหก convolutional หรือไม่? เคอร์เนล Convolutional แต่ละตัวใช้ในการสร้างแผนที่คุณลักษณะตามอินพุต 2) S1 ในเลเยอร์ 2 มี 6 แผนที่คุณลักษณะ, C2 มี 16 คุณสมบัติแผนที่ กระบวนการดูเหมือนจะได้รับแผนที่คุณลักษณะทั้ง 16 เหล่านี้จากแผนที่คุณลักษณะ 6 แห่งใน S1 หรือไม่

2
อะไรจะเป็นตัวอย่างของแบบจำลองที่เรียบง่ายและมีโอกาสเป็นไปไม่ได้?
ตัวอย่างการคำนวณแบบเบย์เป็นเทคนิคเจ๋งจริงๆสำหรับกระชับพื้นรูปแบบใดสุ่มไว้สำหรับรุ่นที่น่าจะเป็นว่ายาก (พูด, คุณสามารถลิ้มลองจากแบบจำลองถ้าคุณแก้ไขพารามิเตอร์ แต่คุณไม่สามารถตัวเลขอัลกอริทึมหรือการวิเคราะห์คำนวณความเป็นไปได้) เมื่อแนะนำการคำนวณแบบเบย์โดยประมาณ (ABC) ให้กับผู้ชมเป็นเรื่องดีที่จะใช้แบบจำลองตัวอย่างที่เรียบง่าย แต่ก็ยังน่าสนใจอยู่บ้างและมีความเป็นไปได้ยาก อะไรจะเป็นตัวอย่างที่ดีของแบบจำลองง่ายๆที่ยังมีโอกาสที่ดื้อดึง?

2
วิธีการวิเคราะห์ข้อมูลเชิงสำรวจเพื่อเลือกอัลกอริทึมการเรียนรู้ของเครื่องที่เหมาะสม
เรากำลังศึกษาการเรียนรู้ของเครื่องผ่านการเรียนรู้ของเครื่อง: มุมมองที่น่าจะเป็น (เควินเมอร์ฟี่) ในขณะที่ข้อความอธิบายรากฐานทางทฤษฎีของอัลกอริทึมแต่ละอันมันไม่ค่อยบอกว่าในกรณีใดอัลกอริทึมที่ดีกว่าและเมื่อมันเป็นเช่นนั้นก็ไม่ได้บอกว่าจะบอกได้อย่างไรว่าฉันอยู่ที่ไหน ตัวอย่างเช่นสำหรับตัวเลือกของเคอร์เนลฉันถูกบอกให้ทำการวิเคราะห์ข้อมูลเชิงสำรวจเพื่อวัดความซับซ้อนของข้อมูลของฉัน ในข้อมูลสองมิติอย่างง่ายฉันสามารถวางแผนและดูว่าเคอร์เนลเชิงเส้นหรือเรเดียนเหมาะสมหรือไม่ แต่จะทำอย่างไรในมิติที่สูงขึ้น? โดยทั่วไปผู้คนหมายถึงอะไรเมื่อพวกเขาพูดว่า "ทำความรู้จักข้อมูลของคุณ" ก่อนที่จะเลือกอัลกอริทึม ตอนนี้ฉันสามารถแยกแยะความแตกต่างระหว่างอัลกอริธึมการจำแนกและอัลกอริธึมเชิงเส้น VS และไม่เชิงเส้น (ซึ่งฉันไม่สามารถตรวจสอบได้) แก้ไข: แม้ว่าคำถามเดิมของฉันเกี่ยวกับกฎทั่วไป แต่ฉันได้รับแจ้งให้ให้ข้อมูลเพิ่มเติมเกี่ยวกับปัญหาเฉพาะของฉัน ข้อมูล: แผงที่มีแต่ละแถวเป็นเดือนในประเทศ (รวมแถวทั้งหมด 30,000 แถวครอบคลุม ~ 165 ประเทศในช่วง ~ 15 ปี) การตอบสนอง: 5 ตัวแปรไบนารีที่น่าสนใจ (เช่นการประท้วง / รัฐประหาร / วิกฤต ฯลฯ เกิดขึ้นในเดือนนั้น) คุณสมบัติ: ~ 400 ตัวแปร (การผสมผสานอย่างต่อเนื่อง, การจัดหมวดหมู่, ไบนารี) โดยมีรายละเอียดมากมายของลักษณะของ 2 ประเทศก่อนหน้าเดือน เราใช้ตัวแปรล้าหลังเนื่องจากเป้าหมายคือการคาดการณ์ ตัวอย่าง …

1
ภายใต้เงื่อนไขอะไรคือการถดถอยสันสามารถให้การปรับปรุงมากกว่าการถดถอยกำลังสองน้อยที่สุดธรรมดาได้?
สันเขาถดถอยประมาณการพารามิเตอร์ในแบบจำลองเชิงเส้นโดย\ hat {\ boldsymbol \ beta} _ \ lambda = (\ mathbf X ^ \ top \ mathbf X + \ lambda \ mathbf I) ^ {- 1} \ mathbf X ^ \ top \ mathbf y โดยที่\ lambdaเป็นพารามิเตอร์การทำให้เป็นมาตรฐาน เป็นที่ทราบกันดีว่ามันมักจะทำงานได้ดีกว่าการถดถอย OLS (ด้วย\ lambda = 0 ) เมื่อมีตัวทำนายที่สัมพันธ์กันจำนวนมากββ\boldsymbol \betay=Xβy=Xβ\mathbf y = …

3
ขั้นตอนการบิดในเครือข่ายประสาทเทียมทำอะไร
ฉันกำลังศึกษาโครงข่ายประสาทเทียม (CNNs) เนื่องจากการใช้งานในคอมพิวเตอร์วิสัยทัศน์ ฉันคุ้นเคยกับเครือข่ายประสาทฟีดมาตรฐานแล้วฉันหวังว่าบางคนที่นี่สามารถช่วยฉันในการทำความเข้าใจกับ CNN นี่คือสิ่งที่ฉันคิดเกี่ยวกับซีเอ็นเอ็น: ใน feed-foward NNs แบบดั้งเดิมเรามีข้อมูลการฝึกอบรมที่แต่ละองค์ประกอบประกอบด้วยเวกเตอร์ฟีเจอร์ที่เราใส่เข้าไปใน NN ใน "เลเยอร์อินพุต" ดังนั้นด้วยการรับรู้ภาพเราสามารถมีแต่ละพิกเซลเป็นหนึ่งอินพุต นี่คือคุณสมบัติเวกเตอร์ของเรา หรืออีกวิธีหนึ่งเราสามารถสร้างเวกเตอร์คุณลักษณะอื่น ๆ ที่มีขนาดเล็กกว่าด้วยตนเอง ข้อดีของ CNN คือมันสามารถสร้างเวกเตอร์ฟีเจอร์ที่แข็งแกร่งกว่าซึ่งไม่แปรเปลี่ยนภาพและตำแหน่ง ตามภาพต่อไปนี้แสดงให้เห็นว่า (จากบทช่วยสอนนี้ ) ซีเอ็นเอ็นสร้างแผนที่คุณลักษณะที่ป้อนเข้าสู่เครือข่ายประสาทเทียมมาตรฐาน (จริงๆแล้วมันเป็นขั้นตอนก่อนประมวลผลขนาดใหญ่) วิธีที่เราได้คุณสมบัติเหล่านั้น "ดีกว่า" คือการสลับการแปลงตัวอย่างและการสุ่มตัวอย่าง ฉันเข้าใจว่าการสุ่มตัวอย่างย่อยทำงานอย่างไร สำหรับแผนที่คุณลักษณะแต่ละอันใช้เวลาเพียงเซตย่อยของพิกเซลหรือเราสามารถหาค่าเฉลี่ยของพิกเซล แต่สิ่งที่ฉันสับสนเป็นหลักคือวิธีการทำงานของขั้นตอนการโน้มน้าวใจ ฉันคุ้นเคยกับการโน้มน้าวใจจากทฤษฎีความน่าจะเป็น (ความหนาแน่นสำหรับผลรวมของตัวแปรสุ่มสองตัว) แต่พวกเขาทำงานใน CNN ได้อย่างไรและทำไมพวกเขาถึงมีประสิทธิภาพ คำถามของฉันคล้ายกับคำถามนี้แต่โดยเฉพาะอย่างยิ่งฉันไม่แน่ใจว่าทำไมขั้นตอนการแปลงข้อความแรกจึงใช้งานได้

2
ทำไมค่าเบี่ยงเบนมาตรฐานถูกกำหนดเป็น sqrt ของความแปรปรวนและไม่เป็น sqrt ของผลรวมของกำลังสองเหนือ N
วันนี้ฉันสอนชั้นสถิติเบื้องต้นและมีนักเรียนคนหนึ่งถามคำถามซึ่งฉันได้เรียบเรียงใหม่ที่นี่: "ทำไมค่าเบี่ยงเบนมาตรฐานที่กำหนดเป็น sqrt ของความแปรปรวนและไม่ใช่ผลรวมของสี่เหลี่ยมจัตุรัสเหนือ N" เรากำหนดความแปรปรวนประชากร: σ2=1N∑(xi−μ)2σ2=1N∑(xi−μ)2\sigma^2=\frac{1}{N}\sum{(x_i-\mu)^2} และค่าเบี่ยงเบนมาตรฐาน: σ=σ2−−√=1N√∑(xi−μ)2−−−−−−−−−−√σ=σ2=1N∑(xi−μ)2\sigma=\sqrt{\sigma^2}=\frac{1}{\sqrt{N}}\sqrt{\sum{(x_i-\mu)^2}} 2 ในความหมายที่เราจะได้มอบให้σσ\sigmaคือว่ามันจะช่วยให้ค่าเบี่ยงเบนเฉลี่ยของหน่วยในประชากรจากค่าเฉลี่ยของประชากรXXXX อย่างไรก็ตามในคำจำกัดความของ sd เราหาร sqrt ของผลรวมของกำลังสองผ่านN−−√N\sqrt{N} . คำถามที่นักเรียนยกคือทำไมเราไม่หาร sqrt ของ sume of squares โดยNNNแทน ดังนั้นเรามาถึงสูตรการแข่งขัน: σnew=1N∑(xi−μ)2−−−−−−−−−−√.σnew=1N∑(xi−μ)2.\sigma_{new}=\frac{1}{N}\sqrt{\sum{(x_i-\mu)^2}}.นักเรียนให้เหตุผลว่าสูตรนี้ดูเหมือนว่าส่วนเบี่ยงเบน "เฉลี่ย" มากกว่าค่าเฉลี่ยเมื่อหารด้วยN−−√N\sqrt{N}ในขณะที่σσσ\sigma ฉันคิดว่าคำถามนี้ไม่ได้โง่ ฉันต้องการที่จะให้คำตอบกับนักเรียนที่ไปไกลกว่าที่บอกว่า sd หมายถึง sqrt ของความแปรปรวนซึ่งเป็นค่าเบี่ยงเบนมาตรฐานกำลังสอง ทำไมนักเรียนถึงใช้สูตรที่ถูกต้องและไม่ทำตามความคิดของเธอ? คำถามนี้เกี่ยวข้องกับด้ายเก่าและคำตอบที่ให้ไว้ที่นี่ คำตอบมีสามทิศทาง: σσ\sigmaคือค่าเบี่ยงเบน root-Mean-squared (RMS) ไม่ใช่ส่วนเบี่ยงเบน "ทั่วไป" จากค่าเฉลี่ย (เช่นσnewσnew\sigma_{new} ) ดังนั้นจึงถูกกำหนดแตกต่างกัน มันมีคุณสมบัติทางคณิตศาสตร์ที่ดี นอกจากนี้ sqrt จะนำ …

2
การประมาณแบบเบย์ของ
คำถามนี้เป็นการติดตามด้านเทคนิคของคำถามนี้ ฉันมีปัญหาในการทำความเข้าใจและจำลองแบบจำลองที่แสดงในRaftery (1988): การอนุมานสำหรับพารามิเตอร์binomial : แนวทาง Bayes แบบลำดับชั้นNNNใน WinBUGS / OpenBUGS / JAGS มันไม่เพียงเกี่ยวกับรหัสเท่านั้นดังนั้นควรอยู่ในหัวข้อที่นี่ พื้นหลัง ให้เป็นชุดของการนับความสำเร็จจากการกระจายทวินามด้วยไม่รู้จักNและθ นอกจากนี้ฉันคิดว่าNตามการกระจายของปัวซองด้วยพารามิเตอร์μ (ดังที่กล่าวไว้ในบทความ) จากนั้นแต่ละx ฉันมีการกระจาย Poisson ที่มีค่าเฉลี่ยλ = μ θ ฉันต้องการที่จะระบุไพรเออร์ในแง่ของλและθx=(x1,…,xn)x=(x1,…,xn)x=(x_{1},\ldots,x_{n})NNNθθ\thetaNNNμμ\muxixix_{i}λ=μθλ=μθ\lambda = \mu \thetaλλ\lambdaθθ\theta สมมติว่าผมไม่ได้มีความรู้ใด ๆ ก่อนที่ดีเกี่ยวกับหรือθผมต้องการที่จะกำหนดไพรเออร์ที่ไม่แสดงข้อมูลทั้งλและθ พูด, ไพรเออร์ของฉันλ ~ G เมตรเมตร ( 0.001 , 0.001 )และθ ~ U n ฉันฉo R เมตร ( 0 …

3
ขั้นตอนวิธีใดบ้างที่ Ward.D ใน hclust () นำไปใช้หากไม่ใช่เกณฑ์ของ Ward
ตัวเลือกที่ใช้โดยตัวเลือก "ward.D" (เทียบเท่ากับตัวเลือก Ward เท่านั้น "Ward" ในรุ่น R <= 3.0.3) ไม่ได้ใช้เกณฑ์การจัดกลุ่มของ Ward (1963) ในขณะที่ตัวเลือก "ward.D2" จะใช้เกณฑ์นั้น ( Murtagh and Legendre 2014) ( http://stat.ethz.ch/R-manual/R-patched/library/stats/html/hclust.html ) เห็นได้ชัดว่า Ward.D ไม่ได้ใช้เกณฑ์ของ Ward อย่างถูกต้อง อย่างไรก็ตามดูเหมือนว่าจะทำงานได้ดีเกี่ยวกับการรวมกลุ่มที่ผลิต method = "ward.D" นำไปใช้อะไรหากไม่เป็นไปตามเกณฑ์ของ Ward อ้างอิง Murtagh, F. , & Legendre, P. (2014) วิธีการจัดกลุ่มแบบลำดับชั้น agglomerative ของวอร์ด: อัลกอริทึมใดที่ใช้เกณฑ์ของวอร์ด วารสารการจำแนก , 31 …
16 r  clustering  ward 

3
ความแตกต่างระหว่างการถดถอยโลจิสติกและเปอร์เซ็น
ดังที่ฉันเข้าใจเครือข่ายประสาทเทียมของ perceptron / single-layer ที่มีฟังก์ชั่นการเปิดใช้งาน logistic sigmoid เป็นรูปแบบเดียวกับการถดถอยแบบโลจิสติกส์ ทั้งสองรุ่นได้รับจากสมการ: F(x)=11−e−βXF(x)=11−e−βXF(x) = \frac{1}{1-e^{-\beta X}} อัลกอริธึมการเรียนรู้ perceptron เป็นแบบออนไลน์และขับเคลื่อนด้วยข้อผิดพลาดในขณะที่พารามิเตอร์สำหรับการถดถอยโลจิสติกสามารถเรียนรู้ได้โดยใช้อัลกอริทึมแบบแบทช์รวมถึงการไล่ระดับสีลงและ BFGS หน่วยความจำ จำกัด มีความแตกต่างอื่น ๆ ระหว่างการถดถอยโลจิสติกและ perceptron sigmoid หรือไม่ ผลลัพธ์ของผู้ลงทะเบียนโลจิสติกส์ที่ผ่านการฝึกอบรมกับการไล่ระดับสีแบบสุ่ม Stochastic นั้นคาดว่าจะคล้ายกับ perceptron หรือไม่?

2
การสุ่มเปรียบเทียบแนวโน้ม / ฤดูกาลตามฤดูกาลในการพยากรณ์อนุกรมเวลา
ฉันมีพื้นหลังปานกลางในการพยากรณ์อนุกรมเวลา ฉันได้ดูหนังสือพยากรณ์หลายเล่มและฉันไม่เห็นคำถามต่อไปนี้ในคำถามใด ๆ ฉันมีสองคำถาม: ฉันจะกำหนดอย่างเป็นกลาง (ผ่านการทดสอบทางสถิติ) ได้อย่างไรหากอนุกรมเวลาที่กำหนดมี: ฤดูสุ่มหรือฤดูกาลตามฤดูกาล Stochastic Trend หรือแนวโน้มที่กำหนด จะเกิดอะไรขึ้นถ้าฉันทำแบบจำลองอนุกรมเวลาของฉันเป็นแนวโน้ม / ฤดูกาลตามที่กำหนดเมื่อชุดมีองค์ประกอบสุ่มชัดเจน ความช่วยเหลือใด ๆ ที่ตอบคำถามเหล่านี้จะได้รับการชื่นชมอย่างมาก ข้อมูลตัวอย่างสำหรับแนวโน้ม: 7,657 5,451 10,883 9,554 9,519 10,047 10,663 10,864 11,447 12,710 15,169 16,205 14,507 15,400 16,800 19,000 20,198 18,573 19,375 21,032 23,250 25,219 28,549 29,759 28,262 28,506 33,885 34,776 35,347 34,628 33,043 30,214 …

1
สถิติเป็นเครื่อง ... อ้าง
ฉันจะต้องนำเสนอโครงการให้กับผู้ที่ไม่ใช่นักสถิติในการประชุมที่กำลังจะมาถึงและฉันต้องการรวมข้อความที่ฉันได้อ่าน ณ จุดหนึ่งที่ทำให้การเปรียบเทียบระหว่างสถิติและเครื่องจักรที่ประมวลผลแร่ เหตุผลก็คือฉันต้องการเน้นย้ำถึงความเชื่อมโยงบางอย่างระหว่างความสามารถของสถิติและเป้าหมายของผู้ชม ฉันไม่สามารถหาคำพูดได้และหวังว่าจะมีใครบางคนสามารถชี้ให้ฉันอ้างอิงถึงมันได้ มันเป็นบางสิ่งบางอย่างตามบรรทัดต่อไปนี้: พิจารณากรณีของการสกัดทองคำออกจากแร่ ความคาดหวังของเครื่องสกัดทองคำที่ดีคือมันแยกทองคำออกจากแร่ได้อย่างหมดจด เราจะไม่วิพากษ์วิจารณ์เครื่องจักรนี้หากไม่สามารถสกัดทองได้หากไม่มีใครอยู่ในแร่ แต่อย่างใดและเราจะไม่ตัดสินอย่างรุนแรงเกินไปหากไม่สามารถสกัดทองออกจากแร่ด้วยปริมาณเพียงไม่กี่นาที ในทำนองเดียวกันสถิติเป็นเครื่องที่ดึงข้อมูลจากข้อมูล สถิติไม่สามารถสร้างข้อมูลได้ข้อมูลจะต้องมีข้อมูลนั้น ฉันเชื่อว่าใบเสนอราคาเกิดจาก Fisher และเขาก็ยังสังเกตความคล้ายคลึงกันระหว่างตัวเขากับผู้ปฏิบัติงานเครื่องจักร ฉันคิดว่าประเด็นที่เขาทำคือเขาไม่จำเป็นต้องยอดเยี่ยมเป็นพิเศษเพื่อให้ได้ผลลัพธ์ที่ดีตราบใดที่เครื่องจักรเชิงสถิติของเขาฉลาด ความช่วยเหลือใด ๆ ที่จะได้รับการชื่นชม โปรดระบุใบเสนอราคาแบบเต็มหากเป็นไปได้ รายละเอียดเกี่ยวกับ LOCATION OF QUOTE (เพิ่มหลังจากพบคำตอบแล้ว): หลังจากทำตามคำตอบที่เลือกฉันพบกระดาษพร้อมคำพูด มันคือ: ฟิชเชอร์, RA (1947) การพัฒนาทฤษฎีการออกแบบการทดลอง พร ของ Int statist Conf., Washington, 3, 434-439 สามารถพบได้ฟรีที่นี่ในเอกสารดิจิตอลของผลงานที่เก็บรวบรวมของฟิชเชอร์ ดูเหมือนเป็นคำปราศรัยการประชุมที่เขาทำในปี 1947

3
วรรณกรรมเกี่ยวกับการถดถอยแบบควอนไทล์ IV
ในช่วงหลายเดือนที่ผ่านมาฉันได้อ่านอย่างละเอียดเกี่ยวกับการถดถอยเชิงปริมาณเพื่อเตรียมสำหรับวิทยานิพนธ์ปริญญาโทของฉันในฤดูร้อนนี้ โดยเฉพาะฉันได้อ่านหนังสือของ Roger Koenker 2005 ส่วนใหญ่ในหัวข้อ ตอนนี้ฉันต้องการที่จะขยายความรู้ที่มีอยู่นี้เพื่อเทคนิคการถดถอยเชิงปริมาณที่อนุญาตให้ตัวแปรเครื่องมือ (IV) นี่ดูเหมือนจะเป็นงานวิจัยที่กำลังเติบโตอย่างรวดเร็ว อาจมีคนแนะนำให้ฉัน: เอกสารหรือวรรณกรรมอื่น ๆ เกี่ยวกับการถดถอยเชิงปริมาณ IV ภาพรวมสั้น ๆ ของเทคนิคทางสถิติที่แตกต่างกันเหล่านี้ ข้อดีข้อเสียของเทคนิคต่าง ๆ ฉันกำลังมองหาวรรณกรรมเพื่อให้ฉันเริ่มต้นและมีภาพรวมที่ดีของสิ่งที่มีอยู่ ดังนั้นประเด็นแรกคือสิ่งที่สำคัญ ที่สองและสามจะดีที่มี! ความสนใจของฉันยังอยู่ที่วิธีการแบบตัดขวางเป็นหลัก แต่ก็ยินดีต้อนรับวิธีการแบบแผง ขอบคุณล่วงหน้า.

1
อนุกรมเวลาหลายตัวแปรใน R. วิธีการค้นหาความสัมพันธ์ล้าหลังและสร้างแบบจำลองสำหรับการพยากรณ์
ฉันใหม่ในหน้านี้และค่อนข้างใหม่ในสถิติและอาร์ฉันกำลังทำงานในโครงการสำหรับวิทยาลัยโดยมีวัตถุประสงค์เพื่อค้นหาความสัมพันธ์ระหว่างฝนและระดับน้ำไหลในแม่น้ำ เมื่อได้รับการพิสูจน์ความสัมพันธ์ฉันต้องการที่จะคาดการณ์ / ทำนายมัน ข้อมูลที่ ฉันมีชุดข้อมูลเป็นเวลาหลายปี (ถ่ายทุกๆ 5 นาที) สำหรับแม่น้ำที่มี: ปริมาณน้ำฝนหน่วยเป็นมิลลิเมตร แม่น้ำไหลในลูกบาศก์เมตรต่อวินาที แม่น้ำนี้ไม่มีหิมะดังนั้นโมเดลจึงขึ้นอยู่กับฝนและเวลาเท่านั้น มีการแช่แข็งอุณหภูมิเป็นครั้งคราว แต่ฉันกำลังคิดที่จะลบช่วงเวลาเหล่านั้นออกจากข้อมูลเป็นค่าผิดปกติเนื่องจากสถานการณ์นั้นอยู่นอกขอบเขตสำหรับโครงการของฉัน ตัวอย่างที่ นี่คุณมีตัวอย่างข้อมูลสองสามแปลงจากฝนและน้ำขึ้นในไม่กี่ชั่วโมงต่อมา เส้นสีแดงคือการไหลของแม่น้ำ สีส้มคือฝน คุณสามารถเห็นฝนตกทุกครั้งก่อนที่น้ำจะไหลขึ้นมาในแม่น้ำ มีฝนเริ่มอีกครั้งในตอนท้ายของอนุกรมเวลา แต่มันจะส่งผลกระทบต่อการไหลของแม่น้ำในภายหลัง ความสัมพันธ์อยู่ที่นั่น นี่คือสิ่งที่ฉันทำใน R เพื่อพิสูจน์ความสัมพันธ์โดยใช้ ccf ใน R: ข้ามสหสัมพันธ์ ตัวแปรชั้นนำ ความล่าช้า นี่คือสาย R ของฉันที่ใช้สำหรับตัวอย่างที่สอง (หนึ่งช่วงเวลาปริมาณน้ำฝน): ccf(arnoiaex1$Caudal, arnoiaex1$Precip, lag.max=1000, plot=TRUE, main="Flow & Rain") การตีความของฉันคือ: ฝนจะนำไปสู่ ​​(เกิดขึ้นก่อน) ≈ 450≈450\approx 450 ≈ …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.