คำถามติดแท็ก conditional-probability

ความน่าจะเป็นที่เหตุการณ์จะเกิดขึ้นเมื่อทราบว่ามีเหตุการณ์ B อื่นเกิดขึ้นหรือเกิดขึ้น มันเป็นเรื่องปกติโดย P (A | B)

4
จำนวนที่คาดว่าฉันจะอยู่หลังจากวาดการ์ดจนกว่าฉันจะได้รับเอซ 2, 3 และอื่น ๆ
ฉันมีปัญหาในการแก้ปัญหาต่อไปนี้ คุณจั่วไพ่จากสำรับมาตรฐาน 52 ใบโดยไม่ต้องเปลี่ยนจนกว่าคุณจะได้เอซ คุณดึงออกจากสิ่งที่เหลืออยู่จนกว่าคุณจะได้รับ 2. คุณดำเนินการต่อด้วย 3 จำนวนที่คาดหวังที่คุณจะได้รับหลังจากที่ดาดฟ้าทั้งหมดหมด มันเป็นธรรมชาติที่จะให้ Ti=first position of card whose value is iTi=first position of card whose value is iT_i = \text{first position of card whose value is }i Ui=last position of card whose value is iUi=last position of card whose value is iU_i = …

3
ความน่าจะเป็นของ Naive Bayes: ฉันควรนับจำนวนคำสองเท่าหรือไม่
ฉันทำต้นแบบของ Naive Bayes bag model และฉันมีคำถามเกี่ยวกับการคำนวณความน่าจะเป็นของคุณลักษณะ สมมติว่าฉันมีสองคลาสฉันจะใช้สแปมและไม่ใช่สแปมเพราะนั่นคือสิ่งที่ทุกคนใช้ และขอยกคำว่า "ไวอากร้า" เป็นตัวอย่าง ฉันมี 10 อีเมลในชุดการฝึกอบรมของฉัน 5 สแปมและ 5 ไม่ใช่สแปม "viagra" ปรากฏในเอกสารสแปมทั้ง 5 ฉบับ หนึ่งในเอกสารการฝึกอบรมปรากฏขึ้น 3 ครั้ง (นี่คือสิ่งที่คำถามของฉันเป็นเรื่องเกี่ยวกับ) ดังนั้นนั่นจึงเป็นลักษณะที่ปรากฏ 7 ประการในจดหมายขยะทั้งหมด ในชุดฝึกอบรมที่ไม่ใช่สแปมจะปรากฏขึ้น 1 ครั้ง หากฉันต้องการประมาณ p (viagra | spam) เพียง: p (viagra | spam) = 5 เอกสารสแปมประกอบด้วย viagra / 5 เอกสารสแปมทั้งหมด = 1 …

2
ค่าที่คาดหวังของ x ในการแจกแจงแบบปกติให้ค่าที่ต่ำกว่าค่าที่แน่นอน
เพียงแค่สงสัยว่าเป็นไปได้หรือไม่ที่จะหาค่าที่คาดหวังของ x หากมีการแจกแจงตามปกติโดยมีค่าต่ำกว่าค่าที่แน่นอน (ตัวอย่างเช่นต่ำกว่าค่าเฉลี่ย)

1
การทดสอบที่แน่นอนของฟิชเชอร์และการกระจาย hypergeometric
ฉันต้องการที่จะเข้าใจการทดสอบที่แม่นยำของฟิชเชอร์มากขึ้นดังนั้นฉันจึงคิดค้นตัวอย่างของเล่นต่อไปนี้โดยที่ f และ m สอดคล้องกับเพศชายและเพศหญิงและ n และ y สอดคล้องกับ "การบริโภคโซดา" เช่นนี้: > soda_gender f m n 0 5 y 5 0 เห็นได้ชัดว่านี่คือการทำให้เข้าใจง่ายมาก แต่ฉันไม่ต้องการให้บริบทเข้ามาขวางทาง ที่นี่ฉันเพิ่งสันนิษฐานว่าผู้ชายไม่ดื่มโซดาและหญิงดื่มโซดาและต้องการดูว่าวิธีการทางสถิติมาถึงข้อสรุปเดียวกัน เมื่อฉันทำการทดสอบฟิชเชอร์ที่แน่นอนใน R ฉันจะได้ผลลัพธ์ต่อไปนี้: > fisher.test(soda_gender) Fisher's Exact Test for Count Data data: soda_gender p-value = 0.007937 alternative hypothesis: true odds ratio is not equal to 1 …

5
ช่วงความเชื่อมั่นและความน่าจะเป็น - ข้อผิดพลาดในคำสั่งนี้อยู่ที่ไหน?
หากมีคนทำคำสั่งเช่นด้านล่าง: "โดยรวมผู้ที่ไม่สูบบุหรี่ที่สัมผัสกับควันสิ่งแวดล้อมมีความเสี่ยงสัมพัทธ์ของโรคหลอดเลือดหัวใจที่ 1.25 (ช่วงความเชื่อมั่น 95 เปอร์เซ็นต์, 1.17-1.32) เมื่อเทียบกับผู้สูบบุหรี่ที่ไม่ได้สัมผัสกับควัน" อะไรคือความเสี่ยงสัมพัทธ์ของประชากรโดยรวม? สิ่งที่เกี่ยวข้องกับโรคหลอดเลือดหัวใจ? ในหลาย ๆ สิ่งที่สามารถทดสอบได้มีเพียงไม่กี่คนเท่านั้นที่เชื่อมโยงกับโรคหลอดเลือดหัวใจดังนั้นโอกาสที่สิ่งใดก็ตามที่ถูกเลือกแบบสุ่มนั้นเชื่อมต่อกันจะหายไป ดังนั้นเราจึงสามารถพูดได้ว่าความเสี่ยงสัมพัทธ์สำหรับประชากรคือ 1 แต่ช่วงเวลาที่ยกมาไม่มีค่า 1 ดังนั้นอย่างใดอย่างหนึ่งมีการเชื่อมต่อระหว่างสองสิ่งความน่าจะเป็นที่มีขนาดเล็กหายไปหรือนี่คือหนึ่งใน 5% ของช่วงเวลาที่ไม่มีพารามิเตอร์ ในฐานะที่เป็นหลังมีโอกาสมากขึ้นกว่าในอดีตมันเป็นสิ่งที่เราควรคิด ดังนั้นข้อสรุปที่เหมาะสมคือชุดข้อมูลเกือบผิดปกติของประชากร แน่นอนถ้ามีพื้นฐานบางอย่างที่สมมติว่ามากกว่า 5% ของสิ่งต่าง ๆ เชื่อมโยงกับโรคหลอดเลือดหัวใจอาจมีหลักฐานบางอย่างในสถิติเพื่อสนับสนุนข้อเสนอแนะว่าควันสิ่งแวดล้อมเป็นหนึ่งในนั้น สามัญสำนึกแนะนำว่าสิ่งนี้ไม่น่าเป็นไปได้ อะไรคือข้อผิดพลาดในการใช้เหตุผลของพวกเขา (เนื่องจากองค์กรด้านสุขภาพทั้งหมดเห็นด้วยว่ามีวรรณกรรมสำคัญเกี่ยวกับผลกระทบที่เป็นอันตรายจากการสูบบุหรี่มือสอง) เป็นเพราะหลักฐานของพวกเขาที่ว่า "ในจำนวนที่มากของสิ่งที่สามารถทดสอบได้จริง ๆ น้อยมากที่เชื่อมต่อกับโรคหลอดเลือดหัวใจ"? ประโยคนี้อาจเป็นจริงสำหรับปัจจัยที่สุ่มเลือกใด ๆ (เช่นจำนวนสุนัขที่บุคคลหนึ่งเป็นเจ้าของที่มีความเสี่ยงต่อโรคหลอดเลือดหัวใจ) แต่ความน่าจะเป็นนิรนัยนั้นสูงกว่าการสูบบุหรี่มือสองและโรคหลอดเลือดหัวใจมากกว่าแค่ 'ปัจจัยสุ่มใด ๆ ' . นี่เป็นเหตุผลที่ถูกต้องหรือไม่? หรือมีอย่างอื่นอีกไหม

1
การสุ่มตัวอย่างจากการแจกแจงร่อแร่โดยใช้การแจกแจงแบบมีเงื่อนไข?
ฉันต้องการตัวอย่างจากความหนาแน่นของ univariate ฉXฉXf_Xแต่ฉันรู้เพียงความสัมพันธ์: ฉX( x ) = ∫ฉX| Y(x | y)fY( y) dY.ฉX(x)=∫ฉX|Y(x|Y)ฉY(Y)dY.f_X(x) = \int f_{X\vert Y}(x\vert y)f_Y(y) dy. ฉันต้องการหลีกเลี่ยงการใช้ MCMC (โดยตรงกับการแทนค่าอินทิกรัล) และเนื่องจากและเป็นตัวอย่างที่ง่ายฉันจึงคิดที่จะใช้ตัวอย่างต่อไปนี้ :f Y ( y )ฉX| Y( x | y)ฉX|Y(x|Y)f_{X\vert Y}(x\vert y)ฉY( y)ฉY(Y)f_Y(y) สำหรับNj = 1 , … , NJ=1,...,ยังไม่มีข้อความj=1,\dots, N ตัวอย่างf_YYJ∼ fYYJ~ฉYy_j \sim f_Y ตัวอย่างy_j)xJ∼ fX| Y( …

1
วิธีกำหนดการแจกแจงแบบนั้นมีความสัมพันธ์กับการจับฉลากจากการแจกแจงแบบอื่นที่กำหนดไว้ล่วงหน้าได้อย่างไร?
ฉันจะกำหนดกระจายของตัวแปรสุ่มดังกล่าวที่วาดจากมีความสัมพันธ์กับที่เป็นวาดเดียวจากการกระจายกับฟังก์ชันการกระจายสะสม ? Y ρ x 1 x 1 F X ( x )YYYYYYρρ\rhox1x1x_1x1x1x_1FX( x )FX(x)F_{X}(x)

1
การสร้างแบบจำลองแบบเบย์โดยใช้ตัวแปรหลายตัวแปรร่วมกับ covariate
สมมติว่าคุณมีตัวแปรอธิบายโดยที่แทนพิกัดที่กำหนด คุณยังมีตัวแปรตอบสนองขวา) ตอนนี้เราสามารถรวมตัวแปรทั้งสองเป็น:X=(X(s1),…,X(sn))X=(X(s1),…,X(sn)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right)sssY=(Y(s1),…,Y(sn))Y=(Y(s1),…,Y(sn)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) W(s)=(X(s)Y(s))∼N(μ(s),T)W(s)=(X(s)Y(s))∼N(μ(s),T){\bf{W}}({\bf{s}}) = \left( \begin{array}{ccc}X(s) \\ Y(s) \end{array} \right) \sim N(\boldsymbol{\mu}(s), T) ในกรณีนี้เราเลือกμ(s)=(μ1μ2)Tμ(s)=(μ1μ2)T\boldsymbol{\mu}(s) = \left( \mu_{1} \; \; \mu_{2}\right)^{T}และTTTเป็นเมทริกซ์ความแปรปรวนร่วมที่อธิบาย ความสัมพันธ์ระหว่างXXXและYYYYสิ่งนี้อธิบายค่าXXXและYYYที่sssเท่านั้น เนื่องจากเรามีคะแนนเพิ่มเติมจากที่ตั้งอื่นสำหรับXXXและYYYเราจึงสามารถอธิบายค่าเพิ่มเติมของW(s)W(s){\bf{W}}(s)ด้วยวิธีต่อไปนี้: (XY)=N((μ11μ21),T⊗H(ϕ))(XY)=N((μ11μ21),T⊗H(ϕ))\left( \begin{array}{ccc} {\bf{X}} \\ {\bf{Y}} \end{array}\right) = N\left(\left(\begin{array}{ccc}\mu_{1}\boldsymbol{1}\\ \mu_{2}\boldsymbol{1}\end{array}\right), T\otimes H(\phi)\right) คุณจะสังเกตเห็นว่าเราได้จัดเรียงองค์ประกอบของXX\bf{X}และYY\bf{Y}เพื่อให้ได้X(si)X(si)X(s_i)ในคอลัมน์และหลังจากนั้นเชื่อมต่อY(si)Y(si)Y(s_i)เข้าด้วยกัน แต่ละองค์ประกอบH(ϕ)ijH(ϕ)ijH(\phi)_{ij}เป็นฟังก์ชันที่สัมพันธ์กันρ(si,sj)ρ(si,sj)\rho(s_i, s_j)และTTTอยู่ด้านบน เหตุผลที่เรามีความแปรปรวนร่วมT⊗H(ϕ)T⊗H(ϕ)T\otimes H(\phi)เป็นเพราะเราคิดว่ามันเป็นไปได้ที่จะแยกเมทริกซ์ความแปรปรวนเป็นC(s,s′)=ρ(s,s′)TC(s,s′)=ρ(s,s′)TC(s, s')=\rho(s, s') TT คำถามที่ 1: เมื่อฉันคำนวณเงื่อนไขY∣XY∣X{\bf{Y}}\mid{\bf{X}}สิ่งที่ฉันกำลังทำจริง ๆ …

2
โปรแกรมเช่น BUGS / JAGS จะกำหนดการกระจายแบบมีเงื่อนไขสำหรับการสุ่มตัวอย่างแบบกิ๊บส์อย่างไร
ดูเหมือนว่าเงื่อนไขแบบเต็มมักจะยากที่จะรับมา แต่โปรแกรมเช่น JAGS และ BUGS จะได้มาโดยอัตโนมัติ บางคนสามารถอธิบายได้ว่าพวกเขาสร้างอัลกอริธึมแบบเต็มรูปแบบสำหรับสเปคแบบใดก็ได้หรือไม่?

3
วิธีการคือที่กำหนดไว้เมื่อ
สมมติว่าYYYเป็นตัวแปรสุ่มแบบต่อเนื่องและXXXเป็นตัวแปรที่ไม่ต่อเนื่อง Pr(X=x|Y=y)=Pr(X=x)Pr(Y=y|X=x)Pr(Y=y)Pr(X=x|Y=y)=Pr(X=x)Pr(Y=y|X=x)Pr(Y=y) \Pr(X=x|Y=y) = \frac{\Pr(X=x)\Pr(Y=y|X=x)}{\Pr(Y=y)} อย่างที่เรารู้Pr(Y=y)=0Pr(Y=y)=0\Pr(Y=y) = 0เพราะYYYเป็นตัวแปรสุ่มต่อเนื่อง และจากสิ่งนี้ฉันจึงอยากสรุปว่าความน่าจะเป็นPr(X=x|Y=y)Pr(X=x|Y=y)\Pr(X=x|Y=y)นั้นไม่ได้ถูกกำหนด อย่างไรก็ตามWikipedia อ้างว่าที่นี่มีการกำหนดไว้ดังนี้: Pr(X=x|Y=y)=Pr(X=x)fY|X=x(y)fY(y)Pr(X=x|Y=y)=Pr(X=x)fY|X=x(y)fY(y) \Pr(X=x|Y=y) = \frac{\Pr(X=x) f_{Y|X=x}(y)}{f_Y(y)} คำถาม:ความคิดใดที่วิกิพีเดียจัดการเพื่อกำหนดความน่าจะเป็นนั้นได้อย่างไร? ความพยายามของฉัน นี่คือความพยายามของฉันเพื่อให้ได้ผลลัพธ์ของ Wikipedia ในแง่ของข้อ จำกัด : Pr(X=x|Y=y)=Pr(X=x)Pr(Y=y|X=x)Pr(Y=y)=limd→0Pr(X=x)(d×fY|X=x(y))(d×fY(y))=limd→0Pr(X=x)(d×fY|X=x(y))(d×fY(y))=Pr(X=x)fY|X=x(y)fY(y)Pr(X=x|Y=y)=Pr(X=x)Pr(Y=y|X=x)Pr(Y=y)=limd→0Pr(X=x)(d×fY|X=x(y))(d×fY(y))=limd→0Pr(X=x)(d×fY|X=x(y))(d×fY(y))=Pr(X=x)fY|X=x(y)fY(y)\begin{split}\require{cancel} \Pr(X=x|Y=y) &= \frac{\Pr(X=x)\Pr(Y=y|X=x)}{\Pr(Y=y)}\\ &= \lim_{d \rightarrow 0}\frac{\Pr(X=x) \big(d \times f_{Y|X=x}(y)\big)}{\big(d \times f_Y(y)\big)}\\ &= \lim_{d \rightarrow 0}\frac{\Pr(X=x) \big(\cancel{d} \times f_{Y|X=x}(y)\big)}{\big(\cancel{d} \times f_Y(y)\big)}\\ &= \frac{\Pr(X=x) f_{Y|X=x}(y)}{f_Y(y)}\\ \end{split} ตอนนี้Pr(X=x|Y=y)Pr(X=x|Y=y)\Pr(X=x|Y=y)ดูเหมือนจะถูกกำหนดให้เป็นPr(X=x)fY|X=x(y)fY(y)Pr(X=x)fY|X=x(y)fY(y)\frac{\Pr(X=x) …

1
R / mgcv: เพราะเหตุใดผลิตภัณฑ์ te () และ ti () เทนเซอร์จึงให้พื้นผิวที่แตกต่างกัน
mgcvแพคเกจสำหรับการRมีสองฟังก์ชั่นสำหรับการปฏิสัมพันธ์กระชับเมตริกซ์ผลิตภัณฑ์: และte() ti()ฉันเข้าใจการแบ่งขั้นพื้นฐานของการใช้แรงงานระหว่างคนทั้งสอง (ปรับให้เหมาะสมกับการทำงานแบบไม่เป็นเชิงเส้นเปรียบเทียบกับการย่อยสลายการโต้ตอบนี้เป็นผลกระทบหลักและการโต้ตอบ) สิ่งที่ฉันไม่เข้าใจคือสาเหตุte(x1, x2)และti(x1) + ti(x2) + ti(x1, x2)อาจให้ผลลัพธ์ที่แตกต่าง (เล็กน้อย) MWE (ดัดแปลงมาจาก?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

2
ทำไมความหนาแน่นหลังเป็นสัดส่วนกับความหนาแน่นก่อนหน้าที่ฟังก์ชันโอกาส?
ตามทฤษฎีบท Bayes' ) แต่ตามข้อความทางเศรษฐมิติของฉันมันบอกว่าP ( θ | Y ) α P ( Y | θ ) P ( θ ) ทำไมถึงเป็นเช่นนี้ ฉันไม่เข้าใจว่าทำไมP ( y ) ถึงถูกเพิกเฉยP( y| θ)P( θ ) = P( θ | y) P( y)P(y|θ)P(θ)=P(θ|y)P(y)P(y|\theta)P(\theta) = P(\theta|y)P(y)P( θ | y) ∝ P( y| θ)P( θ )P(θ|y)∝P(y|θ)P(θ)P(\theta|y) \propto P(y|\theta)P(\theta)P( …

2
ความน่าจะเป็นที่ให้คือคืออะไร?
สมมติว่าXXXและYYYเป็น bivariate ปกติโดยมีค่าเฉลี่ยμ=(μ1,μ2)μ=(μ1,μ2)\mu=(\mu_1,\mu_2)และความแปรปรวนร่วม Σ=[σ11σ12σ12σ22]Σ=[σ11σ12σ12σ22]\Sigma = \begin{bmatrix} \sigma_{11} & \sigma_{12} \\ \sigma_{12} & \sigma_{22} \\ \end{bmatrix}{bmatrix} ความน่าจะเป็นคืออะไรPr(X&lt;Y|min(X,Y))Pr(X&lt;Y|min(X,Y))\Pr\left(X<Y|\min\left(X,Y\right)\right) ?

2
ผลรวมของสัมประสิทธิ์การกระจายแบบพหุนาม
\newcommand{\P}{\mathbb{P}}ฉันกำลังจะตายอย่างยุติธรรม เมื่อใดก็ตามที่ฉันได้รับ 1, 2 หรือ 3 ฉันจะเขียน '1' เมื่อใดก็ตามที่ฉันได้ 4 ฉันเขียน '2'; เมื่อใดก็ตามที่ฉันได้ 5 หรือ 6 ฉันจะเขียน '3' ให้NNNเป็นจำนวนพ่นฉันต้องการสำหรับผลิตภัณฑ์ของตัวเลขทั้งหมดที่ผมเขียนลงไปเป็น≥100000≥100000\geq 100000100000 ฉันต้องการคำนวณ (หรือโดยประมาณ) P(N≥25)P(N≥25)\P(N\geq 25)และการประมาณสามารถให้เป็นฟังก์ชันของการแจกแจงแบบปกติ ครั้งแรกผมรู้ว่าP(N≥11)=1P(N≥11)=1\P(N\geq 11) = 1เพราะlog3100.000≈10.48log3⁡100.000≈10.48\log_3 100.000 \approx 10.4810.48 ทีนี้ลองaaa , bbbและcccเป็นจำนวนครั้งที่ผมเขียน 1, 2 และ 3 ตามลำดับ แล้ว: P(a,b,c∣n)=⎧⎩⎨⎪⎪(na,b,c)(12)a(16)b(13)c0 if a+b+c=n otherwiseP(a,b,c∣n)={(na,b,c)(12)a(16)b(13)c if a+b+c=n0 otherwise\P(a,b,c\mid n) = \begin{cases}\displaystyle\binom …

1
พิสูจน์ / หักล้าง
พิสูจน์ / หักล้างE[1A|Ft]=0 or 1 a.s. ⇒E[1A|Fs]=E[1A|Ft] a.s.E[1A|Ft]=0 or 1 a.s. ⇒E[1A|Fs]=E[1A|Ft] a.s.E[1_A | \mathscr{F_t}] = 0 \ \text{or} \ 1 \ \text{a.s.} \ \Rightarrow E[1_A | \mathscr{F_{s}}] = E[1_A | \mathscr{F_t}] \ \text{a.s.} กำหนดพื้นที่น่าจะเป็นกรอง(Ω,F,{Fn}n∈N,P)(Ω,F,{Fn}n∈N,P)(\Omega, \mathscr{F}, \{\mathscr{F}_n\}_{n \in \mathbb{N}}, \mathbb{P})ให้{F}A∈FA∈FA \in \mathscr{F} สมมติว่ามันติดตามแล้วล่ะE [ 1 A | F s ] …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.