คำถามติดแท็ก gam

Generalized Additive Model (GAM) เป็นแบบจำลองเชิงเส้นทั่วไป (GLM) ซึ่งตัวแปรตอบสนองขึ้นอยู่กับฟังก์ชันที่ราบรื่นที่ไม่รู้จักของตัวแปรทำนายบางตัว

4
เหตุใดการรวมละติจูดและลองจิจูดในบัญชี GAM สำหรับความสัมพันธ์เชิงพื้นที่อัตโนมัติ
ฉันสร้างแบบจำลองสารเติมแต่งทั่วไปสำหรับการตัดไม้ทำลายป่า เพื่ออธิบายความสัมพันธ์เชิงพื้นที่ฉันได้รวมละติจูดและลองจิจูดไว้ในรูปแบบการโต้ตอบที่ราบรื่น (เช่น s (x, y)) ฉันใช้การอ่านบทความจำนวนมากซึ่งผู้เขียนบอกว่า 'เพื่ออธิบายความสัมพันธ์เชิงพื้นที่โดยอัตโนมัติพิกัดของจุดถูกรวมไว้ในรูปแบบที่ราบรื่น' แต่สิ่งเหล่านี้ไม่เคยอธิบายว่าทำไมสิ่งนี้ถึงเกิดขึ้นจริง มันค่อนข้างน่าผิดหวัง ฉันได้อ่านหนังสือทั้งหมดที่ฉันสามารถหาได้ใน GAM โดยหวังว่าจะได้คำตอบ แต่ส่วนใหญ่ (เช่นโมเดลเสริมทั่วไป, บทนำด้วย R, SN Wood) เพียงแค่สัมผัสกับเรื่องโดยไม่อธิบาย ฉันจะซาบซึ้งจริง ๆ ถ้ามีใครสามารถอธิบายได้ว่าทำไมการรวมบัญชีละติจูดและลองจิจูดสำหรับการเปลี่ยนแปลงเชิงพื้นที่และสิ่งที่ 'การบัญชี' สำหรับมันหมายถึงจริงๆ - เป็นเพียงพอที่จะรวมไว้ในรูปแบบหรือถ้าคุณเปรียบเทียบแบบจำลองด้วย s (x, y) และโมเดลที่ไม่มี? และความเบี่ยงเบนที่อธิบายโดยคำนี้ระบุขอบเขตของความสัมพันธ์เชิงพื้นที่อัตโนมัติหรือไม่?

1
องศาอิสระเป็นหมายเลขที่ไม่ใช่จำนวนเต็มหรือไม่
เมื่อฉันใช้ GAM มันให้ DF ที่เหลือกับฉันคือ (บรรทัดสุดท้ายในรหัส) นั่นหมายความว่าอย่างไร? นอกเหนือไปจากตัวอย่างของ GAM โดยทั่วไปแล้วจำนวนองศาความเป็นอิสระจะเป็นจำนวนที่ไม่ใช่จำนวนเต็มหรือไม่26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

2
จะรวมคำศัพท์โต้ตอบใน GAM ได้อย่างไร
รหัสต่อไปนี้ประเมินความคล้ายคลึงกันระหว่างอนุกรมเวลาสองชุด: set.seed(10) RandData <- rnorm(8760*2) America <- rep(c('NewYork','Miami'),each=8760) Date = seq(from=as.POSIXct("1991-01-01 00:00"), to=as.POSIXct("1991-12-31 23:00"), length=8760) DatNew <- data.frame(Loc = America, Doy = as.numeric(format(Date,format = "%j")), Tod = as.numeric(format(Date,format = "%H")), Temp = RandData, DecTime = rep(seq(1, length(RandData)/2) / (length(RandData)/2), 2)) require(mgcv) mod1 <- gam(Temp ~ Loc + s(Doy) + s(Doy,by …

2
โมเดลสารเติมแต่งทั่วไป - ใครทำการวิจัยกับพวกเขานอกเหนือจาก Simon Wood
ฉันใช้เกมมากขึ้นเรื่อย ๆ เมื่อฉันไปเพื่อให้การอ้างอิงสำหรับส่วนประกอบต่าง ๆ ของพวกเขา (การเลือกพารามิเตอร์ให้เรียบฐาน spline ต่างๆ p-values ​​ของคำศัพท์ที่ราบเรียบ) พวกเขาทั้งหมดมาจากนักวิจัยคนหนึ่ง - Simon Wood ที่ University of Bath ในอังกฤษ เขายังเป็นผู้ดูแลmgcvใน R ซึ่งใช้ร่างกายของเขาในการทำงาน mgcvมีความซับซ้อนอย่างมาก แต่ทำงานได้ดีอย่างน่าทึ่ง มีสิ่งที่มีอายุมากกว่าแน่นอน แนวความคิดดั้งเดิมนั้นให้เครดิตกับ Hastie & Tibshirani และตำราเก่าที่ยิ่งใหญ่เขียนโดย Ruppert et al ในปี 2003 ในฐานะที่เป็นคนสมัครฉันไม่ค่อยมีความรู้สึกกับนัก Zeitgeist ในหมู่นักสถิติ งานของเขาได้รับการยกย่องอย่างไร เป็นเรื่องแปลกไหมที่นักวิจัยคนหนึ่งทำได้มากในพื้นที่หนึ่ง? หรือมีงานอื่นที่ไม่ได้สังเกตมากเพราะมันไม่ได้อยู่ข้างในmgcv? ฉันไม่เห็นว่ามีการใช้เกมมากนักแม้ว่าเนื้อหาจะสามารถเข้าถึงได้โดยผู้ใช้ที่มีการฝึกอบรมทางสถิติและซอฟต์แวร์ได้รับการพัฒนาค่อนข้างดี มี "เรื่องย้อนหลัง" มากมายหรือไม่? คำแนะนำของมุมมองชิ้นและสิ่งที่คล้ายกันอื่น ๆ จากวารสารสถิติจะได้รับการชื่นชม

4
การเพิ่มความแม่นยำของเครื่องไล่ระดับสีจะลดลงเมื่อจำนวนการทำซ้ำเพิ่มขึ้น
ฉันกำลังทดลองกับอัลกอริทึมของเครื่องเร่งการไล่ระดับสีผ่านcaretแพ็คเกจใน R ใช้ชุดข้อมูลการรับสมัครวิทยาลัยขนาดเล็กฉันใช้รหัสต่อไปนี้: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine algorithm. ### set.seed(123) fitControl <- trainControl(method = 'cv', number = 5, summaryFunction=defaultSummary) grid <- expand.grid(n.trees = seq(5000,1000000,5000), interaction.depth = 2, shrinkage …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

3
ควรใช้ GAM กับ GLM เมื่อใด
ฉันรู้ว่านี่อาจเป็นคำถามที่กว้าง แต่ฉันสงสัยว่ามีข้อสมมติฐานทั่วไปที่บ่งบอกถึงการใช้ GAM (โมเดลเสริมทั่วไป) เหนือ GLM (โมเดลเชิงเส้นทั่วไป) หรือไม่ มีคนบอกฉันเมื่อไม่นานมานี้ว่า GAM ควรใช้เฉพาะเมื่อฉันถือว่าโครงสร้างข้อมูลเป็น "สารเติมแต่ง" เช่นฉันคาดว่าการเพิ่มของ x เพื่อคาดการณ์ y อีกคนหนึ่งชี้ให้เห็นว่า GAM ทำการวิเคราะห์การถดถอยแบบต่างจาก GLM และเป็นที่ต้องการของ GLM เมื่อสามารถอนุมานเชิงเส้นได้ ในอดีตฉันใช้ GAM สำหรับข้อมูลเชิงนิเวศน์เช่น: ไทม์อย่างต่อเนื่อง เมื่อข้อมูลไม่มีรูปร่างเป็นเส้นตรง ฉันมี x หลายตัวเพื่อทำนาย y ที่ฉันคิดว่ามีปฏิสัมพันธ์แบบไม่เชิงเส้นที่ฉันสามารถเห็นภาพโดยใช้ "พล็อตผิว" พร้อมกับการทดสอบทางสถิติ เห็นได้ชัดว่าฉันไม่มีความเข้าใจที่ดีในสิ่งที่ GAM ทำแตกต่างจาก GLM ฉันเชื่อว่าเป็นการทดสอบทางสถิติที่ถูกต้อง (และฉันเห็นการเพิ่มขึ้นของการใช้งาน GAMs อย่างน้อยในวารสารด้านนิเวศวิทยา) แต่ฉันจำเป็นต้องรู้ให้ดีขึ้นเมื่อการใช้งานถูกระบุเหนือการวิเคราะห์การถดถอยอื่น ๆ

3
ช่วงความมั่นใจสำหรับรุ่น GAM
mgcv::gamหน้าความช่วยเหลือของReading : ความมั่นใจ / ช่วงเวลาที่น่าเชื่อถือนั้นพร้อมใช้งานสำหรับปริมาณใด ๆ ที่คาดการณ์ไว้โดยใช้แบบจำลองที่ติดตั้งไว้ อย่างไรก็ตามฉันไม่สามารถหาวิธีที่จะได้รับจริง ฉันคิดว่าpredict.gamจะมีtype=confidenceและlevelพารามิเตอร์ แต่ไม่ได้ คุณช่วยฉันเกี่ยวกับวิธีการสร้างมันได้หรือไม่

1
ไลบรารี Python Model แบบเติมแต่งทั่วไป
ฉันรู้ว่า R มีไลบรารี gam และ mgcv สำหรับโมเดลสารเติมแต่งทั่วไป แต่ฉันมีปัญหาในการค้นหาคู่หูของพวกเขาในระบบนิเวศของหลาม (สถิติเฉพาะรุ่นมีต้นแบบในกล่องทราย) มีใครรู้บ้างเกี่ยวกับห้องสมุดหลามที่มีอยู่? ใครจะรู้ว่านี่อาจเป็นโครงการที่ดีในการพัฒนา / มีส่วนร่วมในการเรียนรู้ Scikit ถ้าไม่
14 gam 

1
GAM กับ LOESS และ splines
บริบท : ผมอยากจะวาดเส้นใน scatterplot ที่ไม่ปรากฏพาราดังนั้นฉันใช้geom_smooth()ในในggplot Rมันจะส่งคืนโดยอัตโนมัติที่geom_smooth: method="auto" and size of largest group is >=1000, so using gam with formula: y ~ s(x, bs = "cs"). Use 'method = x' to change the smoothing method.ฉันรวบรวม GAM มาสำหรับโมเดลเสริมทั่วไปและใช้ลูกบาศก์อิสระ การรับรู้ต่อไปนี้ถูกต้องหรือไม่ ดินเหลืองคาดการณ์การตอบสนองที่ค่าเฉพาะ เส้นโค้งเป็นการประมาณที่เชื่อมต่อฟังก์ชั่นที่แตกต่างกันที่เหมาะสมกับข้อมูล (ซึ่งประกอบเป็นแบบจำลองการเติมทั่วไป) และลูกบาศก์ Splines เป็นประเภทของเส้นโค้งที่ใช้เฉพาะที่นี่ ในที่สุดควรใช้ splines เมื่อใดควรใช้ LOESS เมื่อใด

1
โมเดลสารเติมแต่งทั่วไป (GAMs), การโต้ตอบและ covariates
ฉันสำรวจเครื่องมือจำนวนหนึ่งเพื่อการคาดการณ์และพบว่าแบบจำลองการเติมทั่วไป (เกม) เพื่อให้มีศักยภาพมากที่สุดสำหรับจุดประสงค์นี้ เกมยอดเยี่ยม! พวกเขาอนุญาตให้ระบุแบบจำลองที่ซับซ้อนอย่างรัดกุม อย่างไรก็ตามความกระชับแบบเดียวกันนั้นทำให้ฉันสับสนโดยเฉพาะอย่างยิ่งในเรื่องที่ว่า GAMs เข้าใจถึงเงื่อนไขการมีปฏิสัมพันธ์และเพื่อนร่วมรัฐอย่างไร ลองพิจารณาชุดข้อมูลตัวอย่าง (โค้ดที่ทำซ้ำได้เมื่อสิ้นสุดการโพสต์) ซึ่งyเป็นฟังก์ชั่นแบบโมโนโทนิกที่รบกวนโดย gaussians สองคู่พร้อมเสียงรบกวน: ชุดข้อมูลมีตัวแปรตัวทำนายบางอย่าง: x: ดัชนีของข้อมูล (1-100) w: คุณลักษณะรองที่ทำเครื่องหมายส่วนต่างๆของyที่ซึ่งมีเกาส์เซียนอยู่ wมีค่า 1-20 โดยxอยู่ระหว่าง 11 ถึง 30 และ 51 ถึง 70 มิฉะนั้นwเท่ากับ 0 w2: w + 1เพื่อที่จะไม่มีค่า 0 mgcvแพ็คเกจของ R ทำให้ง่ายต่อการระบุจำนวนโมเดลที่เป็นไปได้สำหรับข้อมูลเหล่านี้: โมเดล 1 และ 2 นั้นใช้งานง่าย การคาดการณ์yเฉพาะจากค่าดัชนีในxที่ความเรียบเริ่มต้นสร้างสิ่งที่ถูกต้องราง แต่เรียบเกินไป การคาดการณ์yจากwผลลัพธ์ในรูปแบบของ "เฉลี่ย gaussian" ที่มีอยู่yและไม่มี …
12 r  modeling  gam  mgcv 

1
บทสรุปของ GAM พอดี
หากเราเหมาะกับ GAM เช่น: gam.fit = gam::gam(Outstate ~ Private + s(Room.Board, df = 2) + s(PhD, df = 2) + s(perc.alumni, df = 2) + s(Expend, df = 5) + s(Grad.Rate, df = 2), data = College) ที่เราใช้ในชุดข้อมูลที่สามารถพบได้ในแพคเกจCollege ตอนนี้ถ้าเราพบบทสรุปของแบบนี้แล้วเราจะเห็นว่า:ISLR > summary(gam.fit) Call: gam(formula = Outstate ~ Private + s(Room.Board, df = …
12 anova  gam 

1
R / mgcv: เพราะเหตุใดผลิตภัณฑ์ te () และ ti () เทนเซอร์จึงให้พื้นผิวที่แตกต่างกัน
mgcvแพคเกจสำหรับการRมีสองฟังก์ชั่นสำหรับการปฏิสัมพันธ์กระชับเมตริกซ์ผลิตภัณฑ์: และte() ti()ฉันเข้าใจการแบ่งขั้นพื้นฐานของการใช้แรงงานระหว่างคนทั้งสอง (ปรับให้เหมาะสมกับการทำงานแบบไม่เป็นเชิงเส้นเปรียบเทียบกับการย่อยสลายการโต้ตอบนี้เป็นผลกระทบหลักและการโต้ตอบ) สิ่งที่ฉันไม่เข้าใจคือสาเหตุte(x1, x2)และti(x1) + ti(x2) + ti(x1, x2)อาจให้ผลลัพธ์ที่แตกต่าง (เล็กน้อย) MWE (ดัดแปลงมาจาก?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
การทำนายด้วยเอฟเฟกต์แบบสุ่มในเกม mgcv
ฉันสนใจในการสร้างแบบจำลองการจับปลาทั้งหมดโดยใช้ gam ใน mgcv เพื่อสร้างเอฟเฟกต์แบบสุ่มง่าย ๆ สำหรับเรือแต่ละลำ ฉันมีวิชา 98 วิชาดังนั้นฉันคิดว่าฉันจะใช้ gam แทน gamm เพื่อจำลองเอฟเฟกต์แบบสุ่ม แบบจำลองของฉันคือ: modelGOM <- gam(TotalFish ~ factor(SetYear) + factor(SetMonth) + factor(TimePeriod) + s(SST) + s(VesselID, bs = "re", by = dum) + s(Distance, by = TimePeriod) + offset(log(HooksSet)), data = GOM, family = tw(), method = "REML") …

1
ปัจจัยเงินเฟ้อความแปรปรวนสำหรับตัวแบบเสริมทั่วไป
ในการคำนวณ VIF ตามปกติสำหรับการถดถอยเชิงเส้นแต่ละตัวแปรอิสระ / อธิบายจะถือว่าเป็นตัวแปรตามในการถดถอยกำลังสองน้อยที่สุดธรรมดา กล่าวคือXJXJX_j XJ= β0+ ∑i = 1 , ฉัน≠ jnβผมXผมXJ=β0+Σผม=1,ผม≠JnβผมXผม X_j = \beta_0 + \sum_{i=1, i \neq j}^n \beta_i X_i ค่าจะถูกเก็บไว้สำหรับแต่ละการถดถอยและ VIF ถูกกำหนดโดยR2R2R^2nnn VผมFJ= 11 - R2JVผมFJ=11-RJ2 VIF_j = \frac{1}{1-R^2_j} สำหรับตัวแปรอธิบายโดยเฉพาะ สมมติว่าโมเดลเสริมทั่วไปของฉันใช้รูปแบบ Y= β0+ ∑i = 1nβผมXผม+ ∑j = 1ม.sJ( Xผม) .Y=β0+Σผม=1nβผมXผม+ΣJ=1ม.sJ(Xผม). Y=\beta_0+ \sum_{i=1}^n \beta_iX_i + …

1
ความถี่อัลลีลที่สังเกตเห็นมีค่าน้อยกว่าที่คาดการณ์ไว้หรือไม่
คำถาม : ฉันจะสร้างการทดสอบเพื่อตรวจสอบได้อย่างไรว่า "ภูเขา" - ความถี่ทั้งหมด (รูปที่ 1) ที่สังเกตได้นั้นลดลงอย่างมีนัยสำคัญในภูเขากลางถึงภาคใต้มากกว่าที่ทำนายไว้ (รูปที่ 2) โดยรูปแบบการเลือกเชิงนิเวศ ( ดูรายละเอียดด้านล่าง ) ปัญหา : ความคิดเริ่มต้นของฉันคือการถดถอยส่วนที่เหลือของแบบจำลองกับละติจูด: ลองจิจูดและระดับความสูง (ซึ่งส่งผลเฉพาะการทำงานร่วมกันระหว่างละติจูดและลองจิจูดเป็นสำคัญ) ปัญหาคือสิ่งที่เหลืออยู่ (รูปที่ 3) อาจสะท้อนถึงการเปลี่ยนแปลงที่ไม่ได้อธิบายโดยแบบจำลองและ / หรือว่าเป็นสิ่งที่เกิดขึ้นทางชีวภาพเช่นอัลลีลไม่มีเวลาที่จะแพร่กระจายไปทางทิศใต้ถึงศักยภาพหรือมีอุปสรรคบางอย่างต่อการไหลของยีน หากคุณเปรียบเทียบความถี่ที่สังเกตได้ (รูปที่ 1) กับที่คาดหวัง (รูปที่ 2) มีความแตกต่างอย่างชัดเจนโดยเฉพาะอย่างยิ่งในภาคกลางถึงภูเขาทางตอนใต้ของสวีเดนและนอร์เวย์ ฉันยอมรับว่าตัวแบบอาจไม่สามารถอธิบายการเปลี่ยนแปลงทั้งหมดได้ แต่ฉันสามารถทดสอบแบบมีเหตุผลเพื่อสำรวจความคิดที่ว่าอัลลีลภูเขาไม่ถึงศักยภาพในใจกลางภูเขาทางตอนใต้หรือไม่ พื้นหลัง: ฉันมีเครื่องหมาย AFLP bi-allelic ซึ่งการกระจายความถี่ดูเหมือนว่าเกี่ยวข้องกับภูเขา (และละติจูด: ลองจิจูด) เมื่อเทียบกับที่อยู่อาศัยระดับต่ำบนคาบสมุทรสแกนดิเนเวีย (รูปที่ 1) "ภูเขา" - อัลลีลเกือบคงที่ในภาคเหนือซึ่งเป็นภูเขา มันเกือบจะหายไปหรือคงที่สำหรับ "ที่ราบลุ่ม" …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.