ตัวอย่างข้อมูลที่สมมติว่าเป็น N และสมมติว่าเรามีฟังก์ชันความแปรปรวนร่วมและค่าเฉลี่ยศูนย์ที่ระบุสำหรับกระบวนการ Gussian การแจกแจงสำหรับจุดใหม่จะเป็น Gaussian ที่มีค่าเฉลี่ยและความแปรปรวนV (\ mathbf {x}) = k (\ mathbf {x}, \ mathbf {x}) - \ mathbf {k} K ^ {- 1} \ \ mathbf {k} ^ T เวกเตอร์\ mathbf {k} = \ {k (\ mathbf {x}, \ mathbf {x} _1), \ ldots, k (\ mathbf {x}, \ mathbf {x} _N) \}เป็นเวกเตอร์ของโควาเรีย , เมทริกซ์K = \ {k (\ mathbf {x} _i, \ mathbf {x} _j) \} _ {i, j = 1} ^ ND=(X,y)={xi,yi=y(xi)}Ni=1k(x1,x2)x
m(x)=kK−1y
V(x)=k(x,x)−kK−1kT.
k={k(x,x1),…,k(x,xN)}K={k(xi,xj)}Ni,j=1เป็นเมทริกซ์ของค่าความแปรปรวนร่วมตัวอย่าง ในกรณีที่เราทำการทำนายโดยใช้ค่าเฉลี่ยของการกระจายหลังสำหรับ
คุณสมบัติการแก้ไขตัวอย่างถือ จริง ๆ
m(X)=KK−1y=y.
แต่มันก็ไม่ได้เกิดขึ้นถ้าเราใช้การทำให้เป็นมาตรฐานเช่นใช้คำว่าเสียงสีขาว ในกรณีนี้เมทริกซ์ความแปรปรวนร่วมสำหรับตัวอย่างมีรูปแบบ
K+σIแต่สำหรับค่าความแปรปรวนร่วมที่มีค่าฟังก์ชันจริงเรามีเมทริกซ์ความแปรปรวนร่วม
Kและค่าเฉลี่ยหลังคือ
m(X)=K(K+σI)−1y≠y.
นอกจากนี้การทำให้เป็นปกติจะทำให้ปัญหามีเสถียรภาพมากขึ้น
การเลือกความแปรปรวนของเสียงเราสามารถเลือกได้หากเราต้องการการแก้ไข ( ) หรือเราต้องการจัดการกับการสังเกตที่มีเสียงดัง (มีขนาดใหญ่)σσ=0σ
นอกจากนี้กระบวนการถดถอยแบบเกาส์เป็นวิธีท้องถิ่นเพราะความแปรปรวนของการคาดการณ์เติบโตขึ้นด้วยระยะทางจากตัวอย่างการเรียนรู้ แต่เราสามารถเลือกฟังก์ชันความแปรปรวนร่วมที่เหมาะสมและจัดการปัญหาที่ซับซ้อนกว่าด้วย RBF คุณสมบัติที่ดีอีกประการหนึ่งคือพารามิเตอร์จำนวนน้อย โดยปกติจะเท่ากับโดยที่คือมิติข้อมูลkO(n)n