คุณถาม:
ในกรณีที่𝑛เท่ากับ 10 ในล้านคนการถดถอยของกระบวนการแบบเกาส์เซียนยังคงทำงานอยู่?
ไม่ได้อยู่ในความรู้สึกมาตรฐานของการสร้างและการกลับเมทริกซ์ขนาดใหญ่ คุณมีสองตัวเลือก: 1) เลือกรูปแบบที่แตกต่างกันหรือ 2) ทำการประมาณ
1) โมเดลที่อิง GP บางตัวสามารถปรับให้เป็นชุดข้อมูลที่มีขนาดใหญ่มากเช่นเครื่องคณะกรรมการ Bayesian ที่เชื่อมโยงกับคำตอบข้างต้น ฉันพบว่าวิธีการนี้ค่อนข้างน่าพอใจ แต่มีเหตุผลที่ดีสำหรับการเลือกรุ่น GP และถ้าเราเปลี่ยนเป็นแบบจำลองที่คำนวณได้มากกว่าเราอาจไม่รักษาคุณสมบัติของแบบจำลองดั้งเดิม ตัวอย่างผลต่างการทำนายของ BCM ขึ้นอยู่กับการแบ่งข้อมูลเป็นอย่างมาก
2) วิธี 'คลาสสิค' ในการประมาณค่าใน GP คือประมาณเมทริกซ์เคอร์เนล มีการตรวจสอบที่ดีของแปลก ๆ เหล่านี้วิธีการที่นี่: http://www.jmlr.org/papers/volume6/quinonero-candela05a/quinonero-candela05a.pdf ในความเป็นจริงเรามักจะเห็นการประมาณเมทริกซ์เหล่านี้เป็นการประมาณแบบจำลองและจับมันเข้ากับเครื่องจักรของคณะกรรมการเบย์: มันเป็นการเปลี่ยนแปลงแบบจำลองและมันยากที่จะเข้าใจเมื่อการเปลี่ยนแปลงเหล่านั้นอาจเป็นพยาธิสภาพ นี่คือความเห็นสุดยอด: https://papers.nips.cc/paper/6477-understanding-probabilistic-sparse-gaussian-process-approximations.pdf
วิธีที่ฉันสนับสนุนในการประมาณค่าสำหรับ GP ขนาดใหญ่คือการหลีกเลี่ยงการประมาณเคอร์เนลเมทริกซ์หรือโมเดลและประมาณการกระจายด้านหลังโดยใช้การอนุมานเชิงตัวแปร การคำนวณจำนวนมากดูเหมือนเมทริกซ์ 'อันดับต่ำ' แต่มีคุณสมบัติหนึ่งที่พึงประสงค์มาก: ยิ่งคุณใช้การคำนวณมากเท่าไหร่อันดับที่ใกล้ที่สุดก็จะใกล้เคียงกับหลังจริงซึ่งวัดโดย KL การแตกต่าง
บทความเหล่านี้เป็นจุดเริ่มต้นที่ดี: http://proceedings.mlr.press/v5/titsias09a/titsias09a.pdf
https://arxiv.org/pdf/1309.6835
ฉันเขียนบทความที่ยาวกว่าบนอาร์กิวเมนต์เดียวกันที่นี่: https://www.prowler.io/blog/sparse-gps-approximate-the-posterior-not-the-model
ในทางปฏิบัติการประมาณความแปรปรวนทำงานได้ดีในหลายกรณี ฉันใช้มันอย่างกว้างขวางในแอปพลิเคชันจริง และเมื่อไม่นานมานี้มีทฤษฎีที่ยอดเยี่ยมในการสำรองข้อมูลว่าทำไมจึงควรทำงาน ( https://arxiv.org/abs/1903.03571 )
ปลั๊กอินขั้นสุดท้าย: การอนุมานความแปรปรวนใน GP ถูกนำมาใช้ใน gpflow ( https://github.com/GPflow/GPflow )