คำถามติดแท็ก manifold-learning

3
นานาคืออะไร?
ในเทคนิคการลดขนาดเช่นการวิเคราะห์องค์ประกอบหลัก LDA ฯลฯ มักใช้คำที่หลากหลาย นานาในระยะที่ไม่ใช่ด้านเทคนิคคืออะไร? หากจุดเป็นของทรงกลมที่มีมิติที่ฉันต้องการลดและหากมีจุดรบกวนและและไม่เกี่ยวข้องกันแล้วจุดที่แท้จริงจะถูกแยกออกจากกันเนื่องจากเสียงรบกวน ดังนั้นจึงจำเป็นต้องมีการกรองสัญญาณรบกวน ดังนั้นการลดมิติจะได้รับการดำเนินการเกี่ยวกับ y ที่ ดังนั้นและเป็นของแมนิโฟลด์ที่ต่างกันหรือไม่?y x z = x + y x yxxxyyyxxxyyyxxxz=x+yz=x+yz = x+yxxxyyy ฉันกำลังทำงานกับข้อมูลจุดเมฆที่มักใช้ในการมองเห็นหุ่นยนต์ เมฆจุดนั้นเสียงดังเนื่องจากเสียงรบกวนในการได้มาและฉันต้องลดเสียงก่อนที่จะลดขนาด มิฉะนั้นฉันจะได้รับการลดขนาดที่ไม่ถูกต้อง ดังนั้นนานาคืออะไรที่นี่และเสียงรบกวนเป็นส่วนหนึ่งของ manifold เดียวกันกับที่เป็นเจ้าของ?xxx

2
จะเข้าใจ“ ไม่เชิงเส้น” เช่นเดียวกับ“ การลดขนาดแบบไม่เชิงเส้น” ได้อย่างไร?
ฉันพยายามเข้าใจความแตกต่างระหว่างวิธีการลดขนาดเชิงเส้น (เช่น PCA) และวิธีไม่เชิงเส้น (เช่น Isomap) ฉันไม่สามารถเข้าใจสิ่งที่เป็นเส้นตรง (ไม่ใช่) ความหมายในบริบทนี้ ฉันอ่านจากWikipediaว่า จากการเปรียบเทียบหาก PCA (อัลกอริทึมการลดขนาดเชิงเส้น) ใช้เพื่อลดชุดข้อมูลเดียวกันนี้เป็นสองมิติค่าผลลัพธ์จะไม่ได้รับการจัดระเบียบอย่างดี นี่แสดงให้เห็นว่าเวกเตอร์มิติสูง (แต่ละอันแสดงถึงตัวอักษร 'A') ที่ตัวอย่างหลากหลายนี้มีความหลากหลายในลักษณะที่ไม่เป็นเชิงเส้น อะไรนะ เวกเตอร์มิติสูง (แต่ละอันแทนตัวอักษร 'A') ที่ตัวอย่างนี้มีความหลากหลายในลักษณะที่ไม่เป็นเชิงเส้น หมายความว่าอย่างไร หรือกว้างกว่าฉันจะเข้าใจความเป็นเส้นตรง (ไม่) ในบริบทนี้ได้อย่างไร

2
สมมติฐานที่หลากหลายในการเรียนรู้แบบกึ่งดูแลคืออะไร
ฉันพยายามที่จะเข้าใจว่าสมมติฐานที่หลากหลายมีความหมายอย่างไรในการเรียนรู้แบบกึ่งมีผู้สอน ทุกคนสามารถอธิบายด้วยวิธีง่าย ๆ ได้ไหม? ฉันไม่สามารถรับสัญชาตญาณที่อยู่เบื้องหลังได้ มันบอกว่าข้อมูลของคุณวางอยู่บนท่อร่วมมิติขนาดเล็กที่ฝังอยู่ในพื้นที่มิติที่สูงขึ้น ฉันไม่ได้รับสิ่งที่หมายถึง

1
จะเลือกเคอร์เนลสำหรับ kernel PCA ได้อย่างไร?
อะไรคือวิธีเลือกเคอร์เนลที่จะส่งผลให้มีการแยกข้อมูลที่ดีในเอาต์พุตข้อมูลขั้นสุดท้ายโดย kernel PCA (การวิเคราะห์องค์ประกอบหลัก) และวิธีใดที่จะปรับพารามิเตอร์ของเคอร์เนลให้เหมาะสม? เงื่อนไขของคนธรรมดาถ้าเป็นไปได้จะได้รับการชื่นชมอย่างมากและการเชื่อมโยงไปยังเอกสารที่อธิบายวิธีการดังกล่าวก็จะดี

2
สัญชาตญาณกราฟิกของสถิติในนานา
ในโพสต์นี้คุณสามารถอ่านคำสั่ง: แบบจำลองมักจะถูกแทนที่ด้วยจุดบนมิติที่ จำกัดθθ\theta ในเรขาคณิตเชิงอนุพันธ์และสถิติโดย Michael K Murray และ John W Riceแนวคิดเหล่านี้อธิบายได้ในร้อยแก้วที่อ่านได้แม้จะไม่สนใจนิพจน์ทางคณิตศาสตร์ น่าเสียดายที่มีภาพประกอบไม่มาก กันไปสำหรับโพสต์นี้ใน MathOverflow ฉันต้องการขอความช่วยเหลือด้วยการนำเสนอด้วยภาพเพื่อใช้เป็นแผนที่หรือแรงจูงใจในการทำความเข้าใจหัวข้อที่เป็นทางการมากขึ้น อะไรคือจุดที่หลากหลาย อ้างจากการค้นหาออนไลน์นี้ดูเหมือนจะบ่งบอกว่ามันอาจเป็นจุดข้อมูลหรือพารามิเตอร์การกระจาย: สถิติเกี่ยวกับแมนิโฟลด์และเรขาคณิตข้อมูลเป็นสองวิธีที่แตกต่างกันซึ่งเรขาคณิตเชิงอนุพันธ์ตรงกับสถิติ ในขณะที่ในสถิติเกี่ยวกับแมนิโฟลด์มันเป็นข้อมูลที่วางอยู่บนท่อร่วมในเรขาคณิตข้อมูลข้อมูลอยู่ในแต่พารามิเตอร์ของฟังก์ชันความหนาแน่นของความน่าจะเป็นแบบพารามิเตอร์ที่น่าสนใจจะได้รับการปฏิบัติเหมือนนานา manifolds ดังกล่าวเรียกว่า manifolds ทางสถิติRnRnR^n ฉันวาดไดอะแกรมนี้โดยได้แรงบันดาลใจจากคำอธิบายของพื้นที่แทนเจนต์ที่นี่ : [ แก้ไขเพื่อแสดงความคิดเห็นด้านล่างเกี่ยวกับ :C∞C∞C^\infty ] บนนานาพื้นที่แทนเจนต์คือเซตของอนุพันธ์ที่เป็นไปได้ทั้งหมด ("ความเร็ว") ที่จุดเกี่ยวข้องกับ ทุกโค้งที่เป็นไปได้บนท่อร่วมไอวิ่งผ่าน นี่จะเห็นได้ว่าเป็นชุดของแผนที่จากทุกโค้งผ่านคือกำหนดเป็นองค์ประกอบ , ด้วยแสดงถึงเส้นโค้ง (ฟังก์ชั่นจากเส้นจริงถึงพื้นผิวของท่อร่วมพี∈ M (ψ: R → M )P P, C ∞ (T)→ R , ( …

1
อะไรคือความแตกต่างระหว่างการเรียนรู้ที่หลากหลายและการลดมิติที่ไม่ใช่เชิงเส้น?
อะไรคือความแตกต่างระหว่างการเรียนรู้ที่หลากหลายและการลดมิติที่ไม่ใช่เชิงเส้น ? ฉันได้เห็นคำสองคำนี้ถูกใช้แทนกันได้ ตัวอย่างเช่น: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : การเรียนรู้ Manifold (มักเรียกว่าการลดมิติที่ไม่เป็นเชิงเส้น) แสวงหาเป้าหมายเพื่อฝังข้อมูลที่เดิมอยู่ในพื้นที่มิติสูงในพื้นที่มิติต่ำกว่าในขณะที่รักษาคุณสมบัติของลักษณะ http://www.stat.washington.edu/courses/stat539/spring14/Resources/tutorial_nonlin-dim-red.pdf : ในบทช่วยสอนนี้ 'การเรียนรู้ที่หลากหลาย' และ 'การลดมิติ' ที่ใช้แทนกันได้ https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3337666/ : วิธีการลดขนาดเป็นคลาสของอัลกอริทึมที่ใช้ทางคณิตศาสตร์ที่กำหนดไว้สำหรับการสุ่มตัวอย่างทางสถิติของคลาสหลายมิติเพื่อสร้างกฎการเลือกปฏิบัติที่รับประกันความถูกต้องทางสถิติ อย่างไรก็ตามhttp://scikit-learn.org/stable/modules/manifold.htmlมีความเหมาะสมยิ่งขึ้น: การเรียนรู้ที่หลากหลายเป็นวิธีการลดมิติที่ไม่เป็นเชิงเส้น หนึ่งความแตกต่างครั้งแรกที่ฉันสามารถดูว่าท่อสามารถเป็นเชิงเส้นหนึ่งจึงควรเปรียบเทียบที่ไม่ใช่เชิงเส้นการเรียนรู้ต่าง ๆ นานาและการลดมิติที่ไม่ใช่เชิงเส้น

2
จะพิสูจน์ได้อย่างไรว่าข้อสมมติฐานที่หลากหลายนั้นถูกต้อง?
ในการเรียนรู้ของเครื่องมันมักจะสันนิษฐานว่าชุดข้อมูลอยู่บนท่อร่วมที่มีมิติต่ำเรียบ (สมมติฐานของท่อร่วม) แต่มีวิธีใดที่จะพิสูจน์ว่าสมมติว่าเงื่อนไขเป็นที่พอใจแล้วชุดข้อมูลจะถูกสร้างขึ้นโดยประมาณ จากท่อเรียบแบบมิติต่ำ? ตัวอย่างเช่นกำหนดลำดับข้อมูล {X1...Xn}{X1…Xn}\{\mathbf{X}_1 \ldots \mathbf{X}_n\} ที่ไหน Xi∈RdXi∈Rd\mathbf X_i \in \mathbb{R}^d (พูดลำดับของภาพใบหน้าที่มีมุมต่างกัน) และลำดับฉลากที่เกี่ยวข้อง {y1…yn}{y1…yn}\{ y_1 \ldots y_n\} ที่ไหน y1⪯y2…⪯yny1⪯y2…⪯yny_1 \preceq y_2 \ldots \preceq y_n (พูดมุมของลำดับใบหน้า) สมมติว่าเมื่อXiXiX_i และ Xi+1Xi+1X_{i+1} อยู่ใกล้มากป้ายกำกับของพวกเขา yiyiy_i และ yi+1yi+1y_{i+1} อยู่ใกล้มากเราสามารถจินตนาการได้ว่ามันเป็นไปได้ว่า {X1…Xn}{X1…Xn}\{\mathbf{X}_1 \ldots \mathbf{X}_n\}นอนบนหลากหลายมิติ มันเป็นเรื่องจริงเหรอ? ถ้าเป็นเช่นนั้นเราจะพิสูจน์มันได้อย่างไร? หรือเงื่อนไขใดที่จำเป็นต้องมีการจัดลำดับเพื่อให้สมมติฐานที่หลากหลายสามารถพิสูจน์ได้ว่าเป็นจริง
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.