การลดขนาดที่ปรับขนาดได้


9

พิจารณาจำนวนของคุณสมบัติคงที่บาร์นส์ฮัทเสื้อ SNEมีความซับซ้อนของ , ประมาณการสุ่มและ PCA มีความซับซ้อนของทำให้พวกเขา "แพง" สำหรับชุดข้อมูลขนาดใหญ่มากO(nเข้าสู่ระบบn)O(n)

ในทางกลับกันวิธีการที่ใช้การวัดหลายมิติมีความซับซ้อนO(n2)

มีเทคนิคการลดขนาดอื่น ๆ (นอกเหนือจากสิ่งเล็กน้อยเช่นการดูคอลัมน์แรก) ซึ่งมีความซับซ้อนต่ำกว่าหรือไม่kO(nเข้าสู่ระบบn)

คำตอบ:


5

ตัวเลือกที่น่าสนใจคือการสำรวจการลดขนาดของระบบประสาท เครือข่ายที่ใช้กันมากที่สุดสำหรับการลดขนาดระบบช่วยให้การทำงานอัตโนมัติสามารถฝึกอบรมได้ที่โดยที่แทนการฝึกซ้ำ (เป็นพารามิเตอร์ที่เป็นอิสระจากข้อมูลการฝึกอบรม) . ดังนั้นความซับซ้อนของการฝึกอบรมทำให้ง่ายขึ้นO(ผมn)ผมO(n)

คุณสามารถเริ่มต้นด้วยการดูงานสัมมนาปี 2549 โดย Hinton และ Salakhutdinov [1] ตั้งแต่นั้นมามีการพัฒนาสิ่งต่าง ๆ มากมาย ตอนนี้ส่วนใหญ่ของ attention บรรลุโดย Variational Autoencoders [2] แต่ความคิดพื้นฐาน (เครือข่ายที่สร้างอินพุตที่เลเยอร์เอาท์พุทที่มีเลเยอร์คอขวดในระหว่าง) ยังคงเหมือนเดิม โปรดทราบว่าเมื่อเทียบกับ PCA และ RP ระบบเข้ารหัสอัตโนมัติจะทำการลดขนาดแบบไม่เชิงเส้น นอกจากนี้เมื่อเทียบกับ t-SNE autoencoders สามารถเปลี่ยนตัวอย่างที่มองไม่เห็นโดยไม่จำเป็นต้องฝึกซ้ำทั้งโมเดล

ในทางปฏิบัติฉันขอแนะนำให้ดูที่โพสต์นี้ซึ่งให้รายละเอียดเกี่ยวกับวิธีการใช้งานระบบเข้ารหัสอัตโนมัติแบบต่างๆกับห้องสมุด Keras ที่มหัศจรรย์

[1] Hinton, GE, & Salakhutdinov, RR (2006) การลดมิติข้อมูลด้วยเครือข่ายประสาท วิทยาศาสตร์, 313 (5786), 504-507

[2] Kingma, DP, & Welling, M. (2013) ช่องแปรปรวนการเข้ารหัสอัตโนมัติ พิมพ์ arXiv arXiv: 1312.6114


1
ในทางเทคนิคคุณไม่จำเป็นต้องสั่งสอนแบบจำลองใหม่สำหรับตัวอย่างใหม่ด้วย t-SNE โดยใช้วิธีการนี้: lvdmaaten.github.io/publications/papers/AISTATS_2009.pdf
bibliolytic

แน่ใจ ผู้เขียนยังแนะนำการฝึกอบรมผู้ถดถอยหลายตัวแปรในการทำนายตัวอย่างตำแหน่งข้อมูลแผนที่ในรูปแบบแผนที่เป็นวิธีการที่มีศักยภาพ ในบทความที่คุณพูดถึงผู้เขียนฝึกเครือข่ายประสาทเทียมเพื่อลดการสูญเสีย t-SNE โดยตรง อย่างไรก็ตามในทั้งสองกรณีคุณต้องกำหนดรูปแบบหรือฟังก์ชั่นที่ชัดเจนเพื่อจับคู่จุดข้อมูลเพื่อให้มีพื้นที่ว่างดังนั้นจึงต้องมีประสิทธิภาพเพียงพอ (เลเยอร์ / เซลล์ประสาทเพียงพอ) เพื่อเรียนรู้การฝัง แต่ไม่มากเกินไป ... มันเป็นการเสียสละบางส่วนของความสามารถในการใช้งานมาตรฐาน t-SNE
Daniel López

ฉันไม่คิดว่ามันเป็นความผิดพลาดเล็กน้อยในการเปรียบเทียบ autoencoders และ t-SNE เหมือนกับที่คุณทำในคำตอบของคุณเนื่องจาก t-SNE สามารถใช้เป็นการสูญเสียเพื่อลดมิติได้
bibliolytic

แม้ว่าตอนนี้ฉันจะอ่านอีกครั้งคำถาม: เราสามารถพูดได้ว่าเครือข่ายประสาทเทียมเป็น O(n)เห็นว่าพวกเขาไม่ได้รับประกันว่าจะมาบรรจบกันจริง ๆ ? สัญกรณ์ Big-O เป็นขอบเขตที่เลวร้ายที่สุดใช่ไหม?
บรรณานุกรม

ฉันไม่ต้องการที่จะรวมไว้ในคำตอบตั้งแต่คำนวณการสูญเสีย t-SNE เมื่อการฝึกอบรมเครือข่ายใช้ O(ม.2) เวลาไหน ม.คือขนาดมินิแบทช์
Daniel López

0

นอกจากตัวเข้ารหัสอัตโนมัติที่กล่าวถึงแล้วเราสามารถลองใช้บทแทรกของ Johnson-Lindenstrauss 'lemmaด้วยการฉายแบบสุ่มหรือวิธีการย่อยแบบสุ่ม ประมาณการสุ่มคือO(kdยังไม่มีข้อความ)กับ ยังไม่มีข้อความ จำนวนตัวอย่างของมิติข้อมูล d และ k ส่วนข้อมูลเป้าหมาย cf [1]

googling เล็กน้อยคุณจะได้รับผลลัพธ์ล่าสุดโดยเฉพาะชุดข้อมูลที่กระจัดกระจาย

[1] การฉายสุ่มในการลดมิติ: การประยุกต์ใช้เพื่อภาพและข้อความข้อมูล

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.