คำถามติดแท็ก machine-learning

วิธีการและหลักการในการสร้าง "ระบบคอมพิวเตอร์ที่ปรับปรุงโดยอัตโนมัติด้วยประสบการณ์"

1
การนำ t-SNE Python มาใช้: Kullback-Leibler divergence
t-SNE ดังที่ [1] ทำงานโดยลดการเบี่ยงเบน Kullback-Leibler (KL) อย่างต่อเนื่องจนกว่าจะบรรลุเงื่อนไขบางประการ ผู้สร้าง t-SNE แนะนำให้ใช้ KL divergence เป็นเกณฑ์ประสิทธิภาพสำหรับการสร้างภาพข้อมูล: คุณสามารถเปรียบเทียบความแตกต่าง Kullback-Leibler ที่รายงาน T-SNE เป็นการดีที่จะเรียกใช้ t-SNE สิบครั้งและเลือกโซลูชันที่มีค่าเบี่ยงเบน KL ต่ำสุด [2] ฉันลองใช้งานสองแบบของ t-SNE: หลาม : sklearn.manifold.TSNE () R : tsne จากไลบรารี่ (tsne) การประยุกต์ใช้ทั้งสองนี้เมื่อตั้งค่าการใช้คำฟุ่มเฟือยพิมพ์ข้อผิดพลาด (Kullback-Leibler divergence) สำหรับการวนซ้ำแต่ละครั้ง อย่างไรก็ตามพวกเขาไม่อนุญาตให้ผู้ใช้รับข้อมูลนี้ซึ่งดูแปลกสำหรับฉัน ตัวอย่างเช่นรหัส: import numpy as np from sklearn.manifold import TSNE X = …

5
เมื่อใดที่จะลบตัวแปรที่เกี่ยวข้อง
ใครก็ได้ช่วยแนะนำขั้นตอนที่ถูกต้องในการลบตัวแปรที่มีความสัมพันธ์กันก่อนวิศวกรรมฟีเจอร์หรือหลังจากคุณสมบัติวิศวกรรม

3
LSTM, BiLSTM คืออะไรและใช้เมื่อใด?
ฉันยังใหม่ต่อการเรียนรู้เชิงลึกและฉันสนใจที่จะรู้ว่า LSTM และ BiLSTM คืออะไรและควรใช้เมื่อใด (พื้นที่ใช้งานหลัก) เหตุใด LSTM และ BILSTM จึงได้รับความนิยมมากกว่า RNN เราสามารถใช้สถาปัตยกรรมการเรียนรู้ลึกเหล่านี้ในปัญหาที่ไม่มีผู้ดูแลได้หรือไม่?

4
การเรียนรู้ของเครื่องเทียบกับการเรียนรู้ลึก
ฉันสับสนเล็กน้อยจากความแตกต่างระหว่างคำว่า "การเรียนรู้ของเครื่องจักร" และ "การเรียนรู้ลึก" ฉันได้ Googled แล้วอ่านบทความมากมาย แต่ก็ยังไม่ชัดเจนสำหรับฉัน คำจำกัดความที่รู้จักกันดีของ Machine Learning โดย Tom Mitchell คือ: โปรแกรมคอมพิวเตอร์ที่มีการกล่าวถึงเรียนรู้จากประสบการณ์Eด้วยความเคารพในชั้นเรียนของงานบางอย่างTและวัดประสิทธิภาพPถ้าผลการดำเนินงานของ บริษัท ที่งานในTเป็นวัดโดยPช่วยเพิ่มการมีประสบการณ์E ถ้าฉันใช้ปัญหาการจำแนกภาพของการจำแนกสุนัขและแมวเป็น taks Tของฉันจากคำจำกัดความนี้ฉันเข้าใจว่าถ้าฉันจะให้อัลกอริทึม ML เป็นรูปของสุนัขและแมว (ประสบการณ์E ) อัลกอริทึม ML สามารถเรียนรู้วิธี แยกความแตกต่างของภาพลักษณ์ใหม่ว่าเป็นสุนัขหรือแมว (โดยมีการวัดประสิทธิภาพPไว้ชัดเจน) จากนั้นเรียนรู้อย่างลึกซึ้ง ฉันเข้าใจว่าการเรียนรู้เชิงลึกเป็นส่วนหนึ่งของการเรียนรู้ของเครื่องและคำจำกัดความข้างต้นมีไว้ ผลการปฏิบัติงานที่งานTช่วยเพิ่มการมีประสบการณ์E ไม่เป็นไรจนถึงตอนนี้ บล็อกนี้ระบุว่ามีความแตกต่างระหว่างการเรียนรู้ของเครื่องและการเรียนรู้ลึก ความแตกต่างตาม Adil คือในการเรียนรู้ด้วยเครื่อง (ดั้งเดิม) คุณสมบัติจะต้องมีการสร้างขึ้นด้วยมือ ตัวเลขต่อไปนี้ชี้แจงแถลงการณ์ของเขา ฉันสับสนกับความจริงที่ว่าในการเรียนรู้ของเครื่อง (ดั้งเดิม) คุณสมบัติจะต้องถูกสร้างขึ้นด้วยมือ จากความหมายข้างต้นโดยทอมมิทเชลล์ฉันคิดว่าคุณสมบัติเหล่านี้จะได้รับการเรียนรู้จากประสบการณ์EและประสิทธิภาพP จะเรียนรู้อะไรได้บ้างในการเรียนรู้ของเครื่อง? ในการเรียนรู้เชิงลึกฉันเข้าใจว่าจากประสบการณ์ที่คุณเรียนรู้คุณสมบัติและวิธีการที่พวกเขาเกี่ยวข้องกันเพื่อปรับปรุงประสิทธิภาพ ฉันสามารถสรุปได้ว่าในคุณสมบัติการเรียนรู้ของเครื่องต้องมีการสร้างขึ้นด้วยมือและสิ่งที่เรียนรู้คือการรวมกันของคุณสมบัติ? หรือฉันหายไปอย่างอื่น?

4
Overfitting / Underfitting ด้วยขนาดชุดข้อมูล
ในกราฟด้านล่าง แกน x => ขนาดชุดข้อมูล แกน y => คะแนนการตรวจสอบไขว้ เส้นสีแดงใช้สำหรับข้อมูลการฝึกอบรม สายสีเขียวสำหรับการทดสอบข้อมูล ในบทช่วยสอนที่ฉันอ้างถึงผู้เขียนบอกว่าจุดที่เส้นสีแดงและเส้นสีเขียวทับกันหมายถึง การรวบรวมข้อมูลมากขึ้นนั้นไม่น่าจะเพิ่มประสิทธิภาพการวางนัยทั่วไปและเราอยู่ในภูมิภาคที่เรามีแนวโน้มที่จะทำให้ข้อมูลไม่เหมาะสม ดังนั้นจึงเหมาะสมที่จะลองใช้โมเดลที่มีความจุมากขึ้น ฉันไม่สามารถเข้าใจความหมายของวลีที่ชัดเจนและมันเกิดขึ้นได้อย่างไร ขอบคุณสำหรับความช่วยเหลือใด ๆ

1
จะเกิดอะไรขึ้นเมื่อเราฝึกอบรม SVM เชิงเส้นในข้อมูลที่แยกได้แบบไม่เชิงเส้น
จะเกิดอะไรขึ้นเมื่อเราฝึกอบรมเครื่องเวกเตอร์สนับสนุนขั้นพื้นฐาน (เคอร์เนลเชิงเส้นและไม่มีขอบนุ่ม) กับข้อมูลที่แยกไม่ได้เชิงเส้น ปัญหาการปรับให้เหมาะสมไม่สามารถทำได้ดังนั้นอัลกอริธึมการย่อขนาดจะส่งกลับอย่างไร

1
ผลของการไม่เปลี่ยนน้ำหนักตัวกรองของ CNN ในระหว่างการเปลี่ยนถ่าย
ผลของการไม่เปลี่ยนน้ำหนักตัวกรองของซีเอ็นเอ็นระหว่างการแพร่กระจายภาพย้อนหลังคืออะไร? ฉันเปลี่ยนน้ำหนักของชั้นที่เชื่อมต่ออย่างเต็มที่ในขณะที่ฝึกฝนชุดข้อมูล MNIST และยังคงได้รับความแม่นยำเกือบ 99 เปอร์เซ็นต์

3
ภาษาที่ดีที่สุดสำหรับการคำนวณทางวิทยาศาสตร์ [ปิด]
ปิด คำถามนี้จะต้องมีมากขึ้นมุ่งเน้น ไม่ยอมรับคำตอบในขณะนี้ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้มุ่งเน้นที่ปัญหาเดียวโดยแก้ไขโพสต์นี้ ปิดให้บริการใน5 ปีที่ผ่านมา ดูเหมือนว่าภาษาส่วนใหญ่จะมีห้องสมุดคำนวณทางวิทยาศาสตร์จำนวนหนึ่ง Python มี Scipy Rust มี SciRust C++มีหลายอย่างรวมถึงViennaCLและArmadillo JavaมีJava NumericsและColtเช่นเดียวกับหลาย ๆ ไม่ต้องพูดถึงภาษาที่ชอบRและJuliaออกแบบมาอย่างชัดเจนสำหรับการคำนวณทางวิทยาศาสตร์ ด้วยตัวเลือกมากมายคุณจะเลือกภาษาที่ดีที่สุดสำหรับงานอย่างไร นอกจากนี้ภาษาใดที่จะเป็นคนที่มีประสิทธิภาพมากที่สุด? PythonและRดูเหมือนว่าจะมีแรงฉุดที่สุดในอวกาศ แต่ภาษาที่รวบรวมได้ดูเหมือนจะเป็นทางเลือกที่ดีกว่า และจะมีอะไรดีกว่านี้Fortranไหม ภาษาที่คอมไพล์ด้วยนอกจากนี้มักจะมีการเร่งความเร็วของ GPU ในขณะที่ตีความภาษาเช่นRและPythonไม่ ฉันควรคำนึงถึงอะไรเมื่อเลือกภาษาและภาษาใดให้ความสมดุลของยูทิลิตี้และประสิทธิภาพที่ดีที่สุด มีภาษาใดบ้างที่มีทรัพยากรการคำนวณทางวิทยาศาสตร์ที่สำคัญที่ฉันพลาดไป
10 efficiency  statistics  tools  knowledge-base  machine-learning  neural-network  deep-learning  optimization  hyperparameter  machine-learning  time-series  categorical-data  logistic-regression  python  visualization  bigdata  efficiency  classification  binary  svm  random-forest  logistic-regression  data-mining  sql  experiments  bigdata  efficiency  performance  scalability  distributed  bigdata  nlp  statistics  education  knowledge-base  definitions  machine-learning  recommender-system  evaluation  efficiency  algorithms  parameter  efficiency  scalability  sql  statistics  visualization  knowledge-base  education  machine-learning  r  python  r  text-mining  sentiment-analysis  machine-learning  machine-learning  python  neural-network  statistics  reference-request  machine-learning  data-mining  python  classification  data-mining  bigdata  usecase  apache-hadoop  map-reduce  aws  education  feature-selection  machine-learning  machine-learning  sports  data-formats  hierarchical-data-format  bigdata  apache-hadoop  bigdata  apache-hadoop  python  visualization  knowledge-base  classification  confusion-matrix  accuracy  bigdata  apache-hadoop  bigdata  efficiency  apache-hadoop  distributed  machine-translation  nlp  metadata  data-cleaning  text-mining  python  pandas  machine-learning  python  pandas  scikit-learn  bigdata  machine-learning  databases  clustering  data-mining  recommender-system 

3
หยุดก่อนที่จะสูญเสียการตรวจสอบหรือความถูกต้อง?
ขณะนี้ฉันกำลังฝึกอบรมเครือข่ายประสาทและฉันไม่สามารถตัดสินใจได้ว่าจะใช้เพื่อใช้เกณฑ์การหยุดก่อนกำหนดของฉัน: การสูญเสียการตรวจสอบความถูกต้องหรือตัวชี้วัดเช่นความแม่นยำ / f1score / auc / สิ่งที่คำนวณในชุดการตรวจสอบ ในการวิจัยของฉันฉันได้พบกับบทความที่ป้องกันจุดยืนทั้งสอง Keras ดูเหมือนว่าจะเป็นค่าเริ่มต้นสำหรับการสูญเสียการตรวจสอบความถูกต้อง แต่ฉันก็ได้พบคำตอบที่น่าเชื่อถือสำหรับแนวทางตรงกันข้าม (เช่นที่นี่ ) ใครบ้างมีคำแนะนำว่าควรใช้การสูญเสียการตรวจสอบความถูกต้องเมื่อใดและควรใช้การวัดแบบใด

3
ฉันจะจำแนกข้อมูลที่ไม่มีหมวดหมู่ได้อย่างไร?
ฉันมีปัญหาการจัดหมวดหมู่ด้วยข้อมูลทั้งหมวดหมู่และตัวเลข ปัญหาที่ฉันเผชิญคือข้อมูลที่เป็นหมวดหมู่ของฉันไม่ได้รับการแก้ไขนั่นหมายความว่าผู้สมัครใหม่ที่มีป้ายกำกับที่ฉันต้องการคาดการณ์อาจมีหมวดหมู่ใหม่ที่ไม่ได้สังเกตเห็นล่วงหน้า ตัวอย่างเช่นถ้าข้อมูลที่แน่ชัดของฉันเป็นsexเพียงป้ายชื่อที่เป็นไปได้female, maleและotherไม่ว่าสิ่งที่ อย่างไรก็ตามตัวแปรตามหมวดหมู่ของฉันคือcityมันอาจเกิดขึ้นได้ว่าคนที่ฉันพยายามจะทำนายมีเมืองใหม่ที่ตัวจำแนกของฉันไม่เคยเห็น ฉันสงสัยว่ามีวิธีการจัดหมวดหมู่ในข้อกำหนดเหล่านี้หรือถ้าฉันควรทำการฝึกอบรมอีกครั้งโดยพิจารณาข้อมูลหมวดหมู่ใหม่นี้

1
"อัลกอริทึมการเรียนรู้การเสริมแรงแบบใหม่" ใน AlphaGo Zero คืออะไร?
ด้วยเหตุผลบางอย่าง AlphaGo Zero ไม่ได้รับการเผยแพร่มากเท่ากับ AlphaGo ดั้งเดิมแม้ว่าจะได้ผลลัพธ์ที่น่าเหลือเชื่อ เริ่มต้นจากศูนย์แล้วมันก็เอาชนะ AlphaGo Master ได้และผ่านเกณฑ์มาตรฐานอื่น ๆ อีกมากมาย ยิ่งไปกว่านั้นมันทำอย่างนี้ใน 40 วัน ชื่อของ Google เป็น"เนื้อหาที่ผู้เล่นไปที่ดีที่สุดในโลก" DeepMind อ้างว่านี่เป็น "รูปแบบใหม่ของการเรียนรู้การเสริมแรง" - นี่เป็นเทคนิคที่แปลกใหม่จริงหรือ หรือมีเวลาอื่นเมื่อใช้เทคนิคนี้ - และถ้าเป็นเช่นนั้นผลลัพธ์ของพวกเขาคืออะไร ฉันคิดว่าข้อกำหนดที่ฉันพูดถึงคือ 1) ไม่มีการแทรกแซงของมนุษย์และ 2) ไม่มีการเล่นเชิงประวัติศาสตร์ แต่สิ่งเหล่านี้มีความยืดหยุ่น สิ่งนี้ดูเหมือนจะเป็นคำถามที่คล้ายกัน แต่คำตอบทั้งหมดดูเหมือนจะเริ่มจากสมมติฐานที่ว่า AlphaGo Zero เป็นคำถามแรก

2
ทำไมการฝึกอบรมใช้เวลานานมากกับ GPU ของฉัน
รายละเอียด: GPU : GTX 1080 การฝึกอบรม : ~ 1.1 ล้านภาพเป็นของ 10 คลาส การตรวจสอบความถูกต้อง : ~ 150 ภาพที่เป็นของ 10 คลาส เวลาต่อยุค : ~ 10 ชั่วโมง ฉันตั้งค่า CUDA, cuDNN และ Tensorflow (Tensorflow GPU ด้วย) ฉันไม่คิดว่าแบบจำลองของฉันมีความซับซ้อนซึ่งใช้เวลา 10 ชั่วโมงต่อยุค ฉันยังตรวจสอบว่า GPU ของฉันเป็นปัญหาหรือไม่ เป็นเวลาการฝึกอบรมเนื่องจากเลเยอร์ที่เชื่อมต่อเต็มที่หรือไม่ โมเดลของฉัน: model = Sequential() model.add() model.add(Conv2D(64, (3, 3), padding="same", strides=2)) model.add(Activation('relu')) …

2
พยายามใช้ TensorFlow เพื่อทำนายข้อมูลอนุกรมเวลาทางการเงิน
ฉันใหม่สำหรับ ML และ TensorFlow (ฉันเริ่มประมาณสองสามชั่วโมงที่ผ่านมา) และฉันพยายามใช้เพื่อทำนายจุดข้อมูลสองสามอันถัดไปในอนุกรมเวลา ฉันรับข้อมูลของฉันและทำสิ่งนี้กับมัน: /----------- x ------------\ .-------------------------------. | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | '-------------------------------' \----------- y ------------/ สิ่งที่ฉันคิดว่าฉันกำลังทำคือการใช้xเป็นข้อมูลอินพุตและyเป็นผลลัพธ์ที่ต้องการสำหรับอินพุตนั้นเพื่อให้ 0-6 ฉันจะได้รับ 1-7 (โดยเฉพาะ 7) แต่เมื่อผมทำงานกราฟของฉันกับxเป็น input ในสิ่งที่ฉันได้รับคือการทำนายที่มีลักษณะเหมือนxกว่าปี นี่คือรหัส (ตามโพสต์นี้และโพสต์นี้ ): import tensorflow as tf import numpy …

3
โมเดล Recurrent (CNN) บนข้อมูล EEG
ฉันสงสัยว่าจะตีความสถาปัตยกรรมที่เกิดขึ้นซ้ำในบริบท EEG ได้อย่างไร โดยเฉพาะฉันคิดว่านี่เป็น CNN กำเริบ (ตรงข้ามกับสถาปัตยกรรมเช่น LSTM) แต่บางทีมันอาจใช้กับเครือข่ายกำเริบประเภทอื่นเช่นกัน เมื่อฉันอ่านเกี่ยวกับ R-CNNs พวกเขามักจะอธิบายในบริบทการจำแนกภาพ พวกเขามักจะอธิบายว่า "การเรียนรู้เมื่อเวลาผ่านไป" หรือ "รวมถึงผลกระทบของเวลา -1 ในอินพุตปัจจุบัน" การตีความ / คำอธิบายนี้ทำให้เกิดความสับสนเมื่อทำงานกับข้อมูล EEG ตัวอย่างของ R-CNN ที่ใช้กับข้อมูล EEG สามารถดูได้ที่นี่ ลองนึกภาพฉันมีตัวอย่างการฝึกอบรมแต่ละชุดประกอบด้วยอาร์เรย์ 1x512 อาร์เรย์นี้จับการอ่านค่าแรงดันไฟฟ้าสำหรับอิเล็กโทรด 1 ตัวที่จุดเวลาต่อเนื่องกัน 512 จุด ถ้าฉันใช้สิ่งนี้เป็นอินพุตไปยัง CNN ที่เกิดขึ้นอีก (โดยใช้การโน้มน้าวใจ 1D) ส่วนที่เกิดขึ้นอีกของโมเดลไม่ได้จับ "เวลา" จริงไหม (ตามที่ระบุไว้โดยนัยโดยคำอธิบาย / คำอธิบายที่กล่าวถึงก่อนหน้านี้) เพราะในบริบทนี้เวลาจะถูกจับโดยมิติที่สองของอาร์เรย์ ดังนั้นเมื่อมีการตั้งค่าเช่นนี้ส่วนที่เกิดขึ้นอีกของเครือข่ายจะอนุญาตให้เราสร้างแบบจำลองที่ซีเอ็นเอ็นปกติไม่สามารถทำได้ (ถ้าไม่ใช่เวลา) สำหรับฉันแล้วดูเหมือนว่าการกำเริบหมายถึงการทำข้อตกลงการเพิ่มผลลัพธ์ลงในอินพุตต้นฉบับและการโน้มน้าวอีกครั้ง สิ่งนี้ได้รับการทำซ้ำสำหรับ …

2
วิธีตรวจสอบเซลล์ประสาท relu ที่ตายแล้ว
ข้อมูลประกอบ: ในขณะที่โครงข่ายประสาทเทียมที่เหมาะสมพร้อมการเปิดใช้งาน relu ฉันพบว่าบางครั้งคำทำนายนั้นใกล้เคียงกับค่าคงที่ ฉันเชื่อว่านี่เป็นเพราะเซลล์ประสาท relu ตายในระหว่างการฝึกอบรมตามที่ระบุไว้ที่นี่ ( ปัญหา "ตาย ReLU" ในเครือข่ายประสาทคืออะไร ) คำถาม: สิ่งที่ฉันหวังว่าจะทำคือการใช้การตรวจสอบในรหัสเพื่อตรวจสอบว่าเซลล์ประสาทเสียชีวิตหรือไม่ หลังจากนั้นรหัสสามารถปรับโฉมเครือข่ายได้หากจำเป็น ดังนั้นเกณฑ์ที่ดีในการตรวจสอบเซลล์ประสาทที่ตายแล้วคืออะไร ขณะนี้ฉันกำลังคิดที่จะตรวจสอบความแปรปรวนต่ำในการทำนายว่าเป็นเกณฑ์ ถ้ามันช่วยได้ฉันใช้ keras

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.