คำถามติดแท็ก neural-networks

โครงข่ายประสาทเทียม (ANNs) เป็นรูปแบบการคำนวณในวงกว้างโดยยึดตามเครือข่ายประสาทชีววิทยาอย่างเข้มงวด พวกเขารวม NNs ของ feedforward (รวมถึง NN ที่ "ลึก"), NNs convolutional, NNs ที่เกิดซ้ำเป็นต้น

2
มีเหตุผลทางคณิตศาสตร์สำหรับการโน้มน้าวใจในเครือข่ายประสาทเกินความได้เปรียบ?
ในโครงข่ายประสาทเทียม (CNN) เมทริกซ์ของตุ้มน้ำหนักในแต่ละขั้นตอนจะทำให้แถวและคอลัมน์พลิกเพื่อรับเมทริกซ์เคอร์เนลก่อนที่จะดำเนินการต่อไป นี่คือคำอธิบายในชุดวิดีโอของ Hugo Larochelle ที่นี่ : คอมพิวเตอร์แผนที่ที่ซ่อนอยู่จะสอดคล้องกับการทำบิดต่อเนื่องกับช่องจากชั้นก่อนหน้านี้โดยใช้เมทริกซ์เคอร์เนล [ ... ] และเคอร์เนลที่คำนวณจากน้ำหนักเมทริกซ์ซ่อนWijWijW_{ij}ที่เราพลิกแถวและ คอลัมน์ ถ้าเราจะเปรียบเทียบขั้นตอนการลดลงของการบิดคูณเมทริกซ์ปกติเช่นเดียวกับในประเภทอื่น ๆ NN, ความได้เปรียบจะเป็นคำอธิบายที่ชัดเจน อย่างไรก็ตามนี่อาจไม่ใช่การเปรียบเทียบที่ตรงประเด็นที่สุด ... ในการถ่ายภาพดิจิตอลการประมวลผลแอพลิเคชันของบิดของตัวกรองเพื่อภาพ ( นี้เป็นวิดีโอ youtube ที่ดีสำหรับการปฏิบัติปรีชา ) ดูเหมือนว่าเกี่ยวข้องกับ: ความจริงที่ว่าการโน้มน้าวนั้นเชื่อมโยงกันในขณะที่ความสัมพันธ์(ข้าม -)ไม่ใช่ ความเป็นไปได้ที่จะใช้ตัวกรองในโดเมนความถี่ของภาพเป็นการคูณเนื่องจากการสนทนาในโดเมนเวลาเทียบเท่ากับการคูณในโดเมนความถี่ ( ทฤษฎีบทการสนทนา ) ในสภาพแวดล้อมทางเทคนิคนี้โดยเฉพาะของ DSP correlationถูกกำหนดเป็น: F∘I(x,y)=∑j=−NN∑i=−NNF(i,j)I(x+i,y+j)F∘I(x,y)=∑j=−NN∑i=−NNF(i,j)I(x+i,y+j)F\circ I(x,y)=\sum_{j=-N}^{N}\sum_{i=-N}^N\, F(i,j)\,I(x+i, y+j) ซึ่งเป็นผลรวมของเซลล์ทั้งหมดในผลิตภัณฑ์ Hadamard: F∘I(x,y)=⎡⎣⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢F[−N,−N]I[x−N,y−N]⋮F[0,−N]I[x,y−N]⋮F[N,−N]I[x+N,y−N]⋯⋱⋯⋱⋯F[−N,0]I[x−N,y−N]⋮F[0,0]I[x,y]⋮F[N,0]I[x+N,y]⋯⋱⋯⋱⋯F[−N,N]I[x−N,y+N]⋮F[0,N]I[x,y+N]⋮F[N,N]I[x+N,y+N]⎤⎦⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥F∘I(x,y)=[F[−N,−N]I[x−N,y−N]⋯F[−N,0]I[x−N,y−N]⋯F[−N,N]I[x−N,y+N]⋮⋱⋮⋱⋮F[0,−N]I[x,y−N]⋯F[0,0]I[x,y]⋯F[0,N]I[x,y+N]⋮⋱⋮⋱⋮F[N,−N]I[x+N,y−N]⋯F[N,0]I[x+N,y]⋯F[N,N]I[x+N,y+N]]\small F\circ I(x,y)=\Tiny\begin{bmatrix}F[-N,-N]\,I[x-N,y-N]&\cdots&F[-N,0]\,I[x-N,y-N]&\cdots& F[-N,N]\,I[x-N,y+N]\\ \vdots&\ddots&\vdots&\ddots&\vdots\\ F[0,-N]\,I[x,y-N]&\cdots&F[0,0]\,I[x,y]&\cdots& F[0,N]\,I[x,y+N]\\ \vdots&\ddots&\vdots&\ddots&\vdots\\ …

3
ทำไมกลับเผยแพร่ผ่านเวลาใน RNN
ในเครือข่ายประสาทที่เกิดขึ้นอีกคุณมักจะส่งต่อการแพร่กระจายผ่านหลายขั้นตอน "ปลด" เครือข่ายและจากนั้นกลับแพร่กระจายไปตามลำดับของอินพุต ทำไมคุณไม่เพียงแค่อัปเดตน้ำหนักหลังจากแต่ละขั้นตอนตามลำดับ (เทียบเท่ากับการใช้ความยาวของการตัดทอนที่ 1 ดังนั้นจึงไม่มีสิ่งใดที่จะคลี่คลาย) สิ่งนี้ขจัดปัญหาการไล่ระดับสีที่หายไปอย่างสมบูรณ์ลดความซับซ้อนของอัลกอริทึมอย่างมากอาจจะลดโอกาสที่จะติดอยู่ในท้องถิ่น . ฉันฝึกรูปแบบด้วยวิธีนี้เพื่อสร้างข้อความและผลลัพธ์ที่ได้นั้นเทียบได้กับผลลัพธ์ที่ฉันเห็นจากแบบจำลองที่ผ่านการฝึกอบรมของ BPTT ฉันสับสนเพียงแค่นี้เพราะทุกบทช่วยสอนเกี่ยวกับ RNN ฉันเห็นว่าใช้ BPTT เกือบราวกับว่าจำเป็นสำหรับการเรียนรู้ที่เหมาะสมซึ่งไม่ใช่กรณี อัปเดต: ฉันเพิ่มคำตอบ

3
ขั้นตอนวิธีการเรียนรู้วงดนตรีขั้นสุดยอดในงานการจดจำรูปแบบ?
โครงสร้างของคำถามนี้มีดังต่อไปนี้:ในตอนแรกฉันให้แนวคิดของการเรียนรู้ทั้งมวลฉันยังจัดทำรายการของการจดจำรูปแบบจากนั้นฉันก็ยกตัวอย่างของอัลกอริทึมการเรียนรู้ทั้งมวลและในที่สุดก็แนะนำคำถามของฉัน ผู้ที่ไม่ต้องการข้อมูลเสริมทั้งหมดอาจแค่ดูหัวข้อข่าวและตรงไปที่คำถามของฉัน การเรียนรู้ทั้งมวลคืออะไร ตามบทความ Wikipedia : ในสถิติและการเรียนรู้ของเครื่องจักรวิธีการทั้งมวลใช้อัลกอริทึมการเรียนรู้หลายอย่างเพื่อให้ได้ประสิทธิภาพการทำนายที่ดีกว่าที่จะได้รับจากอัลกอริทึมการเรียนรู้ที่เป็นส่วนประกอบใด ๆ เพียงอย่างเดียว ซึ่งแตกต่างจากชุดสถิติในกลศาสตร์เชิงสถิติซึ่งโดยทั่วไปแล้วจะไม่มีที่สิ้นสุดชุดการเรียนรู้ของเครื่องหมายถึงชุดรูปแบบทางเลือกที่ จำกัด ของคอนกรีตเท่านั้น แต่โดยทั่วไปแล้วจะช่วยให้โครงสร้างมีความยืดหยุ่นมากขึ้น ตัวอย่างของงานการจดจำรูปแบบ: การรู้จำอักขระด้วยแสง การจดจำบาร์โค้ด การจดจำป้ายทะเบียนรถ การตรวจจับใบหน้า การรู้จำเสียง การจดจำรูปภาพ การจำแนกเอกสาร ตัวอย่างของอัลกอริทึมการเรียนรู้ทั้งมวล: ต่อไปนี้ขั้นตอนวิธีการเรียนรู้ชุดใช้สำหรับงานพีอาร์ (ตามวิกิพีเดีย) Ensemble learning algorithm (การควบคุม meta-algorithms สำหรับการรวมอัลกอริทึมการเรียนรู้หลายตัวเข้าด้วยกัน): Boosting (การเรียนรู้ของเครื่องโดยใช้เมตาดาต้าอัลกอริธึมสำหรับการลดอคติและความแปรปรวนในการเรียนรู้แบบมีผู้ควบคุมและอัลกอริทึมการเรียนรู้ของเครื่องซึ่งเปลี่ยนผู้เรียนที่อ่อนแอไปเป็นคนที่แข็งแกร่ง) การรวม Bootstrap ("การห่อ ") (เครื่องเรียนรู้ชุดเมตาอัลกอริทึมที่ออกแบบมาเพื่อปรับปรุงเสถียรภาพและความแม่นยำของอัลกอริทึมการเรียนรู้ของเครื่องที่ใช้ในการจำแนกทางสถิติและการถดถอย) ค่าเฉลี่ยของ Ensemble (กระบวนการสร้างหลายรุ่นและรวมเข้าด้วยกันเพื่อสร้างเอาต์พุตที่ต้องการซึ่งต่างจากการสร้างเพียงหนึ่งโมเดลบ่อยครั้งที่ชุดของโมเดลทำงานได้ดีกว่าโมเดลใด ๆ ก็ตามเนื่องจากข้อผิดพลาดต่างๆของโมเดล "เฉลี่ยหมด" ) ส่วนผสมของผู้เชี่ยวชาญการผสมผสานของผู้เชี่ยวชาญ การใช้งานที่แตกต่างกัน ตระการตาของโครงข่ายประสาทเทียม (ชุดของโมเดลโครงข่ายประสาทเทียมที่ใช้ตัดสินใจโดยเฉลี่ยผลลัพธ์ของแบบจำลองแต่ละตัว) ป่าสุ่ม (วิธีการเรียนรู้ทั้งมวลสำหรับการจำแนกการถดถอยและงานอื่น …

1
ตัวอย่างการฝึกอบรมมีน้อยเกินไปเมื่อฝึกอบรมโครงข่ายประสาทเทียม
ฉันเป็นผู้เริ่มต้นที่พยายามรวบรวมโครงการแรกของฉัน ฉันมีโครงการจัดหมวดหมู่เพลงอยู่ในใจ แต่เนื่องจากฉันจะติดป้ายกำกับด้วยตนเองฉันจึงสามารถรวบรวมเพลงได้ประมาณ 1,000 เพลงหรือเพลง 60 ชั่วโมง ฉันจะแบ่งชั้นเรียนหลายชั้นดังนั้นจึงเป็นไปได้ที่ชั้นเรียนหนึ่งจะมีเพลง 50-100 เพลงในชุดฝึกอบรมน้อยมาก - ดูเหมือนว่าจะน้อยเกินไป! มีกฎทั่วไปหรือไม่สำหรับปริมาณข้อมูลที่ต้องใช้ในการฝึกอบรมโครงข่ายประสาทเทียมเพื่อให้สามารถใช้งานได้จริงหรือไม่? แก้ไข: ฉันคิดว่าจะใช้วานิลลา LSTM คุณสมบัติอินพุตจะมีมิติข้อมูล 39 ขนาดเอาต์พุต 6 ความพยายามครั้งแรกของฉันสำหรับขนาดเลเยอร์ที่ซ่อนจะเป็น 100

3
เครือข่ายประสาทลึก - เพียงเพื่อการจำแนกภาพ?
ตัวอย่างทั้งหมดที่ฉันพบโดยใช้ความเชื่ออย่างลึกล้ำหรือโครงข่ายประสาทเทียมใช้สำหรับการจำแนกภาพการตรวจจับแชทและการรู้จำเสียง โครงข่ายใยประสาทเทียมแบบลึกยังมีประโยชน์สำหรับงานการปรับเปลี่ยนแบบดั้งเดิมซึ่งคุณสมบัติไม่ได้มีโครงสร้าง (เช่นไม่จัดเรียงตามลำดับหรือตาราง) ถ้าใช่คุณยกตัวอย่างได้ไหม

1
มีความแตกต่างระหว่างการฝึกอบรม autoencoder ที่ซ้อนกันและเครือข่ายประสาท 2 ชั้นหรือไม่?
สมมติว่าฉันกำลังเขียนอัลกอริทึมสำหรับการสร้าง autoencoder 2 ชั้นซ้อนกันและเครือข่ายประสาท 2 ชั้น พวกเขาเป็นสิ่งเดียวกันหรือแตกต่างกันอย่างไร สิ่งที่ฉันเข้าใจคือเมื่อฉันสร้างตัวเข้ารหัสอัตโนมัติแบบซ้อนกันฉันจะสร้างเลเยอร์ทีละชั้น สำหรับเครือข่ายประสาทฉันจะเริ่มต้นพารามิเตอร์ทั้งหมดใน netowork และจากนั้นสำหรับแต่ละจุดข้อมูลฉันผ่านมันผ่านเครือข่ายและคำนวณการสูญเสีย (เช่นระยะห่างจากนิวเคลียส) และทำการ backpropagation

2
คำถามเกี่ยวกับ Q-Learning โดยใช้ Neural Networks
ฉันใช้ Q-Learning ตามที่อธิบายไว้ใน http://web.cs.swarthmore.edu/~meeden/cs81/s12/papers/MarkStevePaper.pdf เพื่อที่จะประมาณ Q (S, A) ฉันใช้โครงสร้างเครือข่ายประสาทดังต่อไปนี้ การเปิดใช้งาน sigmoid อินพุตจำนวนอินพุต + 1 สำหรับเซลล์ประสาทการกระทำ (อินพุตทั้งหมดปรับสัดส่วน 0-1) เอาท์พุทเอาท์พุทเดียว Q-Value จำนวน M ของเลเยอร์ที่ซ่อนอยู่ วิธีการสำรวจสุ่ม 0 <rand () <propExplore ในแต่ละการเรียนรู้ซ้ำโดยใช้สูตรต่อไปนี้ ฉันคำนวณค่า Q-Target แล้วคำนวณข้อผิดพลาดโดยใช้ error = QTarget - LastQValueReturnedFromNN และเผยแพร่กลับข้อผิดพลาดผ่านเครือข่ายประสาท Q1, ฉันอยู่ในเส้นทางที่ถูกต้องหรือไม่? ฉันได้เห็นเอกสารบางส่วนที่ใช้ NN กับเซลล์ประสาทขาออกหนึ่งอันสำหรับแต่ละการกระทำ Q2, ฟังก์ชั่นรางวัลของฉันจะส่งคืนตัวเลขระหว่าง -1 ถึง 1 หรือไม่จะส่งกลับตัวเลขระหว่าง -1 ถึง …

3
ทางเลือกของฟังก์ชั่นการเปิดใช้งานตาข่ายซ่อนเร้น
ฉันได้อ่านที่อื่นแล้วว่าฟังก์ชั่นการเปิดใช้งานเลเยอร์ที่ซ่อนอยู่ใน NN ควรเป็นไปตามความต้องการเช่นถ้าคุณต้องการค่าในช่วง -1 ถึง 1 ใช้ tanh และใช้ sigmoid สำหรับช่วง 0 ถึง 1 คำถามของฉันคือใครจะรู้ว่าสิ่งที่ต้องการคืออะไร? มันขึ้นอยู่กับช่วงของเลเยอร์อินพุทเช่นใช้ฟังก์ชั่นที่สามารถครอบคลุมช่วงเต็มของเลเยอร์ของค่าหรือไม่ก็สะท้อนการกระจายของเลเยอร์อินพุท (ฟังก์ชั่นเกาส์) หรือไม่? หรือต้องการปัญหา / โดเมนที่เฉพาะเจาะจงและจำเป็นต้องมีประสบการณ์ / วิจารณญาณในการเลือกตัวเลือกนี้หรือไม่? หรือเป็นเพียง "ใช้สิ่งที่ให้ข้อผิดพลาดในการฝึกอบรมขั้นต่ำที่ผ่านการตรวจสอบความถูกต้องขั้นต่ำ"

1
วิธีการจัดการกับการผสมผสานของไบนารีและอินพุตอย่างต่อเนื่องในเครือข่ายประสาทเทียม?
ฉันใช้แพ็คเกจ nnet ใน R เพื่อพยายามสร้าง ANN เพื่อคาดการณ์ราคาอสังหาริมทรัพย์สำหรับคอนโด (โครงการส่วนตัว) ฉันยังใหม่กับสิ่งนี้และไม่มีพื้นฐานทางคณิตศาสตร์ดังนั้นโปรดเปลือยกับฉัน ฉันมีตัวแปรอินพุตที่เป็นทั้งไบนารีและต่อเนื่อง ตัวอย่างเช่นตัวแปรไบนารีบางตัวที่ แต่เดิมใช่ / ไม่ใช่ถูกแปลงเป็น 1/0 สำหรับโครงข่ายประสาท ตัวแปรอื่น ๆ Sqftที่มีอย่างต่อเนื่องเช่น ตัวอย่างการป้อนข้อมูล ฉันปรับมาตรฐานทั้งหมดให้อยู่ในระดับ 0-1 อาจBedroomsและBathroomsไม่ควรเป็นมาตรฐานเนื่องจากช่วงของพวกเขานั้นมีเพียง 0-4 ใช่ไหม อินพุตผสมเหล่านี้มีปัญหาสำหรับ ANN หรือไม่ ฉันได้ผลลัพธ์ที่ถูกต้อง แต่เมื่อตรวจสอบน้ำหนักของ ANN ที่เลือกไว้อย่างละเอียดแล้วดูเหมือนว่าไม่สมเหตุสมผล รหัสของฉันอยู่ด้านล่างคำแนะนำใด ๆ ANN <- nnet(Price ~ Sqft + Bedrooms + Bathrooms + Parking2 + Elevator + Central.AC + …

3
การเรียนรู้น้ำหนักในเครื่อง Boltzmann
ฉันพยายามเข้าใจวิธีการทำงานของเครื่องจักร Boltzmann แต่ฉันไม่แน่ใจว่าจะเรียนรู้น้ำหนักได้อย่างไรและไม่สามารถหาคำอธิบายที่ชัดเจนได้ ถูกต้องหรือไม่? (เช่นกันตัวชี้ไปที่คำอธิบายเครื่อง Boltzmann ที่ดีก็จะดีเช่นกัน) เรามีชุดของหน่วยที่มองเห็นได้ (เช่นตรงกับพิกเซลดำ / ขาวในรูปภาพ) และชุดของหน่วยที่ซ่อนอยู่ น้ำหนักถูกเริ่มต้นอย่างใด (เช่นสม่ำเสมอจาก [-0.5, 0.5]) จากนั้นเราสลับกันระหว่างสองเฟสต่อไปนี้จนกว่าจะถึงกฎการหยุดบางอย่าง: Clamped phase - ในระยะนี้ค่าทั้งหมดของหน่วยที่มองเห็นได้จะได้รับการแก้ไขดังนั้นเราจะอัปเดตสถานะของหน่วยที่ซ่อนอยู่เท่านั้น (ตามกฎการเปิดใช้งานสุ่มของ Boltzmann) เราอัปเดตจนกว่าเครือข่ายจะมาถึงจุดสมดุล เมื่อเราไปถึงจุดสมดุลเราจะทำการปรับปรุงครั้งต่อไป (สำหรับบางN ที่กำหนดไว้ล่วงหน้า) ติดตามค่าเฉลี่ยของx i x j (โดยที่x i , x jเป็นสถานะของโหนดiและj ) หลังจากการอัพเดทสมดุลของNเหล่านั้นแล้วเราจะอัปเดตw ฉัน j = w ฉัน j +ยังไม่มีข้อความยังไม่มีข้อความNยังไม่มีข้อความยังไม่มีข้อความNxผมxJxผมxJx_i x_jxผม, xJxผม,xJx_i, x_jผมผมiJJjยังไม่มีข้อความยังไม่มีข้อความNโดยที่Cคืออัตราการเรียนรู้ (หรือแทนที่จะทำการอัปเดตเป็นชุดในตอนท้ายเราจะอัปเดตหลังจากเราดำเนินการตามขั้นตอนสมดุล)Wผมj = …

1
Caret glmnet กับ cv.glmnet
ดูเหมือนจะมีความสับสนมากในการเปรียบเทียบการใช้glmnetภายในcaretเพื่อค้นหาแลมบ์ดาที่ดีที่สุดและใช้cv.glmnetในการทำงานเดียวกัน มีการตั้งคำถามมากมายเช่น: โมเดลการจำแนกประเภท train.glmnet vs. cv.glmnet วิธีที่เหมาะสมในการใช้ glmnet กับคาเร็ตคืออะไร? การตรวจสอบข้าม `glmnet 'โดยใช้` คาเร็ต' แต่ไม่ได้รับคำตอบซึ่งอาจเป็นเพราะความสามารถในการทำซ้ำของคำถาม ตามคำถามแรกฉันให้ตัวอย่างที่คล้ายกัน แต่มีคำถามเดียวกัน: ทำไม lambdas โดยประมาณแตกต่างกันอย่างไร library(caret) library(glmnet) set.seed(849) training <- twoClassSim(50, linearVars = 2) set.seed(849) testing <- twoClassSim(500, linearVars = 2) trainX <- training[, -ncol(training)] testX <- testing[, -ncol(testing)] trainY <- training$Class # Using glmnet to …

2
ต้นกำเนิดของเครือข่ายประสาทเทียม autoencoder คืออะไร?
ฉันค้นหาใน Google, Wikipedia, Google scholar และอื่น ๆ แต่ไม่พบต้นกำเนิดของ Autoencoders บางทีมันอาจเป็นหนึ่งในแนวคิดเหล่านั้นที่มีการพัฒนาอย่างค่อยเป็นค่อยไปและเป็นไปไม่ได้ที่จะย้อนกลับไปยังจุดเริ่มต้นที่ชัดเจน แต่ถึงกระนั้นฉันก็ยังอยากจะสรุปบางส่วนของขั้นตอนหลักของการพัฒนาของพวกเขา บทที่เกี่ยวกับ autoencodersในเอียน Goodfellow, โยชัวเบนจิโอและหนังสือการเรียนรู้ลึกแอรอน Courville กล่าวว่า: แนวคิดของ autoencoders เป็นส่วนหนึ่งของภูมิทัศน์ทางประวัติศาสตร์ของโครงข่ายประสาทเทียมมานานหลายทศวรรษ (LeCun, 1987; Bourlard และ Kamp, 1988; Hinton and Zemel, 1994) ตามเนื้อผ้า autoencoders ถูกนำมาใช้เพื่อลดมิติหรือการเรียนรู้คุณสมบัติ งานนำเสนอนี้โดย Pascal Vincent พูดว่า: Denoising ที่ใช้ autoencoders แบบดั้งเดิมนั้นมีการนำมาใช้ก่อนหน้านี้มาก (LeCun, 1987; Gallinari และคณะ, 1987) ซึ่งเป็นทางเลือกสำหรับเครือข่าย Hopfield (Hopfield, 1982) …

8
ฝึกฝน Neural Network เพื่อแยกแยะตัวเลขคู่และคู่
คำถาม: เป็นไปได้ไหมที่จะฝึก NN ให้แยกแยะระหว่างเลขคี่กับเลขคู่โดยใช้เป็นตัวเลขเท่านั้น? ฉันมีชุดข้อมูลต่อไปนี้: Number Target 1 0 2 1 3 0 4 1 5 0 6 1 ... ... 99 0 100 1 ฉันฝึก NN ด้วยเซลล์ประสาทอินพุตสองตัว (อันหนึ่งคือตัวแปรหมายเลข, อีกอันคือเซลล์ประสาทอคติ), เก้าเซลล์ประสาทในเลเยอร์ที่ซ่อนอยู่และเซลล์ประสาทเอาท์พุทหนึ่งโดยใช้อัลกอริธึมทางพันธุกรรมที่ง่ายมาก: ในแต่ละช่วงเวลา "ต่อกัน; ส่วนที่มีข้อผิดพลาดสูงที่สุดจะหายไปและจะถูกแทนที่ด้วยผู้ชนะที่ได้รับการแก้ไข สคริปต์สามารถแก้ปัญหาง่าย ๆ อย่างเช่นตัวดำเนินการ AND, OR และ XOR แต่ติดอยู่ในขณะที่พยายามจัดหมวดหมู่ตัวเลขคี่และคู่ ตอนนี้สิ่งที่ดีที่สุดที่จะจัดการคือการระบุหมายเลข 53 จาก 100 และใช้เวลาหลายชั่วโมง ไม่ว่าฉันจะทำให้ปกติหรือไม่อินพุตดูเหมือนจะไม่แตกต่างกัน หากฉันต้องการที่จะโกงฉันสามารถประมวลผลข้อมูลล่วงหน้าและป้อน% 2 …

2
“ การแปรเปลี่ยนแบบไม่แปรเปลี่ยน” หมายถึงอะไรในบริบทของเครือข่ายประสาทเทียมที่ทำการรับรู้ภาพ
ฉันได้เห็นคำว่า "การเปลี่ยนแปลงค่าคงที่" ในเวอร์ชันของภารกิจการรับรู้หลักของ MNIST มันหมายความว่าอะไร?

2
วิธีรับเอาท์พุทอย่างต่อเนื่องมูลค่าจริงจาก Neural Network
ในตัวอย่างส่วนใหญ่ที่ฉันเคยเห็นจนถึงเครือข่ายนิวรัลเครือข่ายใช้สำหรับการจำแนกประเภทและโหนดจะถูกแปลงด้วยฟังก์ชัน sigmoid อย่างไรก็ตามฉันต้องการใช้โครงข่ายประสาทเทียมเพื่อส่งออกมูลค่าที่แท้จริงอย่างต่อเนื่อง (ตามจริงแล้วเอาต์พุตมักจะอยู่ในช่วง -5 ถึง +5) คำถามของฉันคือ: 1. Should I still scale the input features using feature scaling? What range? 2. What transformation function should I use in place of the sigmoid? ฉันกำลังมองหาแรกใช้มัน PyBrain ซึ่งอธิบายเหล่านี้ประเภทชั้น ดังนั้นฉันคิดว่าฉันควรมี 3 เลเยอร์ให้เริ่ม (อินพุต, ซ่อนเร้นและเลเยอร์เอาท์พุท) นั่นคือเลเยอร์เชิงเส้นทั้งหมดหรือไม่ นั่นเป็นวิธีที่สมเหตุสมผลหรือไม่ หรือฉันจะ "ยืด" ฟังก์ชั่น sigmoid ในช่วง -5 ถึง …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.