ปัญญาประดิษฐ์

คำถาม & คำตอบสำหรับผู้ที่สนใจคำถามแนวความคิดเกี่ยวกับชีวิตและความท้าทายในโลกที่ฟังก์ชัน "ทางปัญญา" สามารถเลียนแบบได้ในสภาพแวดล้อมดิจิทัล

4
กราฟการคำนวณแบบไดนามิกคืออะไร?
กรอบงานอย่างPyTorchและ TensorFlow ผ่านTensorFlow Foldรองรับกราฟการคำนวณแบบไดนามิกและได้รับความสนใจจากนักวิทยาศาสตร์ด้านข้อมูล อย่างไรก็ตามดูเหมือนว่าจะไม่มีทรัพยากรที่จะช่วยในการทำความเข้าใจกราฟการคำนวณแบบไดนามิก ข้อได้เปรียบของกราฟการคำนวณแบบไดนามิกดูเหมือนจะรวมถึงความสามารถในการปรับให้เข้ากับปริมาณที่แตกต่างกันในข้อมูลอินพุต ดูเหมือนว่าอาจมีการเลือกจำนวนชั้นโดยอัตโนมัติจำนวนเซลล์ประสาทในแต่ละชั้นฟังก์ชั่นการเปิดใช้งานและพารามิเตอร์ NN อื่น ๆ ขึ้นอยู่กับแต่ละอินสแตนซ์ชุดอินพุตในระหว่างการฝึกอบรม นี่เป็นลักษณะที่ถูกต้องหรือไม่? อะไรคือข้อดีของแบบไดนามิกมากกว่าแบบคงที่? นั่นเป็นสาเหตุที่ทำให้ DCG ได้รับความสนใจมาก? โดยสรุป DCG คืออะไรและข้อดีข้อเสียของการใช้งานคืออะไร

1
Lovelace Test 2.0 ประสบความสำเร็จในการตั้งค่าทางวิชาการหรือไม่?
ในเดือนตุลาคม 2014 ดร. มาร์คริเดลตีพิมพ์วิธีการทดสอบความฉลาดทางไอเรียกว่า"เลิฟเลซทดสอบ 2.0"หลังจากได้รับแรงบันดาลใจจากการทดสอบเลิฟเลซดั้งเดิม (เผยแพร่ในปี 2544) มาร์คเชื่อว่าการทดสอบเลิฟเลซดั้งเดิมนั้นเป็นไปไม่ได้ที่จะผ่านดังนั้นแนะนำเวอร์ชันที่อ่อนแอกว่าและมีประโยชน์มากกว่า การทดสอบ Lovelace 2.0 ทำให้ข้อสันนิษฐานว่า AI จะฉลาดต้องแสดงความคิดสร้างสรรค์ จากกระดาษเอง: การทดสอบ Lovelace 2.0 มีดังนี้: เอเจนต์เทียม a ถูกท้าทายดังต่อไปนี้: a ต้องสร้างสิ่งประดิษฐ์ o ประเภท t; o ต้องเป็นไปตามชุดของข้อ จำกัด C ที่ ci ∈ C เป็นเกณฑ์ใด ๆ ที่แสดงออกได้ในภาษาธรรมชาติ มนุษย์ผู้ประเมิน h เมื่อเลือก t และ C พอใจว่า o เป็นตัวอย่างที่ถูกต้องของ t และตรงกับ C; …

2
ปัญหาการหยุดชะงักของปัญญาประดิษฐ์จะมีข้อ จำกัด อะไรบ้าง?
จากปัญหาการหยุดชะงักของเครื่องทัวริงแล้วเราสามารถสรุปขีดจำกัดความสามารถของปัญญาประดิษฐ์ที่แข็งแกร่งได้หรือไม่?

7
หากค่าดิจิตอลเป็นเพียงการประมาณการทำไมไม่กลับไปใช้อะนาล็อกสำหรับ AI
แรงผลักดันที่อยู่เบื้องหลังการเปลี่ยนศตวรรษที่ยี่สิบจากอนาล็อกเป็นวงจรดิจิตอลขับเคลื่อนด้วยความต้องการความแม่นยำและเสียงรบกวนที่ต่ำกว่า ตอนนี้เรากำลังพัฒนาซอฟต์แวร์ซึ่งผลลัพธ์เป็นค่าประมาณและเสียงรบกวนมีค่าเป็นบวก ในเครือข่ายประดิษฐ์เราใช้การไล่ระดับสี (จาโคเบียน) หรือแบบจำลองระดับที่สอง (Hessian) เพื่อประเมินขั้นตอนถัดไปในอัลกอริธึมคอนเวอร์เจนซ์และกำหนดระดับที่ไม่ถูกต้องและสงสัย 1 ในกลยุทธ์การคอนเวอร์เจนซ์เราจงใจเพิ่มเสียงรบกวนโดยการฉีดการรบกวนแบบสุ่มหรือการหลอกแบบสุ่มเพื่อปรับปรุงความน่าเชื่อถือโดยการกระโดดข้ามมินิมาในพื้นที่ผิวการปรับให้เหมาะสมระหว่างการคอนเวอร์เจนซ์ 2 สิ่งที่เรายอมรับและแนะนำโดยเจตนาในระบบ AI ปัจจุบันคือสิ่งเดียวกันกับที่ผลักอิเล็กทรอนิกส์ไปสู่วงจรดิจิตอล ทำไมไม่กลับไปใช้วงจรอะนาล็อกสำหรับอวนประสาทและนำไปใช้กับเมทริกซ์แอมพลิฟายเออร์แทนเมทริกซ์ขององค์ประกอบการประมวลผลสัญญาณดิจิตอล ค่าของพารามิเตอร์การเรียนรู้เครือข่ายประดิษฐ์สามารถคงไว้ได้โดยใช้ตัวเก็บประจุแบบรวมที่ชาร์จผ่านตัวแปลง D-to-A ซึ่งรัฐที่เรียนรู้จะได้รับประโยชน์จากความแม่นยำแบบดิจิตอลและความสะดวกสบายในขณะเดียวกัน ความเร็วที่มากกว่า3 คำสั่งของขนาดทรานซิสเตอร์น้อยลงเพื่อแสดงเซลล์เครือข่าย เสียงความร้อนตามธรรมชาติ4 บทความวิชาการหรือการค้นหาสิทธิบัตรสำหรับเครือข่ายประดิษฐ์แบบอะนาล็อกเผยให้เห็นงานจำนวนมากในช่วงสี่สิบปีที่ผ่านมาและแนวโน้มการวิจัยได้รับการปรับปรุง วงจรอนาล็อกเชิงคำนวณได้รับการพัฒนามาอย่างดีและให้พื้นฐานสำหรับอาร์เรย์ประสาท ความลุ่มหลงในปัจจุบันด้วยการคำนวณแบบดิจิตอลอาจทำให้มุมมองทั่วไปของตัวเลือกสถาปัตยกรรม AI สับสนหรือไม่? ไฮบริดแอนะล็อกเป็นสถาปัตยกรรมที่เหนือกว่าสำหรับเครือข่ายประดิษฐ์หรือไม่? เชิงอรรถ [1] PAC (อาจจะถูกต้องโดยประมาณ) การเรียนรู้กรอบเกี่ยวข้องกับข้อผิดพลาดที่ยอมรับεε\epsilonและไม่ต้องสงสัยยอมรับδδ\deltaขนาดตัวอย่างที่จำเป็นสำหรับการเรียนรู้สำหรับประเภทรูปแบบเฉพาะ (โปรดทราบว่า1 - ϵ1-ε1 - \epsilonหมายถึงความถูกต้องและ1 - δ1-δ1 - \deltaหมายถึงความมั่นใจในกรอบนี้) [2] Stochastic gradient descent จะแสดงขึ้นเมื่อมีการใช้กลยุทธ์ที่เหมาะสมและใช้พารามิเตอร์มากเกินไปเพื่อรวมเข้าด้วยกันอย่างรวดเร็วยิ่งขึ้นในระหว่างการเรียนรู้ [3] โปรเซสเซอร์ Intel Core i9-7960X …

3
อะไรคือความแตกต่างระหว่างเครือข่ายประสาทเทียมและเครือข่ายประสาทปกติ?
ฉันเห็นคำเหล่านี้ถูกโยนไปรอบ ๆ ไซต์นี้เป็นจำนวนมากโดยเฉพาะในแท็ก สับสน-ประสาทเครือข่ายและระบบประสาทเครือข่าย ฉันรู้ว่าเครือข่ายประสาทเทียมเป็นระบบที่อิงกับสมองมนุษย์ แต่สิ่งที่แตกต่างระหว่างที่Convolutionalประสาทเครือข่ายและเครือข่ายประสาทปกติ? มีเพียงหนึ่งที่ซับซ้อนมากขึ้นและ ahem, convolutedกว่าอีกหรือไม่

6
ฟังก์ชั่นการเปิดใช้งานในเครือข่ายประสาทคืออะไร?
มันก็บอกว่าฟังก์ชั่นการเปิดใช้งานในเครือข่ายประสาทช่วยแนะนำที่ไม่เป็นเชิงเส้น สิ่งนี้หมายความว่า? การไม่เป็นเชิงเส้นหมายความว่าอะไรในบริบทนี้ การแนะนำของความไม่เป็นเส้นตรงนี้ช่วยได้อย่างไร มีฟังก์ชั่นการเปิดใช้งานอื่น ๆ อีกหรือไม่?

2
ปัญหาที่มนุษย์เท่านั้นที่จะสามารถแก้ไขได้
ด้วยความซับซ้อนที่เพิ่มขึ้นของ reCAPTCHA ฉันสงสัยเกี่ยวกับการมีอยู่ของปัญหาว่ามีเพียงมนุษย์เท่านั้นที่จะสามารถแก้ไขได้ (หรือ AI ไม่สามารถแก้ปัญหาได้ตราบใดที่สมองของมนุษย์ไม่สามารถทำซ้ำได้) . ตัวอย่างเช่นข้อความที่บิดเบี้ยวเคยเป็นไปได้ที่มนุษย์จะสามารถแก้ไขได้ แม้ว่า... คอมพิวเตอร์ได้รับการทดสอบ [ข้อความที่บิดเบี้ยว] ถูกต้อง 99.8% แม้ในสถานการณ์ที่ท้าทายที่สุด ดูเหมือนชัดเจนว่าข้อความที่บิดเบี้ยวไม่สามารถใช้สำหรับการตรวจจับของมนุษย์จริงอีกต่อไป ฉันยังต้องการที่จะรู้ว่าอัลกอริทึมสามารถใช้สำหรับการสร้างปัญหาดังกล่าว (สำหรับข้อความที่บิดเบี้ยว) หรือไม่หรือถ้าจำเป็นต้องมีความคิดริเริ่มของสมองมนุษย์

2
มีการวิจัยอะไรในโดเมนของ“ การระบุการเสียดสีในข้อความ”?
การระบุการเสียดสีถือเป็นปัญหาปลายเปิดที่ยากที่สุดในโดเมนของ ML และ NLP ดังนั้นมีการวิจัยจำนวนมากที่ทำในหน้านั้น? ถ้าใช่แล้วความแม่นยำเป็นอย่างไร โปรดอธิบายโมเดล NLP โดยย่อด้วย

3
มีเซลล์ประสาทแบบกระจกคำนวณหรือไม่
จากวิกิพีเดีย: กระจกเซลล์ประสาทเป็นเซลล์ประสาทที่ยิงทั้งสองเมื่อสัตว์ทำหน้าที่และเมื่อสัตว์สังเกตการกระทำเดียวกันที่ดำเนินการโดยคนอื่น Mirror neurons เกี่ยวข้องกับการเรียนรู้เลียนแบบซึ่งเป็นคุณสมบัติที่มีประโยชน์มากที่ขาดหายไปในการใช้งาน AI ในโลกแห่งความเป็นจริงในปัจจุบัน แทนที่จะเรียนรู้จากตัวอย่างอินพุต - เอาท์พุต (การเรียนรู้แบบมีผู้ควบคุม) หรือจากการให้รางวัล (การเรียนรู้เสริม) ตัวแทนที่มีเซลล์ประสาทกระจกจะสามารถเรียนรู้ได้โดยเพียงแค่สังเกตตัวแทนอื่น ๆ แปลการเคลื่อนไหวของพวกเขาเป็นระบบพิกัดของตนเอง เรามีอะไรในเรื่องนี้ที่เกี่ยวข้องกับตัวแบบการคำนวณ?

3
ทำความเข้าใจกับฟังก์ชั่นการสูญเสียของ GAN
ฉันกำลังพยายามทำความเข้าใจเกี่ยวกับฟังก์ชั่นการสูญเสีย GAN ตามที่ระบุไว้ในการทำความเข้าใจกับเครือข่ายผู้ให้คำปรึกษาทั่วไป (โพสต์บล็อกที่เขียนโดย Daniel Seita) ในการสูญเสียข้ามเอนโทรปีมาตรฐานเรามีเอาต์พุตที่ทำงานผ่านฟังก์ชั่น sigmoid และการจำแนกเลขฐานสองเป็นผลลัพธ์ เซียต้าระบุ ดังนั้นสำหรับ [แต่ละจุดข้อมูลและป้ายกำกับเราจะได้ฟังก์ชันการสูญเสียต่อไปนี้ ...x1x1x_1 H( ( x1, y1) , D ) = - y1เข้าสู่ระบบD ( x1) - ( 1 - y1) บันทึก( 1 - D ( x1) )H((x1,Y1),D)=-Y1เข้าสู่ระบบ⁡D(x1)-(1-Y1)เข้าสู่ระบบ⁡(1-D(x1)) H((x_1, y_1), D) = -y_1 \log D(x_1) - (1 - y_1) \log (1 …

2
อารัมภบทยังคงใช้ใน AI หรือไม่?
ตามที่วิกิพีเดีย , ภาษาโปรล็อกเป็นภาษาโปรแกรมตรรกะทั่วไปที่มีความสัมพันธ์กับปัญญาประดิษฐ์และภาษาศาสตร์เชิงคำนวณ มันยังคงใช้กับ AI หรือไม่? นี่เป็นคำถามที่มาจากเบต้าปิดของปี 2014 ผู้เขียนมี UID ของ 330

1
เครื่องจักร Boltzmann สามารถเก็บรูปแบบได้มากกว่า Hopfield net หรือไม่?
นี่คือจากเบต้าที่ปิดสำหรับ AI โดยคำถามนี้ถูกโพสต์โดยผู้ใช้หมายเลข 47 เครดิตทั้งหมดสำหรับพวกเขา ตามที่วิกิพีเดีย , เครื่องจักร Boltzmann สามารถมองได้ว่าเป็นคู่สุ่มที่สร้างขึ้นมาจากตาข่าย Hopfield ทั้งสองเป็นเครือข่ายประสาทที่เกิดขึ้นอีกที่สามารถฝึกให้เรียนรู้รูปแบบบิต จากนั้นเมื่อนำเสนอด้วยรูปแบบบางส่วนสุทธิจะดึงรูปแบบที่สมบูรณ์แบบเต็ม เครือข่าย Hopfield ได้รับการพิสูจน์แล้วว่ามีความจุ 0.138 (เช่นสามารถเรียกใช้เวกเตอร์ประมาณ 138 บิตจากการจัดเก็บสำหรับทุก ๆ 1,000 โหนดเฮิรตซ์ 1991) ในฐานะที่เป็นเครื่อง Boltzmann สุ่มฉันเข้าใจว่ามันจะไม่จำเป็นต้องแสดงรูปแบบเดียวกันเสมอเมื่อพลังงานที่แตกต่างระหว่างรูปแบบการจัดเก็บหนึ่งและอื่น ๆ ที่คล้ายกัน แต่เนื่องจากความไม่แน่นอนนี้อาจช่วยให้สามารถจัดเก็บรูปแบบที่หนาแน่นขึ้น แต่ไม่มีการรับประกันว่าคุณจะได้รับรูปแบบ "ใกล้เคียงที่สุด" ในแง่ของความแตกต่างของพลังงาน สิ่งนี้จะเป็นจริงหรือไม่? หรือ Hopfield net จะสามารถเก็บรูปแบบเพิ่มเติมได้หรือไม่?

3
เหตุใด OCR จึงไม่ถูกมองว่าเป็นตัวอย่างที่ดีของ AI
ในหน้าวิกิพีเดียเกี่ยวกับ AI เราสามารถอ่านได้: การรู้จำอักขระด้วยแสงจะไม่ถูกมองว่าเป็นแบบอย่างของ "ปัญญาประดิษฐ์" ที่กลายเป็นเทคโนโลยีประจำ ในทางตรงกันข้ามฐานข้อมูลMNISTของตัวเลขที่เขียนด้วยลายมือได้รับการออกแบบมาโดยเฉพาะสำหรับการฝึกอบรมและการทดสอบเครือข่ายประสาทเทียมและอัตราความผิดพลาด (ดู: ตัวแยกประเภท ) เหตุใดสถานะการอ้างถึงข้างต้นที่ OCR จึงไม่เป็นแบบอย่างของ AI อีกต่อไป
17 ocr 

1
ความแตกต่างระหว่างเทคนิคการ backpropagation
เพื่อความสนุกฉันพยายามพัฒนาโครงข่ายประสาทเทียม ตอนนี้สำหรับ backpropagation ฉันเห็นสองเทคนิค ตัวแรกใช้ที่นี่และที่อื่น ๆ อีกมากมาย มันคืออะไร: มันคำนวณข้อผิดพลาดสำหรับแต่ละเซลล์ประสาทออก มัน backpropates มันลงในเครือข่าย (การคำนวณข้อผิดพลาดสำหรับแต่ละเซลล์ประสาทภายใน) มันอัปเดตน้ำหนักด้วยสูตร: (ซึ่งการเปลี่ยนแปลงของน้ำหนัก, ความเร็วในการเรียนรู้, ข้อผิดพลาดของเซลล์ประสาทที่รับอินพุตจากไซแนปส์และเป็นเอาต์พุตที่ส่งในไซแนปส์) มันซ้ำสำหรับแต่ละรายการของชุดข้อมูลหลาย ๆ ครั้งตามที่ต้องการ อย่างไรก็ตามเครือข่ายประสาทที่เสนอในบทช่วยสอนนี้ (มีอยู่ใน GitHub ด้วย) ใช้เทคนิคที่แตกต่าง: มันใช้ฟังก์ชั่นข้อผิดพลาด (วิธีอื่นไม่มีฟังก์ชั่นข้อผิดพลาด แต่ไม่ได้ใช้สำหรับการฝึกอบรม) มันมีฟังก์ชั่นอื่นที่สามารถคำนวณข้อผิดพลาดสุดท้ายที่เริ่มต้นจากน้ำหนัก มันลดฟังก์ชั่นนั้น (ผ่านทางลาดลง) ตอนนี้ควรใช้วิธีใด ฉันคิดว่าอันแรกเป็นอันที่ใช้บ่อยที่สุด (เพราะฉันเห็นตัวอย่างที่แตกต่างจากการใช้มัน) แต่มันก็ใช้ได้ดีเช่นกัน? โดยเฉพาะอย่างยิ่งฉันไม่รู้: มันขึ้นอยู่กับค่าต่ำสุดในท้องถิ่น (เนื่องจากไม่ได้ใช้ฟังก์ชั่นสมการกำลังสอง)? เนื่องจากความแปรผันของน้ำหนักแต่ละตัวนั้นได้รับอิทธิพลจากค่าเอาท์พุทของเซลล์ประสาทเอาท์พุทของมันไม่ใช่รายการของชุดข้อมูลที่เพิ่งเกิดขึ้นเพื่อสร้างค่าที่สูงขึ้นในเซลล์ประสาท ตอนนี้ฉันชอบเทคนิคแรกเพราะฉันคิดว่ามันง่ายกว่าในการนำไปใช้และคิดง่ายกว่า แม้ว่าหากมีปัญหาที่ฉันกล่าวถึง (ซึ่งฉันหวังว่าจะไม่) มีเหตุผลจริงที่จะใช้มันมากกว่าวิธีที่สอง?

4
ปัญหาเกี่ยวกับและทางเลือกในการเรียนรู้แบบลึก?
ในช่วง 50 ปีที่ผ่านมาความนิยมเพิ่มขึ้น / ลดลง / เพิ่มขึ้นของอวนประสาทได้ทำหน้าที่เป็น 'บารอมิเตอร์' สำหรับการวิจัย AI ชัดเจนจากคำถามในเว็บไซต์นี้ที่ผู้คนสนใจที่จะใช้การเรียนรู้อย่างลึก (DL) กับปัญหาที่หลากหลาย ฉันมีสองคำถาม: ผู้ปฏิบัติการ - สิ่งใดที่คุณพบว่าเป็นอุปสรรคสำคัญในการใช้ 'ออกจากกล่อง' กับปัญหาของคุณ? นักวิจัย - เทคนิคใดที่คุณใช้ (หรือพัฒนาขึ้น) ที่อาจช่วยแก้ไขปัญหาในทางปฏิบัติ พวกเขาอยู่ใน DL หรือพวกเขาเสนอแนวทางอื่นหรือไม่?

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.