AI จะเรียนรู้ภาษาได้อย่างไร


11

ฉันคิดเกี่ยวกับ AIs และวิธีการทำงานเมื่อฉันตระหนักว่าฉันไม่สามารถคิดวิธีที่ AI จะสอนภาษาได้ เด็กมีแนวโน้มที่จะเรียนรู้ภาษาผ่านการเชื่อมโยงของภาษาและรูปภาพไปยังวัตถุ (เช่นคนพูดคำว่า "สุนัข" ในขณะที่อยู่รอบ ๆ สุนัขและต่อมาตระหนักว่าผู้คนพูดว่า "สุนัข" และ "รถยนต์" และเรียนรู้ว่า " "หมายถึง ฯลฯ ) อย่างไรก็ตาม AI ที่ใช้ข้อความไม่สามารถใช้วิธีนี้ในการเรียนรู้เนื่องจากพวกเขาจะไม่สามารถเข้าถึงอุปกรณ์อินพุตประเภทใดก็ได้

วิธีเดียวที่ฉันสามารถทำได้คือการเขียนโปรแกรมในทุก ๆ คำและกฎในภาษาอังกฤษ (หรือภาษาใดก็ตามที่มีความหมายว่า 'พูด' ใน) อย่างไรก็ตามอาจต้องใช้เวลาหลายปีกว่าจะทำได้

ใครบ้างมีความคิดเกี่ยวกับวิธีการนี้สามารถทำได้? หรือถ้ามันได้ทำไปแล้วถ้าเป็นเช่นนั้นได้อย่างไร

ในบริบทนี้ฉันใช้ AI เพื่อหมายถึงระบบปัญญาประดิษฐ์ที่มีความฉลาดใกล้มนุษย์และไม่มีความรู้ด้านภาษามาก่อน

คำตอบ:


12

พื้นที่วิจัยทั่วไปเป็นที่รู้จักกันเหนี่ยวนำไวยากรณ์

มันเป็นกรอบโดยทั่วไปเป็นปัญหาการเรียนรู้ภายใต้การดูแลกับข้อมูลที่นำเสนอเป็นข้อความดิบและผลลัพธ์ที่ต้องการที่สอดคล้องต้นไม้แยก ชุดฝึกอบรมมักประกอบด้วยตัวอย่างทั้งบวกและลบ

ไม่มีวิธีที่ดีที่สุดเพียงอย่างเดียวในการบรรลุเป้าหมายนี้ แต่เทคนิคบางอย่างที่ใช้ในปัจจุบัน ได้แก่ :


6

คำในร่มสำหรับปัญหาของคุณเรียกว่าการประมวลผลภาษาธรรมชาติ (NLP) - หัวข้อภายใต้ปัญญาประดิษฐ์

มีหัวข้อย่อยมากมายในฟิลด์นี้รวมถึงความหมายของภาษาการวิเคราะห์ทางไวยากรณ์ส่วนของการติดแท็กคำพูดการวิเคราะห์บริบทเฉพาะโดเมน ฯลฯ


5

เพื่อความสมบูรณ์ฉันจะชี้ให้เห็นว่า Recurrent Neural Nets (เช่นโครงข่ายประสาทที่มีการเชื่อมต่อไปข้างหลัง) มักใช้สำหรับการประมวลผลภาษาธรรมชาติ (NLP) ซึ่งรวมถึงตัวแปรต่างๆเช่นแบบสองทิศทาง, จอร์แดนและ Elman Networks Long Short-Term Memory (LSTM) เป็นอัลกอริทึมโครงข่ายประสาทที่มีความซับซ้อนมากขึ้นซึ่งสามารถบรรลุเป้าหมายในเวลาเดียวกันและงานตามลำดับ แต่สามารถยกระดับวิธีการเรียนรู้มาตรฐานเช่น backprop เนื่องจากไม่ประสบปัญหา "การไล่ระดับสีที่หายไป" เนื่องจาก LSTM ได้รับการออกแบบอย่างยอดเยี่ยมในฐานะ "ผู้ผสานรวมที่สมบูรณ์แบบ" ซึ่งทำให้ง่ายในการคำนวณการไล่ระดับสีผิดพลาดและอื่น ๆ ในระยะเวลานาน ในทางตรงกันข้าม, การเรียนรู้กับ RNNs นั้นยังไม่ได้มีเหตุผลที่ดีและยากต่อการคำนวณด้วยวิธีการที่มีอยู่เช่น Backpropagation Through Time (BPTT) ใน Time Delay Neural Networks (TDNNs) ความคิดคือการเพิ่มเซลล์ประสาทใหม่และการเชื่อมต่อกับตัวอย่างการฝึกอบรมใหม่ในแต่ละช่วงเวลาหรือลำดับการฝึกอบรม โชคไม่ดีที่นี่มีข้อ จำกัด ในทางปฏิบัติเกี่ยวกับจำนวนตัวอย่างที่คุณสามารถป้อนเข้าไปในเน็ตก่อนที่ขนาดของเครือข่ายจะออกไปจากมือหรือมันเริ่มลืมเช่นเดียวกับ RNNs LSTMs มีความทรงจำที่ยาวนานกว่า (โดยเฉพาะเมื่อเพิ่มด้วย Neural Turing Machines) ดังนั้นนั่นเป็นตัวเลือกแรกของฉันโดยสมมติว่าฉันต้องการใช้มุ้งประสาทเพื่อจุดประสงค์ NLP ความรู้เรื่องของฉันมี จำกัด (ฉันยังคงพยายามที่จะเรียนรู้เชือก) ดังนั้นอาจมีอัลกอริทึมอื่น ๆ ที่สำคัญที่ฉันมองเห็น ...

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.