มีเอกสารอ้างอิงใดบ้างที่ให้รายการฟังก์ชั่นการเปิดใช้งานที่ครอบคลุมในโครงข่ายประสาทเทียมพร้อมกับข้อดี / ข้อเสียของพวกเขา
sin(x)
ดูopenreview.net/pdf?id=Sks3zF9eg
มีเอกสารอ้างอิงใดบ้างที่ให้รายการฟังก์ชั่นการเปิดใช้งานที่ครอบคลุมในโครงข่ายประสาทเทียมพร้อมกับข้อดี / ข้อเสียของพวกเขา
sin(x)
ดูopenreview.net/pdf?id=Sks3zF9eg
คำตอบ:
ฉันจะเริ่มทำรายการที่นี่ของสิ่งที่ฉันได้เรียนรู้จนถึงตอนนี้ ตามที่ @marcodena กล่าวว่าข้อดีและข้อเสียนั้นยากกว่าเพราะส่วนใหญ่เป็นเพียงฮิวริสติกที่เรียนรู้จากการลองทำสิ่งเหล่านี้ แต่อย่างน้อยฉันก็นึกถึงรายการของสิ่งที่พวกเขาไม่สามารถทำร้ายได้
ก่อนอื่นฉันจะนิยามคำอธิบายอย่างชัดเจนดังนั้นจึงไม่มีความสับสน:
สัญกรณ์นี้เป็นจากหนังสือ Neilsen ของ
เครือข่าย Feedforward Neural เป็นเซลล์ประสาทหลายชั้นเชื่อมต่อกัน ใช้ในอินพุตจากนั้นอินพุต "เล็ดลอด" ผ่านเครือข่ายและเครือข่ายประสาทส่งกลับเอาต์พุตเวกเตอร์
อีกอย่างเป็นทางการโทรฉันเจเปิดใช้งาน (aka เอาท์พุท) ของเจทีเอชเซลล์ประสาทในฉันทีเอชชั้นที่1 Jเป็นเจทีเอชองค์ประกอบในการป้อนข้อมูลเวกเตอร์
จากนั้นเราสามารถเชื่อมโยงอินพุตของเลเยอร์ถัดไปกับก่อนหน้านี้ผ่านความสัมพันธ์ต่อไปนี้:
ที่ไหน
บางครั้งที่เราเขียนที่จะเป็นตัวแทนΣ k ( W ฉันเจk ⋅ ฉัน- 1 k ) + ขฉันเจในคำอื่น ๆ ค่ากระตุ้นการทำงานของเซลล์ประสาทก่อนที่จะใช้ฟังก์ชั่นการเปิดใช้งาน
สำหรับโน้ตที่กระชับยิ่งขึ้นเราสามารถเขียนได้
การใช้สูตรนี้ในการคำนวณการส่งออกของเครือข่าย feedforward ที่สำหรับการป้อนข้อมูลบางอย่างตั้ง1 = ฉันแล้วคำนวณ2 , 3 , ... , มที่ม.เป็นจำนวนชั้น
(ในต่อไปนี้เราจะเขียนแทนe xเพื่อให้อ่านได้)
เรียกอีกอย่างว่าฟังก์ชั่นการเปิดใช้งานเชิงเส้น
เลือกและx maxซึ่งเป็น "ช่วง" ของเรา ทุกอย่างที่น้อยกว่าช่วงนี้จะเป็น 0 และทุกอย่างที่มากกว่าช่วงนี้จะเป็น 1 สิ่งอื่นใดที่ถูกประมาณเชิงเส้นตรงระหว่างกัน อย่างเป็นทางการ:
ที่ไหน
และ
ดูประสิทธิภาพ Backprop
ลดขนาด:
ยังเป็นที่รู้จัก Rectified เชิงเส้น Unit (Relu), แม็กซ์หรือฟังก์ชั่นทางลาด
นี่เป็นฟังก์ชั่นการเปิดใช้งานที่ฉันเล่นด้วยซึ่งดูเหมือนว่าจะมีประสิทธิภาพที่ดีมากสำหรับ MNIST ด้วยเหตุผลลึกลับ
ลดขนาด:
ลดขนาด:
หรือที่เรียกว่า Smooth Rectified Linear Unit, Smooth Max หรือ Soft plus
ลดขนาด:
หรือสามารถแสดงเป็น
ลดขนาด:
ดูsinks ครัวสุ่ม
ที่นี่เราจำเป็นต้องใช้เคล็ดลับบันทึกผลรวม :
สมมติว่าเรากำลังคำนวณ:
อันดับแรกเราจะจัดเรียงเอ็กซ์โปเนนเชียลของเราตามขนาดเพื่อความสะดวก:
จากนั้นฟังก์ชั่น softmax ของเราจะกลายเป็น:
เช่นเดียวกันกับ sidenote อนุพันธ์ของฟังก์ชัน softmax คือ:
ที่ไหน
เพื่อช่วยให้เราคิดเกี่ยวกับเรื่องนี้พิจารณาเมทริกซ์น้ำหนัก
Radial Basis Function Networks เป็นการปรับเปลี่ยนเครือข่าย Feedforward Neural โดยที่ไม่ต้องใช้
นี่เป็นเพียงการบอกว่าระยะทาง Mahalanobis ถูกกำหนดเป็น
ในเครือข่ายเหล่านี้พวกเขาเลือกที่จะคูณด้วยน้ำหนักหลังจากใช้ฟังก์ชั่นการเปิดใช้งานด้วยเหตุผล
ดูที่นี่ด้วย
:
นี้เป็นจากวิกิพีเดีย มันไม่ได้มีขอบเขตและสามารถเป็นค่าบวกได้แม้ว่าฉันจะสงสัยว่ามีวิธีการทำให้เป็นมาตรฐานหรือไม่
เมื่อ นี่เทียบเท่ากับสัมบูรณ์ (พร้อมเลื่อนแนวนอน )
เช่นเดียวกับกำลังสองยกเว้นพลิก:
* กราฟิกจาก intmath ของกราฟโดยใช้ SVG
หนึ่งในรายการดังกล่าว แต่ไม่ละเอียดมาก: http://cs231n.github.io/neural-networks-1/
ฟังก์ชั่นการเปิดใช้งานที่ใช้กันทั่วไป
ทุกฟังก์ชั่นการเปิดใช้งาน (หรือไม่ใช่เชิงเส้น ) รับหมายเลขเดียวและทำการดำเนินการทางคณิตศาสตร์คงที่บางอย่างกับมัน มีฟังก์ชั่นการเปิดใช้งานหลายอย่างที่คุณอาจพบในทางปฏิบัติ:
ซ้าย: Sigmoid ไม่ใช่เส้นตรงลบล้างจำนวนจริงในช่วงระหว่าง [0,1] ขวา: tanh ไม่ใช่เส้นตรงลบล้างตัวเลขจริงถึงช่วงระหว่าง [-1,1]sigmoid sigmoid ไม่ใช่เชิงเส้นมีรูปแบบทางคณิตศาสตร์และจะแสดงในภาพด้านบนทางซ้าย ตามที่กล่าวถึงในส่วนก่อนหน้ามันต้องใช้จำนวนจริงและ "สควอช" ในช่วงระหว่าง 0 และ 1 โดยเฉพาะอย่างยิ่งตัวเลขลบขนาดใหญ่กลายเป็น 0 และตัวเลขบวกขนาดใหญ่กลายเป็น 1 ฟังก์ชั่น sigmoid เนื่องจากมีการตีความที่ดีว่าอัตราการยิงของเซลล์ประสาท: จากการไม่ยิงเลย (0) ไปจนถึงการเผาที่อิ่มตัวอย่างเต็มที่ด้วยความถี่สูงสุดที่สันนิษฐาน (1) ในทางปฏิบัติ sigmoid non-linearity เพิ่งหลุดพ้นจากความโปรดปรานและไม่ค่อยมีใครเคยใช้ มันมีสองข้อเสีย:
- Sigmoids เปียกโชกและฆ่าไล่ระดับสี คุณสมบัติที่ไม่พึงประสงค์ของ sigmoid neuron คือเมื่อการกระตุ้นของเซลล์ประสาทอิ่มตัวที่ 0 หรือ 1 ทั้งสองการไล่ระดับสีในบริเวณนี้เกือบเป็นศูนย์ โปรดจำไว้ว่าในช่วง backpropagation การไล่ระดับสี (ในพื้นที่) นี้จะถูกคูณกับการไล่ระดับสีของเอาต์พุตของเกตนี้สำหรับวัตถุประสงค์ทั้งหมด ดังนั้นหากการไล่ระดับสีในพื้นที่มีขนาดเล็กมากมันจะ "ฆ่า" การไล่ระดับสีอย่างมีประสิทธิภาพและแทบไม่มีสัญญาณใดที่จะไหลผ่านเซลล์ประสาทไปยังน้ำหนักของมันและเรียกซ้ำไปยังข้อมูลของมัน นอกจากนี้เราต้องใช้ความระมัดระวังเป็นพิเศษเมื่อเริ่มต้นน้ำหนักของเซลล์ประสาท sigmoid เพื่อป้องกันความอิ่มตัว ตัวอย่างเช่นถ้าน้ำหนักเริ่มต้นมีขนาดใหญ่เกินไปเซลล์ประสาทส่วนใหญ่ก็จะอิ่มตัวและเครือข่ายก็แทบจะไม่ได้เรียนรู้
- เอาท์พุท sigmoid จะไม่เป็นศูนย์เป็นศูนย์กลาง สิ่งนี้ไม่เป็นที่พึงปรารถนาเนื่องจากเซลล์ประสาทในชั้นถัดไปของการประมวลผลในเครือข่ายประสาท (เพิ่มเติมในเร็ว ๆ นี้) จะได้รับข้อมูลที่ไม่เป็นศูนย์ เรื่องนี้มีผลกระทบต่อการเปลี่ยนแปลงในระหว่างการสืบเชื้อสายการไล่ระดับสีเพราะถ้าข้อมูลที่เข้ามาในเซลล์ประสาทเป็นบวกเสมอ (เช่น องค์ประกอบตามมา )) จากนั้นก็ไล่ระดับน้ำหนัก จะเกิดขึ้นในช่วง backpropagation เป็นทั้งบวกหรือลบทั้งหมด (ขึ้นอยู่กับการไล่ระดับสีของการแสดงออกทั้งหมด ) สิ่งนี้สามารถแนะนำพลวัตซิกซิกซิกที่ไม่พึงประสงค์ในการปรับปรุงการไล่ระดับสีสำหรับตุ้มน้ำหนัก อย่างไรก็ตามโปรดสังเกตว่าเมื่อมีการเพิ่มการไล่ระดับสีเหล่านี้ข้ามชุดข้อมูลการปรับปรุงขั้นสุดท้ายสำหรับตุ้มน้ำหนักอาจมีสัญญาณตัวแปรซึ่งจะช่วยบรรเทาปัญหานี้ได้บ้าง ดังนั้นนี่เป็นความไม่สะดวก แต่มีผลกระทบรุนแรงน้อยกว่าเมื่อเทียบกับปัญหาการเปิดใช้งานอิ่มตัวด้านบน
Tanh tanh ไม่ใช่เชิงเส้นจะปรากฏในภาพด้านบนด้านขวา มันจะกระจายจำนวนจริงที่มีค่าไปยังช่วง [-1, 1] เช่นเดียวกับ sigmoid neuron, การกระตุ้นของมันจะอิ่มตัว แต่ต่างจาก sigmoid neuron ที่มันมีศูนย์เป็นศูนย์ ดังนั้นในทางปฏิบัติtanh non-linearity จึงเป็นที่ต้องการของ sigmoid nonlinearity โปรดทราบด้วยว่า tanh neuron นั้นเป็น sigmoid neuron scaled โดยเฉพาะอย่างยิ่งสิ่งต่อไปนี้:.
ซ้าย:ฟังก์ชั่นการเปิดใช้งานฟังก์ชั่น Linear หน่วย (ReLU) ซึ่งเป็นศูนย์เมื่อ x <0 แล้วเชิงเส้นที่มีความชัน 1 เมื่อ x> 0 ขวา:พล็อตจาก Krizhevsky et al (pdf) กระดาษที่ระบุการปรับปรุงการบรรจบกันของ 6x กับหน่วย ReLU เทียบกับหน่วย tanhRelu หน่วยเชิงเส้นที่แก้ไขแล้วได้รับความนิยมอย่างมากในช่วงไม่กี่ปีที่ผ่านมา มันคำนวณฟังก์ชั่น. กล่าวอีกนัยหนึ่งการเปิดใช้งานจะถูก จำกัด ที่ศูนย์ (ดูรูปด้านบนทางซ้าย) มีข้อดีและข้อเสียหลายประการในการใช้ ReLUs:
- (+) พบว่ามีการเร่งความเร็วอย่างมาก (เช่นปัจจัยที่ 6 ในKrizhevsky et al. ) การลู่เข้าของการไล่ระดับสีแบบสุ่มน้อยเมื่อเทียบกับฟังก์ชัน sigmoid / tanh มันเป็นที่ถกเถียงกันอยู่ว่านี่เป็นเพราะเส้นตรงไม่ใช่ - แบบฟอร์ม
- (+) เมื่อเปรียบเทียบกับเซลล์ประสาท tanh / sigmoid ที่เกี่ยวข้องกับการดำเนินการที่มีราคาแพง (exponentials ฯลฯ ), ReLU สามารถดำเนินการได้โดยเพียงแค่นวดเมทริกซ์ของการเปิดใช้งานเป็นศูนย์
- (-) น่าเสียดายที่หน่วย ReLU อาจบอบบางในระหว่างการฝึกและสามารถ "ตาย" ได้ ตัวอย่างเช่นการไล่ระดับสีขนาดใหญ่ที่ไหลผ่านเซลล์ประสาท ReLU อาจทำให้น้ำหนักนั้นอัปเดตในลักษณะที่เซลล์ประสาทจะไม่เปิดใช้งานบนดาต้าพอยน์ใด ๆ อีก หากเกิดเหตุการณ์นี้การไล่ระดับสีที่ไหลผ่านหน่วยจะเป็นศูนย์ตลอดจากจุดนั้น นั่นคือหน่วย ReLU สามารถตายได้ในระหว่างการฝึกซ้อมอย่างไม่สามารถย้อนกลับได้เพราะพวกเขาสามารถทำให้ข้อมูลหลุดออกไปได้ ตัวอย่างเช่นคุณอาจพบว่ามากถึง 40% ของเครือข่ายของคุณสามารถ "ตาย" (เช่นเซลล์ประสาทที่ไม่เคยเปิดใช้งานในชุดข้อมูลการฝึกอบรมทั้งหมด) หากตั้งค่าอัตราการเรียนรู้สูงเกินไป ด้วยการตั้งค่าอัตราการเรียนรู้ที่เหมาะสมจึงไม่เกิดปัญหาบ่อยนัก
ReLU ที่รั่วไหล ReLU ที่ไม่มั่นคงเป็นความพยายามหนึ่งในการแก้ไขปัญหา "reLU ที่กำลังจะตาย" แทนที่จะทำหน้าที่เป็นศูนย์เมื่อ x <0 ReLU ที่รั่วจะแทนความชันเชิงลบขนาดเล็ก (0.01 หรือมากกว่านั้น) นั่นคือฟังก์ชั่นการคำนวณ ที่ไหน เป็นค่าคงที่ขนาดเล็ก บางคนรายงานความสำเร็จด้วยฟังก์ชั่นการเปิดใช้งานรูปแบบนี้ แต่ผลลัพธ์ไม่สอดคล้องกันเสมอไป ความลาดชันในภูมิภาคเชิงลบยังสามารถสร้างเป็นพารามิเตอร์ของแต่ละเซลล์ประสาทตามที่เห็นในเซลล์ประสาท PReLU ซึ่งได้รับการแนะนำในDelving Deep เป็นวงจรเรียงกระแสโดย Kaiming He et al., 2015 อย่างไรก็ตามความสม่ำเสมอของผลประโยชน์ในการทำงานในปัจจุบัน กำกวม
maxout มีการเสนอหน่วยประเภทอื่นที่ไม่มีแบบฟอร์มการทำงานที่ไม่เป็นเชิงเส้นถูกนำไปใช้กับผลิตภัณฑ์จุดระหว่างน้ำหนักและข้อมูล ทางเลือกที่ได้รับความนิยมอย่างหนึ่งคือ Maxout neuron (เพิ่งเปิดตัวโดย Goodfellow et al. ) ที่ทำให้โครงร่างของ ReLU และเวอร์ชั่นรั่วไหล เซลล์ประสาท Maxout คำนวณฟังก์ชัน. โปรดสังเกตว่าทั้ง ReLU และ LeLL ReLU เป็นกรณีพิเศษของแบบฟอร์มนี้ (ตัวอย่างเช่นสำหรับ ReLU เรามี) เซลล์ประสาท Maxout จึงได้รับประโยชน์ทั้งหมดจากหน่วย ReLU (ระบอบการทำงานเชิงเส้นไม่มีความอิ่มตัว) และไม่มีข้อเสีย (ตาย ReLU) อย่างไรก็ตามแตกต่างจากเซลล์ประสาท ReLU มันเป็นสองเท่าของจำนวนพารามิเตอร์สำหรับเซลล์ประสาททุกเดียวนำไปสู่จำนวนพารามิเตอร์สูง
นี่เป็นการสรุปการอภิปรายของเราเกี่ยวกับชนิดของเซลล์ประสาทที่พบมากที่สุดและฟังก์ชั่นการกระตุ้น เป็นความคิดเห็นล่าสุดมันเป็นเรื่องยากมากที่จะผสมและจับคู่เซลล์ประสาทประเภทต่าง ๆ ในเครือข่ายเดียวกันแม้ว่าจะไม่มีปัญหาพื้นฐานในการทำเช่นนั้น
TLDR : " ฉันควรใช้เซลล์ประสาทชนิดใด " ใช้ ReLU แบบไม่เชิงเส้นระวังอัตราการเรียนรู้ของคุณและอาจตรวจสอบเศษส่วนของยูนิต "ตาย" ในเครือข่าย หากสิ่งนี้เกี่ยวข้องกับคุณให้ลอง ReLU ที่มีการรั่วไหลหรือ Maxout อย่าใช้ sigmoid ลอง tanh แต่คาดว่ามันจะทำงานได้แย่กว่า ReLU / Maxout
ใบอนุญาต: ใบอนุญาต
MIT (MIT)ลิขสิทธิ์ (c) 2015 Andrej Karpathy
อนุญาตให้ผู้ใดก็ตามที่ได้รับสำเนาของซอฟต์แวร์นี้และไฟล์เอกสารที่เกี่ยวข้อง ("ซอฟต์แวร์") ได้รับอนุญาตโดยไม่คิดค่าใช้จ่ายในการจัดการซอฟต์แวร์โดยไม่มีข้อ จำกัด รวมถึง แต่ไม่ จำกัด เพียงสิทธิ์ในการใช้คัดลอกแก้ไขรวม เผยแพร่เผยแพร่แจกจ่ายใบอนุญาตและ / หรือขายสำเนาของซอฟต์แวร์และเพื่ออนุญาตให้บุคคลที่ซอฟต์แวร์ได้รับการตกแต่งให้ทำภายใต้เงื่อนไขดังต่อไปนี้:
ประกาศเกี่ยวกับลิขสิทธิ์ข้างต้นและประกาศการอนุญาตนี้จะรวมอยู่ในสำเนาทั้งหมดหรือบางส่วนที่สำคัญของซอฟต์แวร์
ซอฟต์แวร์นี้จัดหาให้ "ตามสภาพ" โดยไม่มีการรับประกันใด ๆ ไม่ว่าโดยชัดแจ้งหรือโดยนัยรวมถึง แต่ไม่ จำกัด เพียงการรับประกันของการค้าขายความเหมาะสมสำหรับวัตถุประสงค์เฉพาะและการไม่ละเมิด ไม่ว่าในกรณีใดผู้ทำสัญญาหรือผู้ถือลิขสิทธิ์จะต้องรับผิดต่อการเรียกร้องค่าเสียหายหรือความรับผิดอื่นใดไม่ว่าในกรณีใด ๆ ในการทำสัญญาการปลอมแปลงหรือการละเมิดใด ๆ ที่เกิดขึ้น ซอฟต์แวร์.*
ลิงค์อื่น ๆ :
ฉันไม่คิดว่ามีรายการที่มีข้อดีข้อเสียอยู่ ฟังก์ชั่นการเปิดใช้งานแอพลิเคชันเป็นอย่างมากขึ้นและพวกเขายังขึ้นอยู่กับสถาปัตยกรรมของเครือข่ายประสาทของคุณ ( ที่นี่เช่นคุณดูโปรแกรมของทั้งสองฟังก์ชั่น softmax ที่มีความคล้ายคลึงกับ sigmoid หนึ่ง)
คุณสามารถค้นหาการศึกษาบางอย่างเกี่ยวกับพฤติกรรมทั่วไปของฟังก์ชั่น แต่ฉันคิดว่าคุณจะไม่มีรายการที่ชัดเจนและชัดเจน (สิ่งที่คุณถาม ... )
ฉันยังเป็นนักเรียนอยู่ดังนั้นฉันจึงชี้ให้เห็นสิ่งที่ฉันรู้:
เพียงเพื่อประโยชน์ของความสมบูรณ์ในคำตอบที่ดีของแดเนียลที่มีกรอบความคิดอื่น ๆ ที่หนึ่งสุ่ม 'หมุนล้อ' ในน้ำหนักและ / หรือประเภทของการเปิดใช้งานนี้เครื่องสถานะของเหลว , เครื่องเรียนรู้มากและเครือข่ายรัฐก้อง
วิธีหนึ่งในการคิดเกี่ยวกับสถาปัตยกรรมเหล่านี้: อ่างเก็บน้ำเป็นเคอร์เนลประเภทหนึ่งใน SVM หรือเลเยอร์ขนาดใหญ่ที่ซ่อนอยู่ใน FFNN แบบเรียบง่ายที่มีการคาดการณ์ข้อมูลไว้ที่ไฮเปอร์สเปซบางส่วน ไม่มีการเรียนรู้ที่แท้จริงอ่างเก็บน้ำจะถูกสร้างขึ้นใหม่จนกว่าจะถึงทางออกที่น่าพอใจ
ดูคำตอบที่ดีเช่นนี้
บทความที่ทบทวนฟังก์ชั่นการเปิดใช้งานล่าสุดสามารถพบได้ใน
" ฟังก์ชั่นการเปิดใช้งาน: การเปรียบเทียบแนวโน้มในการปฏิบัติและการวิจัยเพื่อการเรียนรู้ลึก " โดย Chigozie Enyinna Nwankpa, Winifred Ijomah, Anthony Gachagan และ Stephen Marshall
เครือข่ายนิวรัลที่ลึกได้ถูกนำมาใช้อย่างประสบความสำเร็จในโดเมนเกิดใหม่ที่หลากหลายเพื่อแก้ปัญหาที่ซับซ้อนในโลกแห่งความเป็นจริงด้วยสถาปัตยกรรมการเรียนรู้ลึก (DL) ที่อาจได้รับการพัฒนาจนถึงปัจจุบัน เพื่อให้บรรลุการแสดงที่ล้ำสมัยเหล่านี้สถาปัตยกรรม DL ใช้ฟังก์ชั่นการเปิดใช้งาน (AFs) เพื่อทำการคำนวณที่หลากหลายระหว่างเลเยอร์ที่ซ่อนอยู่และเลเยอร์เอาท์พุทของสถาปัตยกรรม DL ที่กำหนด บทความนี้นำเสนอการสำรวจ AF ที่มีอยู่ซึ่งใช้ในแอปพลิเคชันการเรียนรู้เชิงลึกและไฮไลท์แนวโน้มล่าสุดในการใช้ฟังก์ชั่นการเปิดใช้งานสำหรับแอปพลิเคชันการเรียนรู้ลึก ความแปลกใหม่ของบทความนี้คือการรวบรวม AFs ส่วนใหญ่ที่ใช้ใน DL และสรุปแนวโน้มปัจจุบันของแอพพลิเคชั่นและการใช้งานฟังก์ชั่นเหล่านี้ในการปรับใช้การเรียนรู้เชิงลึกกับภาคปฏิบัติกับผลการวิจัยที่ล้ำสมัย การรวบรวมนี้จะช่วยในการตัดสินใจที่มีประสิทธิภาพในการเลือกฟังก์ชั่นการเปิดใช้งานที่เหมาะสมและเหมาะสมที่สุดสำหรับแอปพลิเคชันที่กำหนดพร้อมสำหรับการปรับใช้ บทความนี้เป็นเวลาที่เหมาะสมเพราะงานวิจัยส่วนใหญ่เกี่ยวกับ AF เน้นงานและผลลัพธ์ที่คล้ายกันในขณะที่บทความนี้จะเป็นครั้งแรกเพื่อรวบรวมแนวโน้มในการใช้งาน AF ในทางปฏิบัติกับผลการวิจัยจากวรรณกรรมที่พบในการวิจัยเชิงลึกจนถึงปัจจุบัน