เหตุใดจริยธรรมจึงไม่รวมเข้ากับระบบ AI ปัจจุบันมากกว่า


9

ฉันเป็นนักศึกษาปริญญาเอกสาขาวิทยาศาสตร์คอมพิวเตอร์และในขณะนี้กำลังสร้างภาพรวมที่ทันสมัยในการใช้งานที่กระทำใน Machine Ethics (สาขาสหวิทยาการผสมผสานปรัชญาและ AI ซึ่งมีลักษณะที่การสร้างโปรแกรมหรือตัวแทนด้านจริยธรรมที่ชัดเจน) ดูเหมือนว่าสนามส่วนใหญ่จะมีข้อโต้แย้งเชิงทฤษฎีและมีการใช้งานค่อนข้างน้อยแม้ว่าจะมีคนจำนวนมากที่มีภูมิหลังทางเทคนิคในสาขานี้

ฉันเข้าใจว่าเนื่องจากมีส่วนเกี่ยวข้องกับจริยธรรมจึงไม่มีความจริงใด ๆ และเนื่องจากเป็นส่วนหนึ่งของปรัชญาที่เราจะเสียไปในการพิจารณาว่าควรนำจริยธรรมประเภทใดมาใช้และวิธีนี้ทำได้ดีที่สุด อย่างไรก็ตามในด้านวิทยาศาสตร์คอมพิวเตอร์เป็นเรื่องปกติที่จะลองใช้งานง่าย ๆ เพื่อแสดงความเป็นไปได้หรือข้อ จำกัด ของวิธีการของคุณ

อะไรคือเหตุผลที่เป็นไปได้ที่มีการดำเนินการเพียงเล็กน้อยในการใช้จริยธรรมอย่างชัดเจนใน AI และทำการทดลองกับมัน?


2
ตัวอย่างของวิธีการที่สามารถพบได้ในนี้และนี้กระดาษภาพรวม
Suzanne

คำตอบ:


2

นี่เป็นคำตอบระดับสูงและเป็นการเก็งกำไรสูง แต่ฉันคิดคำถามนี้และนี่คือความคิดของฉัน:

  • การใช้อัลกอริธึมเชิงจริยธรรมนั้นต้องอาศัยพื้นฐานทางคณิตศาสตร์สำหรับปรัชญาเพราะคอมพิวเตอร์เป็นเครื่องมือที่ต่างกัน

หลังจากความล้มเหลวที่โด่งดังของ Russell & Whitehead และทฤษฎีบทที่ไม่สมบูรณ์ของGödelสิ่งนี้ดูเหมือนจะเป็นปัญหา

  • AI เป็นสาขาที่มีการใช้อย่างมากโดยเฉพาะอย่างยิ่งในปัจจุบันต่อการตรวจสอบการเรียนรู้อย่างต่อเนื่องและ บริษัท ไม่ต้องการเข้าไปใกล้ประเด็นด้านจริยธรรมเว้นแต่พวกเขาจะถูกบังคับให้

ดังนั้นคุณจะเห็นมันในรถที่ขับเองเพราะวิศวกรไม่มีทางเลือกนอกจากต้องรับมือกับปัญหา ในทางตรงกันข้ามฉันไม่คิดว่าคุณจะเห็น บริษัท การค้าหุ้นแบบอัลกอริธึมหลายแห่งที่ธุรกิจมีประสิทธิภาพแบบ Paretoกังวลเกี่ยวกับจริยธรรมหรือผลกระทบทางสังคมจากการเก็งกำไรทางการเงิน (วิธีแก้ปัญหา "แฟลชล่ม" ดูเหมือนว่าจะเป็นกฎสำหรับการหยุดการซื้อขายชั่วคราวแทนการกล่าวถึงมูลค่าทางสังคมของการซื้อขายอัลกอริธึมความถี่สูง) ตัวอย่างที่ชัดเจนยิ่งขึ้นคือ บริษัท สื่อสังคมออนไลน์ละเลยการละเมิดข้อมูลจำนวนมาก และข้อมูลที่ผิด) ถูกโพสต์บนเว็บไซต์ของพวกเขาขอร้องความไม่รู้ซึ่งเป็นที่น่าสงสัยอย่างมากว่ากิจกรรมที่เกิดจากการใช้ข้อมูลที่ไม่เหมาะสมส่งผลกระทบในทางบวก

  • สาขาที่สมัครมีแนวโน้มที่จะได้รับแรงผลักดันจากผลกำไรเป็นหลัก

แนวทางหลักของ บริษัท คือการคืนกำไรให้กับนักลงทุน ไม่ใช่เรื่องแปลกสำหรับ บริษัท ที่จะผิดกฎหมายเมื่อค่าปรับและบทลงโทษที่คาดว่าจะน้อยกว่าผลกำไรที่เกิดจากกิจกรรมที่ผิดกฎหมาย (มีแนวคิดเรื่องจริยธรรมในการดำเนินธุรกิจ แต่วัฒนธรรมโดยทั่วไปดูเหมือนจะตัดสินผู้คนและ บริษัท ตามเงินที่พวกเขาทำเงินโดยไม่คำนึงถึงวิธีการ)

  • มีการสำรวจการใช้จรรยาบรรณเครื่องจักรในพื้นที่ที่จำเป็นต้องขายผลิตภัณฑ์ แต่ที่อื่น ๆ ก็ยังคงเป็นสมมุติฐานส่วนใหญ่

ถ้าปัญญาประดิษฐ์พัฒนาและกำจัดมนุษยชาติ (เพราะคนฉลาดมากที่มีทักษะคณิตศาสตร์เหนือกว่าเตือนเราเกี่ยวกับ) ความรู้สึกของฉันคือมันจะเป็นหน้าที่ของธรรมชาติที่วิวัฒนาการของอัลกอริธึมที่ไม่ จำกัด นั้นเกิดจากแรงขับเคลื่อนทางเศรษฐกิจ - ออโตปาร์ตี้ในอุตสาหกรรมเช่นการเก็งกำไรทางการเงินและสงครามอิสระ โดยพื้นฐานแล้วการไล่ล่าให้ผลกำไรในทุกต้นทุนโดยไม่คำนึงถึงผลกระทบ


สิ่งที่น่าสนใจด้านผลกำไร! ไม่ได้คิดอย่างนั้นตั้งแต่ฉันจดจ่ออยู่กับเหตุผลการวิจัย แต่มันก็สมเหตุสมผลว่าไม่มีแรงกดดันจากภาคอุตสาหกรรมทั้งสำหรับการวิจัยเพื่อดำเนินการต่อไป
Suzanne

@SuzanneTolmeijer ขอบคุณ ฉันได้ศึกษาแล้วว่าทฤษฎีของเกมเชื่อมโยงกับจริยธรรมมากี่ปีแล้ว (ส่วนใหญ่ปรัชญาต้นที่ตัวอย่างเช่น "สมดุล" ถูกกล่าวว่าเป็น "ดี" - สมดุลเป็นหน้าที่สมดุลและสามารถแม่นยำกำหนดทางคณิตศาสตร์มันเกี่ยวข้องกับเศรษฐศาสตร์ในความมั่นคงที่เป็นที่เข้าใจกันโดยทั่วไปจะดีที่สุดที่ ความไม่แน่นอนนั้นอาจเป็นความหายนะ) แต่ฉันไม่ใช่คนเดียวที่สนับสนุน AI ซึ่งได้สัมผัสกับการขับเคลื่อนทางเศรษฐกิจในสาขานี้และอันตรายที่อาจเกิดขึ้นจากสิ่งที่ฉันเรียกว่า "hyperpartisan AI"
DukeZhou

1

ฉันรู้สึกเป็นส่วนหนึ่งของปัญหาว่าทำไมถึงมีการนำเทคโนโลยี AI / ML ไปใช้ในเชิงจริยธรรมน้อยมากนั่นเป็นเพราะไม่มีความจำเป็นหรือการประยุกต์ใช้กรอบแนวคิดเชิงทฤษฎีที่เหมาะสม

จากนี้ฉันหมายความว่าไม่มีวิธีที่สำคัญที่เราสามารถใช้ความเข้าใจนี้กับอัลกอริทึมและแบบจำลองที่ไม่สามารถโต้ตอบในลักษณะที่มีความหมาย เรามีกรอบทฤษฎีขนาดใหญ่เกี่ยวกับความปลอดภัย / จริยธรรมของ AI เพราะเป็นสิ่งสำคัญอย่างยิ่ง เราจำเป็นต้องหาแนวทางที่ปลอดภัยสำหรับการใช้ AI ที่แข็งแกร่งก่อนที่จะถูกสร้างขึ้น

เอกสารที่เน้นบางอย่างได้เริ่มต้นที่จะแคบลงปัญหาในการสร้างระบบ AI จริยธรรม / ปลอดภัย ดูปัญหาคอนกรีตในความปลอดภัยของ AI


ดูเหมือนว่าจะมีความต้องการจริยธรรมที่ชัดเจนนักวิจัยอย่างน้อยหลายคนเรียกร้องให้มีการพัฒนาจริยธรรมที่ชัดเจน (เช่นมัวร์ 2006 ) ในแง่ของการประยุกต์ใช้กรอบทฤษฎีอย่างเหมาะสมคุณอาจพูดถูก: การนำไปใช้เป็นการตีความหมายบางอย่างในบางกรณีซึ่งสามารถพิสูจน์ได้ยาก อย่างไรก็ตามคุณยอมรับว่าคำแนะนำด้านความปลอดภัยสำหรับ AI นั้นสำคัญซึ่งหมายความว่าแนวทางปฏิบัติในสิ่งที่เราคิดว่าเป็น 'ถูกต้อง' หรือ 'จริยธรรม' สำหรับเครื่องของเราที่จะทำ แนวทางเหล่านี้จะบอกเป็นนัยถึงวิธีการนำจริยธรรมไปใช้ในเครื่องจักรในบางวิธี
Suzanne

1

ด้วยวิธีการเลียนแบบพฤติกรรมที่เหมาะสมที่สุดสามารถรวมเข้ากับปัญญาประดิษฐ์ ปัญญาประดิษฐ์สามารถปรับเปลี่ยนได้เมื่อตำแหน่งทางจริยธรรมเปลี่ยนแปลงไป มันถูกใช้เพื่อจุดประสงค์ทางอุดมการณ์หรือเพื่อรวบรวมข้อมูล มันไม่ชัดเจนว่าหุ่นยนต์คืออะไร


1

เราสามารถนำโมเดลข้อผิดพลาดไปทำบัญชีได้ การรับรู้อคติและความแปรปรวนระหว่างประสิทธิภาพการทำงานภายใต้เครือข่ายประสาทสามารถเป็นขั้นตอนแรก และจากนั้นเราสามารถพูดคุยได้ว่าการแสดงดังกล่าวได้รับอนุญาตหรือไม่ เท่าที่เราทราบการฝึกฝนจริยธรรมต้องใช้การศึกษาเชิงประจักษ์และการศึกษาภาคสนาม เราไม่สามารถใช้เหตุผลและเรียงความกระดาษเพื่อตัดสินว่าการเรียนรู้ของเครื่องจักรที่เรียนรู้นั้นผิดหรือไม่ สามารถแบ่งออกเป็นอุบัติเหตุข้อผิดพลาดหรือข้อบกพร่องที่สร้างขึ้นจากนักพัฒนา


จุดที่น่าสนใจที่คุณยกมาที่นี่นั้นเป็นพื้นซึ่งสามารถใช้มาตรการใดในการทดสอบระบบและคุณจะทราบได้อย่างไรว่าระบบทำงานได้อย่างถูกต้องหรือไม่ นี่คือสิ่งที่ขาดหายไปในสนามและฉันรู้สึกว่าเป็นส่วนหนึ่งของปัญหาจริง ๆ : วิธีทดสอบระบบของคุณโดยปราศจากความจริง มาตรการใดที่มีมิติเหมาะสมในบริบทของอัลกอริทึมทางจริยธรรมที่ชัดเจน หากปราศจากสิ่งนั้นคุณจะไม่มีทางเปรียบเทียบระบบซึ่งจำกัดความคืบหน้าในฟิลด์
Suzanne

1

การพูดอย่างสังหรณ์ใจดูเหมือนว่าจะมีกรณีที่มีการวิจัยเพียงเล็กน้อยเกี่ยวกับการนำจริยธรรมของ AI มาใช้เพราะ:

  1. สังคมโดยรวมดูเหมือนว่าจะเห็นด้วยอย่างสบายใจว่าสถานะของความฉลาดทางกลไกในปัจจุบันไม่แข็งแรงพอที่จะถือว่าเป็นสติหรือความรู้สึก ดังนั้นเราไม่จำเป็นต้องให้สิทธิ์ทางจริยธรรม (ยัง)

  2. การใช้พฤติกรรมทางจริยธรรมในโปรแกรมต้องใช้วิธีการที่คอมพิวเตอร์สามารถตีความ "ความหมาย" ซึ่งเรายังไม่รู้ว่าจะต้องทำอย่างไร

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.