ฉันมีคำถามที่ได้รับแรงบันดาลใจจากเรื่องอื้อฉาวการรับสมัครงานล่าสุดของ Amazon ที่พวกเขาถูกกล่าวหาว่าเลือกปฏิบัติต่อสตรีในกระบวนการสรรหา ข้อมูลเพิ่มเติมที่นี่ :
ผู้เชี่ยวชาญด้านการเรียนรู้เครื่องจักรของ Amazon.com Inc เปิดเผยปัญหาใหญ่: เครื่องมือการสรรหาคนใหม่ของพวกเขาไม่ชอบผู้หญิง
ทีมได้สร้างโปรแกรมคอมพิวเตอร์ตั้งแต่ปี 2014 เพื่อตรวจสอบประวัติย่อของผู้สมัครงานโดยมีจุดประสงค์ในการค้นหาผู้มีความสามารถสูงสุด ......
เครื่องมือการทดลองเชิงทดลองของ บริษัท ใช้ปัญญาประดิษฐ์เพื่อให้คะแนนผู้สมัครงานตั้งแต่หนึ่งถึงห้าดาว ...
... แต่ในปี 2558 บริษัท ตระหนักว่าระบบใหม่ไม่ใช่การให้คะแนนผู้สมัครสำหรับงานพัฒนาซอฟต์แวร์และการโพสต์ทางเทคนิคอื่น ๆ ในลักษณะที่เป็นกลางทางเพศ
นั่นเป็นเพราะโมเดลคอมพิวเตอร์ของอเมซอนได้รับการฝึกฝนให้ใช้สัตว์แพทย์โดยการสังเกตรูปแบบการดำเนินการต่อที่ส่งมาถึง บริษัท ในช่วงระยะเวลา 10 ปี ส่วนใหญ่มาจากผู้ชายซึ่งเป็นภาพสะท้อนของการครอบงำชายในอุตสาหกรรมเทคโนโลยี (สำหรับกราฟิกเกี่ยวกับการแยกเพศในเทคโนโลยีดูที่นี่ ) ผลของระบบ Amazon สอนตัวเองว่าผู้สมัครชายเป็นที่ต้องการ มันดำเนินการลงโทษที่รวมคำว่า "ผู้หญิง" ไว้ใน "กัปตันชมรมหมากรุกของผู้หญิง" และมันได้ปรับลดบัณฑิตของวิทยาลัยสตรีทั้งสองแห่งตามที่คนคุ้นเคยกับเรื่องนี้ พวกเขาไม่ได้ระบุชื่อโรงเรียน
Amazon แก้ไขโปรแกรมเพื่อให้เป็นกลางกับข้อกำหนดเฉพาะเหล่านี้ แต่นั่นไม่รับประกันว่าเครื่องจะไม่คิดวิธีการคัดแยกผู้สมัครที่สามารถพิสูจน์การเลือกปฏิบัติได้
ท้ายที่สุด บริษัท ซีแอตเทิลยกเลิกทีมเมื่อต้นปีที่แล้วเพราะผู้บริหารสูญเสียความหวังในโครงการ
...... การทดลองของ บริษัท ... เสนอกรณีศึกษาเกี่ยวกับข้อ จำกัด ของการเรียนรู้ของเครื่อง
... นักวิทยาศาสตร์คอมพิวเตอร์เช่น Nihar Shah ผู้สอนการเรียนรู้เครื่องจักรที่มหาวิทยาลัย Carnegie Mellon กล่าวว่ายังมีงานอีกมากที่ต้องทำ
“ วิธีการตรวจสอบให้แน่ใจว่าอัลกอริทึมนั้นยุติธรรมวิธีการทำให้แน่ใจว่าอัลกอริทึมนั้นสามารถตีความและอธิบายได้จริง ๆ ซึ่งยังอยู่ค่อนข้างไกล” เขากล่าวภาษา MASCULINE LANGUAGE
[Amazon] จัดตั้งทีมในศูนย์กลางวิศวกรรม Edinburgh ของ Amazon ซึ่งเติบโตขึ้นเป็นประมาณสิบคน เป้าหมายของพวกเขาคือการพัฒนา AI ที่สามารถรวบรวมข้อมูลจากเว็บและผู้สมัครที่มีค่าควรสรรหาบุคลากรที่คุ้นเคยกับเรื่องดังกล่าว
กลุ่มสร้างโมเดลคอมพิวเตอร์ 500 รุ่นที่เน้นฟังก์ชั่นงานและสถานที่เฉพาะ พวกเขาสอนแต่ละคนให้รู้จักคำศัพท์ 50,000 คำที่ปรากฏในประวัติย่อของผู้สมัครที่ผ่านมา อัลกอริทึมเรียนรู้ที่จะกำหนดความสำคัญเล็กน้อยให้กับทักษะที่ใช้กันทั่วไปในผู้สมัครงานไอทีเช่นความสามารถในการเขียนรหัสคอมพิวเตอร์ต่าง ๆ ...
แทนที่จะให้เทคโนโลยีผู้สมัครที่อธิบายตัวเองด้วยการใช้คำกริยาที่พบบ่อยในวิศวกรชาย "ดำเนินการ" และ "จับ" บุคคลหนึ่งกล่าว
สมมติว่าฉันต้องการสร้างแบบจำลองทางสถิติเพื่อทำนายผลลัพธ์บางอย่างจากข้อมูลส่วนบุคคลเช่นการจัดอันดับห้าดาวเพื่อช่วยในการสรรหาคนใหม่ สมมติว่าฉันต้องการหลีกเลี่ยงการเลือกปฏิบัติทางเพศด้วยเช่นกันในฐานะข้อ จำกัด ทางจริยธรรม ให้โปรไฟล์ที่มีค่าเท่ากันสองอย่างนอกเหนือจากเพศผลลัพธ์ของโมเดลควรเหมือนกัน
ฉันควรใช้เพศ (หรือข้อมูลใด ๆ ที่มีความสัมพันธ์กับมัน) เป็นอินพุตและพยายามแก้ไขผลกระทบหรือหลีกเลี่ยงการใช้ข้อมูลเหล่านี้?
ฉันจะตรวจสอบว่าไม่มีการเลือกปฏิบัติต่อเพศได้อย่างไร
ฉันจะแก้ไขโมเดลของฉันสำหรับข้อมูลที่เลือกปฏิบัติทางสถิติได้อย่างไร แต่ฉันไม่ต้องการเหตุผลด้านจริยธรรม