AI บางอย่างไม่ควรมีอยู่จริง

Isku Day Aaladdayada Si Loo Ciribtiro Dhibaatooyinka

ความพยายามที่จะแก้ไข AI ที่มีอคติสามารถทำร้ายคนผิวดำ เกย์ และคนข้ามเพศได้

การสาธิตสดใช้การจดจำใบหน้าในฝูงชนหนาแน่นที่นิทรรศการ Horizon Robotics ในปี 2019

การสาธิตสดใช้การจดจำใบหน้าในฝูงชนหนาแน่นที่นิทรรศการ Horizon Robotics ในปี 2019

รูปภาพของ David McNew / AFP / Getty

เรื่องนี้เป็นส่วนหนึ่งของกลุ่มเรื่องที่เรียกว่า อนาคตที่สมบูรณ์แบบ

หาวิธีทำความดีให้มากที่สุด

อคติของมนุษย์สามารถซึมเข้าไปในระบบ AI Amazon ละทิ้งอัลกอริทึมการสรรหาบุคลากร หลังจากที่ปรากฏว่าชอบเรซูเม่ของผู้ชายมากกว่าผู้หญิง นักวิจัยสรุป an อัลกอริทึมที่ใช้ในการพิจารณาคดีในชั้นศาล อ่อนโยนต่อคนผิวขาวมากกว่าคนผิวดำ จากการศึกษาพบว่า อัลกอริทึมการจำนอง เลือกปฏิบัติต่อผู้กู้ชาวลาตินและแอฟริกันอเมริกัน

อุตสาหกรรมเทคโนโลยีรู้เรื่องนี้ และบางบริษัทเช่น IBM กำลังเปิดตัวชุดเครื่องมือ debiasing เพื่อจัดการกับปัญหา เหล่านี้นำเสนอวิธีการสแกนหาอคติในระบบ AI กล่าวโดยการตรวจสอบข้อมูลที่พวกเขาได้รับการฝึกอบรมและปรับเพื่อให้มีความเป็นธรรมมากขึ้น

แต่ความเหลื่อมล้ำทางเทคนิคนั้นไม่เพียงพอและอาจส่งผลให้เกิดอันตรายมากยิ่งขึ้นตาม a รายงานใหม่จากสถาบัน AI Now .

ผู้เขียนสามคนกล่าวว่าเราจำเป็นต้องให้ความสนใจกับวิธีการใช้ระบบ AI ในโลกแห่งความเป็นจริง ถึงแม้ว่าพวกเขาจะได้รับความเอนเอียงทางเทคนิคแล้วก็ตาม และเราต้องยอมรับว่าระบบ AI บางระบบไม่ควรออกแบบเลย

ระบบจดจำใบหน้าที่อาจแก้ไขไม่ได้

เทคโนโลยีการจดจำใบหน้าค่อนข้างดีในการระบุคนผิวขาว แต่การจดจำใบหน้าสีดำนั้นไม่ดีอย่างฉาวโฉ่ ที่สามารถสร้างผลลัพธ์ที่น่ารังเกียจได้มาก — เช่น เมื่อ ระบบจดจำภาพของ Google ระบุว่าชาวแอฟริกันอเมริกันเป็นกอริลล่า ในปี 2015 แต่เนื่องจากเทคโนโลยีนี้ถูกนำมาใช้ในการเฝ้าระวังของตำรวจ ซึ่งกำหนดเป้าหมายคนผิวสีอย่างไม่เป็นสัดส่วน บางทีเราอาจไม่ต้องการให้เทคโนโลยีนี้สามารถระบุคนผิวสีได้ดีเยี่ยม เนื่องจาก Zoé Samudzi เพิ่งเขียนใน Daily Beast :

ในประเทศที่การป้องกันอาชญากรรมเชื่อมโยงความมืดมิดกับอาชญากรรมโดยกำเนิดแล้ว เหตุใดเราจึงต้องต่อสู้เพื่อให้ใบหน้าของเราอ่านง่ายยิ่งขึ้นในระบบที่ออกแบบมาเพื่อตำรวจ … ไม่ใช่ความก้าวหน้าทางสังคมในการทำให้คนผิวดำมองเห็นได้เท่าๆ กันกับซอฟต์แวร์ที่จะถูกติดอาวุธโจมตีเราอย่างหลีกเลี่ยงไม่ได้

กล่าวอีกนัยหนึ่ง การทำให้มั่นใจว่าระบบ AI ทำงานได้ดีกับทุกคนไม่ได้หมายความว่าระบบจะทำงานได้ดีเช่นกัน สำหรับ ทุกคน. แม้ว่ารายงานไม่ได้ระบุอย่างชัดเจนว่าเราควรยกเลิกระบบจดจำใบหน้าที่ใช้สำหรับการเฝ้าระวังของตำรวจ แต่ก็เน้นว่าเราไม่สามารถสรุปได้ว่าการกระจายชุดข้อมูลของพวกเขาจะช่วยแก้ปัญหาได้ - มันอาจทำให้รุนแรงขึ้น

เทคโนโลยีการจดจำใบหน้ายังสร้างปัญหาให้กับคนข้ามเพศอีกด้วย ตัวอย่างเช่น บางส่วน ทรานส์ Uber ไดรเวอร์ ถูกระงับบัญชีเนื่องจากบริษัทใช้ระบบจดจำใบหน้าเป็นคุณสมบัติความปลอดภัยในตัว และระบบไม่สามารถระบุใบหน้าของผู้ที่กำลังจะเปลี่ยนแปลงได้ การเริ่มต้นใช้งานแอปต้องเสียค่าโดยสารและต้นทุนงานอย่างมีประสิทธิภาพ

มีวิธีแก้ปัญหาที่นี่เพื่อแก้ไขอคติในระบบ AI โดยทำให้แน่ใจว่ามีคนข้ามเพศจำนวนมากรวมอยู่ในข้อมูลการฝึกอบรมหรือไม่ อีกครั้ง debiasing อาจฟังดูดี – จนกว่าคุณจะรู้ว่านั่นจะนำไปสู่การรวบรวมข้อมูลจำนวนมากในชุมชนที่มีเหตุผลที่จะรู้สึกไม่สบายใจอย่างยิ่งกับการรวบรวมข้อมูล

เมื่อไม่กี่ปีมานี้ ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่ต้องการฝึกซอฟต์แวร์ให้รู้จักผู้ที่เข้ารับการบำบัดด้วยฮอร์โมนทดแทน รวบรวมวิดีโอจากทรานส์ YouTubers โดยไม่ได้รับความยินยอมจากพวกเขา . เขาได้รับการตอบกลับมากมายตามที่ The Verge รายงาน:

แดเนียลซึ่งมีข้อมูลอยู่ในชุดข้อมูลและมีรูปภาพทรานสิชั่นปรากฏในเอกสารทางวิทยาศาสตร์ด้วยเหตุนี้ กล่าวว่าเธอไม่เคยได้รับการติดต่อเกี่ยวกับการรวมของเธอ ฉันไม่ได้ 'ซ่อน' ตัวตนของฉัน ... แต่สิ่งนี้รู้สึกเหมือนเป็นการละเมิดความเป็นส่วนตัว ... คนที่ทำงานใน 'ศาสตร์แห่งอัตลักษณ์' ควรเข้าใจความหมายของการระบุตัวบุคคล โดยเฉพาะผู้ที่มีตัวตนอาจทำให้พวกเขาตกเป็นเป้าหมาย (เช่น คนข้ามเพศใน ทหารที่อาจจะไม่ออก)

แทนที่จะมีส่วนร่วมในการรวบรวมข้อมูลจำนวนมากโดยไม่ได้รับความยินยอมในชื่อการแก้ไขระบบ AI บริษัท ต่างๆเช่น Uber อาจทำได้ดีกว่าเพียงแค่อนุญาตให้ใช้วิธีการตรวจสอบบัญชีที่แตกต่างกันสำหรับผู้ขับทรานส์รายงานฉบับใหม่ระบุ แม้ว่าบริษัทจะยืนยันที่จะใช้ระบบการเข้าสู่ระบบด้วยรหัสใบหน้าสำหรับพนักงาน แต่ก็ไม่มีเหตุผลใดที่ควรเป็นตัวเลือกเดียว

ไม่ควรสร้างระบบอัลกอริธึม gaydar ระยะเวลา.

มีความพยายามซ้ำแล้วซ้ำเล่าเพื่อสร้างอัลกอริธึมการจดจำใบหน้าที่สามารถบอกได้ว่ามีคนเป็นเกย์หรือไม่ ในปี 2560 การศึกษาของมหาวิทยาลัยสแตนฟอร์ด อ้างว่าอัลกอริธึมสามารถแยกแยะความแตกต่างระหว่างชายรักชายและชายแท้ได้ 81 เปอร์เซ็นต์ของเวลาโดยอิงจากภาพเฮดช็อต โดยอ้างว่ามีความแม่นยำถึง 74 เปอร์เซ็นต์สำหรับผู้หญิง การศึกษานี้ใช้ภาพถ่ายหาคู่ออนไลน์ของผู้คน (ผู้เขียนไม่ได้บอกว่าจากเว็บไซต์ใด) และทดสอบอัลกอริทึมกับผู้ใช้ผิวขาวเท่านั้น โดยอ้างว่าไม่พบคนสีมากพอ

นี่เป็นปัญหาในหลายระดับ: ถือว่าเรื่องเพศเป็นเรื่องเลขสองและชัดเจนในลักษณะใบหน้าของเรา และแม้ว่าจะสามารถตรวจจับเพศทางเลือกด้วยวิธีนี้ได้ ใครจะได้รับประโยชน์จากอัลกอริทึมเกย์ดาร์ที่แพร่หลาย ไม่ใช่คนแปลกหน้าอย่างแน่นอน ซึ่งอาจถูกต่อต้านจากเจตจำนงของพวกเขา รวมถึงโดยรัฐบาลในประเทศที่การมีเพศสัมพันธ์กับคู่เพศเดียวกันถือเป็นอาชญากร ในฐานะ Ashland Johnson ผู้อำนวยการฝ่ายการศึกษาและการวิจัยสาธารณะของ Human Rights Campaign วางไว้ :

ลองนึกภาพสักครู่ถึงผลที่อาจเกิดขึ้นหากงานวิจัยที่มีข้อบกพร่องนี้ถูกนำมาใช้เพื่อสนับสนุนความพยายามของระบอบการปกครองที่โหดร้ายในการระบุตัวและ/หรือกลั่นแกล้งผู้คนที่พวกเขาเชื่อว่าเป็นเกย์ สแตนฟอร์ดควรทำตัวห่างเหินจากวิทยาศาสตร์ขยะ แทนที่จะให้ชื่อและความน่าเชื่อถือแก่การวิจัยที่มีข้อบกพร่องที่เป็นอันตรายและละทิ้งโลก — และในกรณีนี้ ชีวิตของผู้คนนับล้าน — แย่กว่าและปลอดภัยน้อยกว่าเมื่อก่อน

Sarah Myers West หนึ่งในผู้เขียนรายงาน AI Now กล่าวในการแถลงข่าวว่าไม่ควรสร้างระบบ gaydar ที่เป็นอัลกอริธึม ทั้งสองอย่างนี้เป็นเพราะวิทยาศาสตร์เทียมและเพราะพวกเขาทำให้คน LGBTQ ตกอยู่ในความเสี่ยง นักวิจัยกล่าวว่า 'เราแค่ทำเช่นนี้เพราะเราต้องการแสดงให้เห็นว่าระบบเหล่านี้น่ากลัวแค่ไหน' แต่จากนั้นพวกเขาก็อธิบายรายละเอียดอย่างชัดเจนว่าคุณจะสร้างระบบดังกล่าวได้อย่างไร

ผู้เขียนร่วม Kate Crawford ระบุตัวอย่างปัญหาอื่นๆ เช่น ความพยายามในการ ทำนายความผิดทางใบหน้า และ ประเมินความสามารถของคนงานโดยพิจารณาจากการแสดงออกทางจุลภาค การศึกษาลักษณะทางกายภาพเพื่อเป็นตัวแทนของตัวละครนั้นชวนให้นึกถึงประวัติศาสตร์อันมืดมนของวิทยาศาสตร์เชื้อชาติ เธอกล่าว โดยเฉพาะอย่างยิ่งสาขาการทำนายลักษณะทางกายวิภาคที่หักล้างซึ่งพยายามหาลักษณะนิสัยจากรูปร่างกะโหลกศีรษะและ เรียกโดย supremacists ผิวขาวในศตวรรษที่ 19 อเมริกา .

เราเห็นระบบเหล่านี้เลียนแบบรูปแบบของเชื้อชาติและอคติทางเพศในรูปแบบที่อาจลึกซึ้งและแสดงให้เห็นถึงความอยุติธรรมอย่างแท้จริง Crawford เตือนโดยสังเกตว่ามีการแสดงบริการจดจำใบหน้าเพื่อกำหนด อารมณ์เชิงลบ (เช่นความโกรธ) กับคนผิวดำมากกว่าคนผิวขาว เพราะอคติของมนุษย์เล็ดลอดเข้าไปในข้อมูลการฝึก

ด้วยเหตุผลทั้งหมดนี้ นักวิชาการและผู้สนับสนุนจึงเป็นที่ยอมรับมากขึ้นเรื่อยๆ ว่าระบบ AI ที่มีอคติบางระบบไม่ควรแก้ไข แต่ละทิ้งไป ตามที่ผู้เขียนร่วม Meredith Whittaker กล่าวว่า เราต้องมองข้ามการแก้ไขทางเทคนิคสำหรับปัญหาสังคม ต้องถามก่อนว่า ใครมีอำนาจ? ใครโดนทำร้าย? ใครได้ประโยชน์? และท้ายที่สุด ใครเป็นผู้ตัดสินใจว่าเครื่องมือเหล่านี้ถูกสร้างขึ้นมาอย่างไรและใช้เพื่อวัตถุประสงค์ใด


สมัครรับจดหมายข่าว Future Perfect คุณจะได้รับแนวคิดและแนวทางแก้ไขต่างๆ สัปดาห์ละสองครั้งเพื่อจัดการกับความท้าทายที่ยิ่งใหญ่ที่สุดของเรา: การปรับปรุงด้านสาธารณสุข การลดความทุกข์ทรมานของมนุษย์และสัตว์ การลดความเสี่ยงจากภัยพิบัติ และพูดง่ายๆ ก็คือ การทำความดีให้ดีขึ้น