ความลำเอียงของอัลกอริทึมอาจเกิดขึ้นจากการขาดข้อมูลการฝึกอบรมที่เหมาะสม หรือเป็นผลมาจากการออกแบบหรือกำหนดค่าระบบที่ไม่เหมาะสม ตัวอย่างเช่น ระบบที่ช่วยให้ธนาคารตัดสินใจว่าจะปล่อยสินเชื่อหรือไม่ โดยทั่วไปจะได้รับการฝึกอบรมโดยใช้ชุดข้อมูลขนาดใหญ่ของการตัดสินใจสินเชื่อครั้งก่อนของธนาคาร (และข้อมูลที่เกี่ยวข้องอื่นๆ ที่ธนาคารสามารถเข้าถึงได้) ระบบสามารถเปรียบเทียบประวัติทางการเงินของผู้ขอสินเชื่อใหม่ ประวัติการทำงาน และข้อมูลประชากรกับข้อมูลที่สอดคล้องกัน
จากผู้ขอสินเชื่อคนก่อน จากนี้จะพยายามคาดการณ์ว่าผู้สมัครรายใหม่
จะสามารถชำระคืนเงินกู้ได้หรือไม่ แต่วิธีนี้อาจเป็นปัญหาได้ วิธีหนึ่งที่ความเอนเอียงทางอัลกอริทึมอาจเกิดขึ้นได้ในสถานการณ์นี้คือความลำเอียงโดยไม่รู้ตัวจากผู้จัดการสินเชื่อที่ตัดสินใจในอดีตเกี่ยวกับการขอจำนอง
หาก ในอดีตลูกค้าจากกลุ่มชนกลุ่มน้อยถูกปฏิเสธสินเชื่ออย่างไม่เป็นธรรม AI จะพิจารณาความสามารถในการชำระหนี้โดยทั่วไปของกลุ่มเหล่านี้ต่ำกว่าที่เป็นอยู่ ระบบ AI ที่มีอคติตามที่อธิบายไว้ข้างต้นก่อให้เกิดความเสี่ยงสำคัญสองประการสำหรับธนาคาร
ประการแรก ธนาคารอาจพลาดลูกค้าที่มีศักยภาพโดยส่งผู้ที่ตกเป็นเหยื่อของอคติไปยังคู่แข่ง นอกจากนี้ยังอาจต้องรับผิดตามกฎหมายต่อต้านการเลือกปฏิบัติ
หากระบบ AI ใช้อคติที่มีอยู่เดิมในการตัดสินใจอย่างต่อเนื่อง รัฐบาลหรือกลุ่มผู้บริโภคก็จะสามารถระบุรูปแบบที่เป็นระบบนี้ได้ง่ายขึ้น สิ่งนี้อาจนำไปสู่การปรับและบทลงโทษจำนวนมาก
ป้ายเซ็นเตอร์ลิงค์
ระบบ robodebt ที่ถูกยกเลิกไปแล้วของ Centrelink จะเพิ่มหนี้สวัสดิการให้กับผู้ที่คาดการณ์ว่าได้รับค่าจ้างมากเกินไปโดยอัตโนมัติ หากผู้รับไม่ได้แสดงหลักฐานรายได้ อัลกอริทึมจะสร้างตัวเลขรายได้รายนอกจากนี้ยังให้คำแนะนำทางเทคนิคเกี่ยวกับวิธีขจัดความลำเอียงนี้ ดังนั้นระบบ AI จึงสร้างผลลัพธ์ทางจริยธรรมที่ไม่เลือกปฏิบัติตามลักษณะเฉพาะ เช่น เชื้อชาติ อายุ เพศ หรือความทุพพลภาพ สำหรับบทความของเรา เราได้จำลองร้านค้าปลีกไฟฟ้าสมมุติโดยใช้เครื่องมือที่ขับเคลื่อนด้วย AI เพื่อตัดสินใจว่าจะนำเสนอผลิตภัณฑ์ให้กับลูกค้าอย่างไรและด้วยเงื่อนไขใด การจำลองนี้ได้รับการฝึกฝน
เกี่ยวกับข้อมูลทางประวัติศาสตร์ที่แต่งขึ้นจากบุคคลที่สวมบทบาท
จากผลลัพธ์ของเรา เราระบุแนวทาง 5 วิธีในการแก้ไขความเอนเอียงของอัลกอริทึม ชุดเครื่องมือนี้สามารถนำไปใช้กับธุรกิจในภาคส่วนต่างๆ เพื่อช่วยให้มั่นใจว่าระบบ AI นั้นยุติธรรมและแม่นยำ
1. รับข้อมูลที่ดีขึ้น
ความเสี่ยงของอคติทางอัลกอริทึมสามารถลดลงได้โดยการได้รับจุดข้อมูลเพิ่มเติมหรือข้อมูลประเภทใหม่เกี่ยวกับบุคคล โดยเฉพาะอย่างยิ่งผู้ที่มีบทบาทน้อย (ชนกลุ่มน้อย) หรือผู้ที่อาจปรากฏอย่างไม่ถูกต้องในข้อมูลที่มีอยู่
2. ประมวลผลข้อมูลล่วงหน้า
ซึ่งประกอบด้วยการแก้ไขชุดข้อมูลเพื่อปกปิดหรือลบข้อมูลเกี่ยวกับคุณลักษณะที่เกี่ยวข้องกับการคุ้มครองภายใต้กฎหมายต่อต้านการเลือกปฏิบัติ เช่น เชื้อชาติหรือเพศ
3. เพิ่มความซับซ้อนของโมเดล
โมเดล AI ที่เรียบง่ายสามารถทดสอบ ตรวจสอบ และซักถามได้ง่ายขึ้น แต่อาจมีความแม่นยำน้อยกว่าและนำไปสู่การสรุปทั่วไปซึ่งสนับสนุนคนส่วนใหญ่มากกว่าชนกลุ่มน้อย
4. แก้ไขระบบ
ตรรกะและพารามิเตอร์ของระบบ AI สามารถปรับในเชิงรุกเพื่อต่อต้านอคติของอัลกอริทึมได้โดยตรง ตัวอย่างเช่น สามารถทำได้โดยการกำหนดเกณฑ์การตัดสินใจที่แตกต่างกันสำหรับกลุ่มผู้ด้อยโอกาส
5. เปลี่ยนเป้าหมายการทำนาย
มาตรการเฉพาะที่ได้รับเลือกให้นำทางระบบ AI มีผลโดยตรงต่อวิธีการตัดสินใจของกลุ่มต่างๆ การหามาตรการที่ยุติธรรมกว่าเพื่อใช้เป็นเป้าหมายการคาดการณ์จะช่วยลดความลำเอียงของอัลกอริทึม
ในคำแนะนำของเราต่อรัฐบาลและธุรกิจที่ต้องการใช้ AI ในการตัดสินใจ เราเน้นย้ำถึงความสำคัญของการพิจารณาหลักการทั่วไปของความยุติธรรมและสิทธิมนุษยชนเมื่อใช้เทคโนโลยีดังกล่าว และสิ่งนี้ต้องทำก่อนที่จะใช้งานระบบ
นอกจากนี้ เรายังแนะนำให้ระบบได้รับการออกแบบและทดสอบอย่างเข้มงวดเพื่อให้แน่ใจว่าผลลัพธ์จะไม่เสียไปเพราะอคติของอัลกอริทึม เมื่อดำเนินการแล้วควรติดตามอย่างใกล้ชิด
สุดท้ายนี้ เราขอแนะนำว่าการใช้ระบบ AI อย่างมีความรับผิดชอบและมีจริยธรรมนั้นครอบคลุมเกินกว่าการปฏิบัติตามกฎหมาย นอกจากนี้ยังกำหนดให้ระบบต้องสอดคล้องกับบรรทัดฐานทางสังคมที่เป็นที่ยอมรับในวงกว้าง และคำนึงถึงผลกระทบต่อบุคคล ชุมชน และสิ่งแวดล้อม
เมื่อเครื่องมือตัดสินใจของ AI กลายเป็นเรื่องธรรมดา ตอนนี้เรามีโอกาสที่จะไม่เพียงแค่เพิ่มผลผลิต แต่ยังสร้างสังคมที่เท่าเทียมและยุติธรรมมากขึ้น นั่นคือถ้าเราใช้มันอย่างระมัดระวัง
Credit : สล็อต 888 เว็บตรง ไม่ผ่านเอเย่นต์ ไม่มี ขั้นต่ำ / ดูหนังฟรี