Vatsal Ghiya ซีอีโอและผู้ร่วมก่อตั้ง Shaip มีประสบการณ์ 20 ปีในซอฟต์แวร์และบริการ AI ด้านการดูแลสุขภาพ และเปิดใช้งานการปรับขนาดกระบวนการทางธุรกิจตามความต้องการด้วยการเรียนรู้ของเครื่องและการริเริ่มด้าน AI Vatsal Ghiya ฟีเจอร์สำหรับแขกรับเชิญนี้ได้แบ่งปันข้อมูลเชิงลึกที่สำคัญเกี่ยวกับวิธีกำจัดอคติใน AI แบบสนทนา
ประเด็นสำคัญจากบทความคือ -
- ตามสถิติที่เปิดเผย อัตราความแม่นยำในการดึงผลลัพธ์ผ่านการค้นหาด้วยเสียงสำหรับผู้ชายอเมริกันคือ 92% แต่ลดลงเหลือ 79% และ 69% สำหรับผู้หญิงอเมริกันผิวขาวและผู้หญิงอเมริกันผสม นี่เป็นตัวอย่างคลาสสิกของ Bias AI
- ตัวอย่างในโลกแห่งความเป็นจริงของ AI ที่มีอคติ ได้แก่ Amazon และ Facebook ซึ่งผู้ชายได้รับความนิยมมากกว่าในระหว่างการสรรหาบุคลากรใน Amazon และ Facebook กำหนดเป้าหมายลูกค้าตามเพศ สีผิว และศาสนาของพวกเขา ความเอนเอียงใน AI นี้เกิดจากสาเหตุ XNUMX ประการ ได้แก่ ข้อมูล ผู้คน และเทคโนโลยี
- เพื่อขจัดอคติของ AI จากแอปพลิเคชันและระบบใดๆ องค์กรสามารถปฏิบัติตามมาตรการต่างๆ เช่น การรับรองแหล่งข้อมูลและคุณภาพ ตรวจสอบแบบจำลองตามเวลาจริง และวิเคราะห์ความหลากหลายของข้อมูลก่อนที่จะใช้ AI ในการดำเนินงาน
อ่านบทความฉบับเต็มได้ที่นี่: