Logo site Amarintv 34HD
Logo LiveSearch
Search
Logo Live
Logo site Amarintv 34HD
ช่องทางติดตาม AMARINTV
  • facebook AMARIN TV 34 HD
  • x AMARIN TV 34 HD
  • line AMARIN TV 34 HD
  • youtube AMARIN TV 34 HD
  • instagram AMARIN TV 34 HD
  • tiktok AMARIN TV 34 HD
  • RSS Feed AMARIN TV 34 HD
ในวันที่โลกเข้าใจความเท่าเทียมทางเพศมากขึ้น แต่ AI ยังเหมารวมอัตลักษณ์ทางเพศ
โดย : อมรินทร์ทีวีออนไลน์

ในวันที่โลกเข้าใจความเท่าเทียมทางเพศมากขึ้น แต่ AI ยังเหมารวมอัตลักษณ์ทางเพศ

14 มิ.ย. 67
14:16 น.
|
592
แชร์

ในช่วง Pride Month หลายองค์กรและธุรกิจต่างออกมาแสดงจุดยืน ร่วมเฉลิมฉลองความเท่าเทียมทางเพศในนประเทศไทย หลังจากพรบ. สมรสเท่าเทียม ผ่านสภาผู้แทนราษฎรแล้ว ซึ่งหากมีผลบังคับใช้อย่างเป็นทางการ ประเทศไทยจะกลายเป็นประเทศที่สามในเอเซีย และประเทศแรกในอาเซียนที่มีกฎหมายส่งเสริมการสมรสเท่าเทียม ตามต่อจาก ไต้หวัน และเนปาล

สำหรับภาคธุรกิจ และภาคอุตสาหกรรมเทคก็มีความเปิดกว้างมากขึ้นเช่นกัน หลายองค์กรได้ออกมาแสดงจุดยืนในการสนับสนุนความหลากหลายและความเท่าเทียมกันอย่างต่อเนื่อง รวมไปถึงมีการจ้างงานที่หลากหลายมากขึ้น

อย่างไรก็ตาม สำหรับส่วนของ Generative AI กลับพบว่า ยังมีการเหมารวมอัตลักษณ์ของกลุ่ม LGBTQ+ อยู่ไม่น้อย และการเผยแพร่ข้อมูลที่สร้างความเข้าใจผิดกับกลุ่ม LGBTQ+ อยู่ไม่น้อย

การเหมารวมอัตลักษณ์ทางเพศที่พบเห็นจาก AI

นิตยสาร WIRED ได้ทดสอบความเข้าใจของ Generative AI กับ LGBTQ+ โดยการป้อนคำสั่งให้ ‘Midjourney’ ผลิตภาพจากคำสั่งที่ป้อนเข้าไปจำนวนหลายภาพ จากคำศัพท์ที่เกี่ยวกับชุมชน LGBTQ+ ทั้งนั้น ไม่ว่าจะเป็นเพศตามตัวอักษรของคำว่า LGBTQ+ หรือลักษณะใกล้เคียง

ซึ่งผลลัพธ์จาก Midjourney ได้วาดภาพผู้หญิงเลสเบี้ยนมีห่วงตรงจมูก ทรงผมด้านข้างไถสั้น และสีหน้าเคร่งขรึม ส่วนภาพของเกย์เป็นคนผิวขาว ภาพของไบเซ็กชวลมีผมสั้น สีม่วง และเจาะปากกับจมูก ในขณะที่ภาพของกลุ่มคนข้ามเพศมีโครงหน้าของผู้ชายที่สวมชุดสูทสีชมพู ลิปสติปสีชมพู และผมยาว

เห็นได้ชัดว่า ภาพที่วาดออกมา เป็นการเหมารวมที่ยึดถือกันโดยทั่วไปในสังคม ซึ่งเป็นแค่ส่วนหนึ่งเท่านั้น เพราะหากเราลองให้ AI วาดภาพกับโปรแกรมอื่น ก็จะได้ผลลัพธ์ที่คล้ายกัน พูดง่ายๆ ก็คือ ยังมีการเหมารวมกลุ่ม LGBTQ+ และสร้างผลลัพธ์ที่มีลักษณะอคติ

จากปัญหาเหล่านี้ ทางนักพัฒนา AI ไม่ได้นิ่งนอนใจ และกำลังแก้ไขการปัญหาการเหมารวมในระบบ Generative AI ต่อเนื่อง โดยพบว่า สาเหตุของปัญหานี้ มาจากชุดข้อมูลที่ไม่เพียงพอและไม่หลากหลาย ทำให้อัลกอริทึมไม่สามารถเข้าใจและจัดหมวดหมู่อัตลักษณ์ทางเพศและรสนิยมทางเพศที่หลากหลายได้อย่างถูกต้อง

ซึ่งวิธีแก้ปัญหาที่ตรงจุดที่สุด คือ นักพัฒนา AI ต้องป้อนข้อมูลที่ถูกต้องใส่อัลกอริทึมเพิ่มเติม

อย่างไรก็ตามการป้อนข้อมูลชุดนี้จำเป็นต้องรับรองความเป็นส่วนตัวและความยินยอมของบุคคล LGBTQ+ แต่ในทางกฎหมาย อาจมีข้อบังคับเกี่ยวกับการเก็บรวบรวมและใช้ข้อมูล โดยเฉพาะข้อมูลที่ละเอียดอ่อนอย่างรสนิยมทางเพศและอัตลักษณ์ทางเพศ และยังไม่รวมถึงวิธีการและตัวแทนของกลุ่มคน LGBTQ+ ที่ถูกเก็บข้อมูล ที่ต้องไม่ส่งเสริมทัศนคติแบบเหมารวมหรือก่อให้เกิดอันตรายด้วย ทำให้นักวิจัยจำเป็นต้องดำเนินการอย่างระมัดระวังมาก

Sonia Katyal ผู้อำนวยการร่วมของ Berkeley Center for Law and Technology เผยว่า นักพัฒนาต้องการข้อมูลที่ดีขึ้นสำหรับเหล่า Generative AI แต่ในเวลาเดียวกัน พวกเขากำลังขอให้กลุ่มประชากรที่ตกเป็นเป้าหมายของกฎหมายและสังคม เปิดเผยข้อมูลที่เสี่ยงต่อการป้อนเข้าสู่ระบบ ที่ยังไม่ได้แสดงให้เห็นถึงการปฏิบัติที่เท่าเทียมกันที่แท้จริง และขาดข้อมูลที่มีความเที่ยงตรงสูงและละเอียดสูง

ความหวังในการแก้ปัญหานี้

ปัจจุบัน อัตราการเติบโตของประชากรที่กล้าเปิดเผยตัวตนว่าเป็นกลุ่ม LGBTQ+ เห็นได้อย่างมีนัยสำคัญ หลังจากที่สังคมเข้าถึงสื่อ ความรับรู้ที่เพิ่มขึ้น และการเข้าใจในชุมชน LGBTQ+ เห็นได้จากตัวเลขของ 20% ของกลุ่ม Gen Z ที่ระบุว่าตนเองเป็น LGBTQ+

แต่ในเวลาเดียวกัน สิ่งประดิษฐ์ที่ว่ากันว่า ‘สามารถเปลี่ยนโลก’ ได้ กลับยังมีการแบ่งแยกและระบุอัตลักษณ์แบบเหมารวม ไม่แสดงให้ถึงการพัฒนา ท่ามกลางวาทกรรมทางการเมืองที่สร้างความแตกแยกและข้อมูลผิดๆ ที่เพิ่มขึ้นเช่นกัน

ทำให้ความก้าวหน้าในการลดอคติของ AI กลับมีความเสี่ยงเพิ่มขึ้น

อย่างไรก็ตาม ผลลัพธ์ที่ AI ผลิตออกมา ปฏิเสธไม่ได้ว่า ก็มาจากระบบข้อมูลและการเทรนนิ่งโดย ‘นักพัฒนา’ นั่นเอง เหมือนที่เว็บไซต์ Aurora50 เขียนไว้ว่า “AI เพียงแค่สะท้อน – แล้วขยาย – อคติและทัศนคติแบบเหมารวมของสังคมเกี่ยวกับเพศ เชื้อชาติ วัฒนธรรม และอายุ”

นอกจากนี้ ถึงแม้ว่าอุตสาหกรรมเทคโนโลยีจะมีความก้าวหน้า แต่การเลือกปฏิบัติทางเพศยังคงเป็นปัญหาของวงการนี้ เหมือนกับข้อมูลของ Gallup ที่เผยอินไซต์เกี่ยวกับกลุ่ม LGBTQ+ ในวงการเทคโลก พบว่าเปอร์เซ็นต์ของพนักงานที่ระบุว่าเป็น LGBTQ+ ในสหรัฐอเมริกา มี 7.1% เพิ่มขึ้นสองเท่าจากปี 2012

ส่วนข้อมูลจาก HRC Foundation เผยว่า 31% ของพนักงาน LGBTQ+ รู้สึกไม่มีความสุขหรือซึมเศร้าในที่ทำงาน และกว่า 50% ต้องสู้กับมุขตลกที่ไม่เหมาะสมและความคิดเห็นที่เสื่อมเสีย โดยเฉพาะกลุ่มเกย์และเลสเบียนที่ถูกพุ่งเป้า

ถามว่าความหวังในการแก้ปัญหานี้ มีมากน้อยแค่ไหน? ถ้าให้ตอบเป็นตัวเลขคงเป็นเรื่องที่ยาก แต่ก็เห็นถึงความพยายามในการแก้ปัญหา AI ให้เข้าใจความเป็น LGBTQ+ มากขึ้น อย่าง DALL E-3 ได้ลดการทำภาพที่มีการเหมารวมของกลุ่ม LGBTQ+ แล้ว ส่วน Gemini ของ Google ที่มีการออกมาขอโทษหลังจากเคยมีการปล่อยข้อมูลที่มาจากการเหมารวมของแชทบอท

ซึ่งหากกลุ่ม LGBTQ+ ได้รับโอกาสที่เท่าเทียมกับคนอื่น โดยคำว่า ‘เท่าเทียม’ ไม่ได้หมายความว่า ‘เท่า’ แต่ยัง ‘เทียม’ วงการเทคจะก้าวไปข้างหน้าได้มากกว่านี้ การเทรนนิ่งอัลกอริทึม หรือการป้อนข้อมูลที่มีความหลากหลายและลดอคติลงได้ ก็จะไม่ใช่เรื่องที่ยากอีกต่อไป

เพราะในที่สุด เทคโนโลยีไม่ได้มีความคิด ความรู้สึก และจิตใจที่ลึกซึ้งเท่าคน แต่สำหรับมนุษย์ ไม่ว่าจะเป็นเพศไหน เชื้อชาติอะไร ทุกคนคือ ‘มนุษย์’ เหมือนกัน ที่มีความสามารถ ความคิด และหัวใจ หากไม่เริ่มที่ตัวเองก่อน การพัฒนาเทคโนโลยีรวมถึงการแก้ปัญหาอคติของ AI ก็คงเป็นเรื่องอีกยาวไกล และอาจบานปลายไปมากกว่านี้

ที่มา Wired, International Women's Day, Harvard Business Review, Financial Times, Aurora50, The Conversion, CNBC, PR Week, The Guardian, Ironhack, Gallup, BBC

แชร์

ในวันที่โลกเข้าใจความเท่าเทียมทางเพศมากขึ้น แต่ AI ยังเหมารวมอัตลักษณ์ทางเพศ