HomeBrand Move !!รวดเร็ว – ตรงใจ เมื่อใช้ AI คัดเลือกใบสมัครพนักงาน จริงหรือ?

รวดเร็ว – ตรงใจ เมื่อใช้ AI คัดเลือกใบสมัครพนักงาน จริงหรือ?

แชร์ :

โลกยุคหลัง Covid-19 หลาย ๆ องค์กรเริ่มบอกว่า เราควรนำ AI มาใช้เพิ่มประสิทธิภาพในด้านต่าง ๆ เพื่อเร่งการฟื้นฟูเศรษฐกิจที่ตกฮวบไปในช่วงไวรัสระบาด หนึ่งในตัวอย่างที่เริ่มเห็นกันคือ การนำ AI มาใช้คัดเลือกผู้สมัครเข้าทำงานของบริษัททั้งในญี่ปุ่นและจีนแผ่นดินใหญ่ เพื่อความปลอดภัยของตัวผู้สมัครเองและบริษัทที่จะรับเข้าทำงาน

ADFEST 2024

Santos Or Jaune

โดยบริษัทที่เริ่มปรับตัวไปใช้ AI คัดเลือกผู้สมัครคือ SoftBank ที่ผู้อำนวยการฝ่ายคัดเลือกบุคลากรอย่าง Tomoko Sugihara ให้เหตุผลว่า ในแต่ละปี บริษัทมีการรับพนักงานใหม่มากกว่า 1,000 คน การใช้ AI จึงช่วยประหยัดเวลาให้องค์กรได้มากถึง 75% และทำให้ทีมงานนำเวลาไปพิจารณาได้ละเอียดขึ้นว่า ใครคือผู้สมัครที่เข้ากับวัฒนธรรมองค์กรอย่างแท้จริง

กระนั้น Sugihara ก็ยอมรับว่า ไม่ได้เชื่อถือ AI ร้อยเปอร์เซ็นต์ และจะมีพนักงานไปตรวจสอบใบสมัครที่ถูก AI ปฏิเสธในภายหลังอยู่ดี เผื่อว่ามีคนน่าสนใจส่งใบสมัครเข้ามาแล้วถูก AI มองข้ามไป

นอกจาก SoftBank แล้ว บริษัทในอุตสาหกรรมแอลกอฮอล์อย่าง Kirin Holdings ก็มีการใช้ AI ในการวิเคราะห์บุคลิกของผู้สมัคร ว่าเหมาะกับตำแหน่ง – วัฒนธรรมองค์กรหรือไม่เช่นกัน โดยพิจารณาจากคลิปแนะนำตัวที่ผู้สมัครส่งเข้ามา

สำหรับญี่ปุ่น ถึงแม้จะไม่มีไวรัสระบาด แต่นักวิชาการจาก Business Breakthrough University อย่างอาจารย์ Shinji Kawakami ก็บอกว่า เห็นเทรนด์การใช้เทคโนโลยีเข้ามาช่วยเก็บข้อมูล และวิเคราะห์ข้อมูลจากใบสมัครงานมากขึ้นเรื่อย ๆ เพื่อตอบสนองรูปแบบการทำงานที่เปลี่ยนไป

“ฝ่ายทรัพยากรบุคคลเริ่มมองว่า การใช้พนักงานคัดเลือกใบสมัครเป็นเรื่องเสียเวลา หรือการเข้ามาสัมภาษณ์และบอกว่าอะไรคือสิ่งที่ผู้สมัครชอบ – ไม่ชอบ ก็ไม่สามารถเชื่อถือได้เสมอไป ตรงกันข้ามกับการใช้เทคโนโลยี และข้อมูลที่มีมาตรฐาน เข้ามาคัดเลือกผู้สมัครที่มีประสบการณ์ ความรู้ และทักษะที่ตรงกับงาน เหล่านี้อาจทำให้บริษัทเสียเวลาน้อยกว่า และได้คนที่ตรงกับความต้องการของบริษัทมากกว่านั่นเอง”

แต่การมี AI ไม่อาจรับประกันได้ว่าใบสมัครจะถึงมือฝ่ายบุคคลเสมอไป

ท่ามกลางการใช้ AI เข้ามาเพิ่มความสะดวกสบายให้กับโลกการทำงาน ก็มีการตั้งคำถามโดยกลุ่มนักวิจัยมากขึ้นเรื่อย ๆ ว่า ภายใต้สังคมที่เต็มไปด้วยความลำเอียง แบ่งฝักแบ่งฝ่ายทั้งในเรื่องเพศ สีผิว ฯลฯ นี้ จะส่งผลกระทบใด ๆ ต่อการเรียนรู้ของ AI หรือไม่ และหากส่งผลกระทบต่อ AI ธุรกิจที่นำ AI เหล่านั้นไปใช้งาน ไม่ว่าจะเป็นเรื่องการจ้างงาน การจัดอันดับความน่าเชื่อถือ การวินิจฉัยโรค การตัดสินโทษตามกฎหมาย ฯลฯ จะได้รับผลกระทบอย่างไร

ความเปลี่ยนแปลงข้อหนึ่งที่พิสูจน์ได้ว่า AI ที่สร้างขึ้นอาจไม่ได้เที่ยงธรรมเสมอไปคือการที่บริษัทยักษ์ใหญ่ในซิลิคอนวัลเลย์อย่าง IBM, Microsoft และ Amazon ออกมาประกาศยกเลิกการให้หน่วยงานภาครัฐเข้าใช้เทคโนโลยี Facial Recognition ที่บริษัทพัฒนาขึ้น หรือบางค่ายก็ยุติโปรดักท์ดังกล่าวไปเลย

Jieyu Zhao นักวิจัยจาก University of California กล่าวถึงปรากฏการณ์นี้ว่า ผู้คนมักคิดว่า AI ยุติธรรมกว่ามนุษย์ ซึ่งไม่เป็นความจริง เพราะอัลกอริธึมเหล่านี้ก็สามารถลำเอียงได้เช่นกัน

ตัวอย่างความลำเอียงของ AI ถูกพบครั้งแรกในงานวิจัยเมื่อปี 2017 ที่มีการส่งภาพของผู้หญิง – ผู้ชายในครัวไปให้ AI ศึกษา โดยชุดข้อมูลมีภาพของผู้หญิงมากกว่าผู้ชาย 33% แต่ AI กลับวิเคราะห์ว่าในชุดข้อมูลดังกล่าวมีผู้หญิงมากถึง 68% หรือก็คือ มันมีการตัดสินภาพผู้ชายบางคนเป็น “ผู้หญิง”

แม้อาจดูไม่ใช่เรื่องใหญ่ในเวลานั้น แต่ในอนาคต หาก AI เข้ามามีบทบาทกับชีวิตของเรามากขึ้น รวมถึงเข้ามาตัดสินใจเรื่องต่าง ๆ ให้ ก็อาจเป็นได้ที่ AI จะทำให้การจ้างงาน การรักษาโรค การตัดสินโทษ ฯลฯ เปลี่ยนแปลงไปด้วยเช่นกัน หรืออย่างน้อย AI ก็อาจทำให้ใบสมัครของเรา “ถูกตีตก” ไปโดยที่ยังไม่ทันได้สัมผัสมือของฝ่าย HR เลยนั่นเอง

Zhao กล่าวด้วยว่า ชุดข้อมูลที่ใช้ในการเทรน AI มักตกเป็นจำเลยว่าเป็นต้นเหตุที่ทำให้ AI เกิดความลำเอียง แต่ในความเป็นจริง มีปัจจัยอีกมากที่นำไปสู่การวิเคราะห์ผิดพลาดของ AI ยกตัวอย่างเช่น สภาพแวดล้อมในการพัฒนา AI นั้น ๆ ยกตัวอย่างเช่น AI ที่พัฒนาใน Amazon มีการประเมินว่า ผู้สมัครเพศชายเป็นที่ต้องการของบริษัทมากกว่า เนื่องจากใบสมัครที่ส่งมาให้มันศึกษาตลอด 10 ปีนั้น มีแต่ใบสมัครจากผู้ชาย (อย่างไรก็ดี Amazon ออกมาบอกว่าไม่เคยใช้ AI ดังกล่าวในการคัดเลือกผู้สมัครเข้าทำงาน)

หรือจำนวนของพนักงานหญิง-ชายที่ทำงานกับ AI ก็มีผลไม่น้อยเช่นกัน โดย SCMP รายงานว่า ยิ่งมีพนักงานชายมากเท่าไร แนวคิดของพวกเขาก็ถูกใส่ลงไปใน AI มากเท่านั้น และทำให้ AI มีความโน้มเอียงไปทางเพศชายได้มากขึ้น

ด้วยเหตุนี้ คำกล่าวของ Feng-Yuan Liu ผู้ก่อตั้ง BasicAI สตาร์ทอัพสัญชาติสิงคโปร์จึงอาจสรุปสถานการณ์ที่เกิดขึ้นได้ดีที่สุด เมื่อเขาบอกว่า “ต้องยอมรับว่าโลกที่เราอยู่นั้นเต็มไปด้วยอคติ และถ้าเรานำ Data จากโลกที่เต็มไปด้วยอคตินี้ไปเทรน AI ก็ปฏิเสธไม่ได้ว่า AI ที่พัฒนาขึ้นจะค่อย ๆ กลายเป็น AI ที่ตัดสินด้วยความลำเอียงในที่สุด”

และการนำ AI ดังกล่าวไปใช้งาน ก็ไม่สามารถปฏิเสธผลลัพธ์แห่งความไม่เท่าเทียมที่จะเกิดตามมาด้วยเช่นกัน

Source

Source


แชร์ :

You may also like