ChatGPT ได้รับการยกย่องว่าเป็นหนึ่งในนวัตกรรมทางเทคโนโลยีที่น่าประทับใจที่สุดในปี 2022 เปิดตัวเมื่อเดือนพฤศจิกายนปีที่แล้ว Chatbot ปัญญาประดิษฐ์ (AI) อันทรงพลังสามารถสร้างข้อความในเกือบทุกหัวข้อ ตั้งแต่โคลงร่างของเชกสเปียร์ที่คิดขึ้นมาใหม่ ไปจนถึงทฤษฎีทางคณิตศาสตร์ที่ซับซ้อนซึ่งอธิบายเป็นภาษาที่เด็กอายุ 5 ขวบสามารถเข้าใจได้ ซึ่งภายในหนึ่งสัปดาห์มีผู้ใช้มากกว่าล้านคน
แต่เรื่องราวความสำเร็จนั้นไม่ใช่มาจากแค่เฉพาะกลุ่มมนุษย์อัจฉริยะของ Silicon Valley เพียงอย่างเดียว ในการพยายามทำให้ ChatGPT มีเนื้อหาที่ Toxic น้อยลง OpenAI ใช้แรงงานชาวเคนยาซึ่งมีรายได้น้อยกว่า 2 ดอลลาร์ต่อชั่วโมง
งานนี้มีความสำคัญสำหรับ OpenAI GPT-3 ซึ่งเป็นต้นแบบของ ChatGPT ได้แสดงความสามารถที่น่าประทับใจในการร้อยเรียงประโยคเข้าด้วยกัน
เนื่องจากแอปนี้มีแนวโน้มที่จะสร้างชุดคำพูดที่รุนแรง เหยียดเพศ และเหยียดเชื้อชาติ นี่เป็นเพราะ AI ได้รับการฝึกเกี่ยวกับคำศัพท์หลายแสนล้านคำที่คัดมาจากอินเทอร์เน็ต ซึ่งเป็นคลังเก็บภาษามนุษย์จำนวนมหาศาล
ซึ่งชุดข้อมูลการฝึกอบรมขนาดใหญ่นั้นเป็นสาเหตุของความสามารถทางภาษาที่น่าประทับใจของ GPT-3 แต่ก็อาจเป็นคำสาปที่ใหญ่ที่สุดได้เช่นเดียวกัน
เนื่องจากบางส่วนของอินเทอร์เน็ตเต็มไปด้วยความ Toxic และความลำเอียง จึงไม่มีวิธีง่ายๆ ในการล้างข้อมูลการฝึกอบรมส่วนเหล่านั้น แม้แต่ทีมงานที่มีมนุษย์หลายร้อยคนก็ยังต้องใช้เวลาหลายสิบปีในการค้นหาชุดข้อมูลขนาดมหึมาด้วยตนเอง มีเพียงการสร้างกลไกความปลอดภัยที่ขับเคลื่อนด้วย AI เพิ่มเติมเท่านั้นที่ OpenAI จะสามารถควบคุมอันตรายนั้นได้
ในการสร้างระบบความปลอดภัยนั้น OpenAI ได้ดึงเอาส่วนหนึ่งของวิธีที่บริษัทโซเชียลมีเดียอย่าง Facebook ที่ได้แสดงให้เห็นแล้วว่าสามารถสร้าง AI ที่สามารถตรวจจับภาษาที่ Toxic ได้ เช่น คำพูดแสดงความเกลียดชัง เพื่อช่วยลบมันออกจากแพลตฟอร์มของพวกเขา
หลักการนั้นเรียบง่าย เพียงแค่ป้อน AI ด้วยตัวอย่างความรุนแรง คำพูดแสดงความเกลียดชัง และการล่วงละเมิดทางเพศ และให้เครื่องมือนั้นสามารถเรียนรู้ที่จะตรวจจับรูปแบบความเป็นพิษเหล่านั้น
ตัวตรวจจับนั้นจะถูกสร้างขึ้นใน ChatGPT เพื่อตรวจสอบว่ามันสะท้อนความ Toxic ของข้อมูลการฝึกอบรมหรือไม่ และกรองออกก่อนที่จะส่งถึงผู้ใช้ นอกจากนี้ยังสามารถช่วยขัดเกลาข้อความที่เป็นพิษออกจากชุดข้อมูลการฝึกอบรมของโมเดล AI ในอนาคต
หุ้นส่วนเอาท์ซอร์สของ OpenAI ในเคนยาคือ Sama บริษัทในซานฟรานซิสโกที่จ้างคนงานในเคนยา ยูกันดา และอินเดียเพื่อติด Tag ข้อมูลสำหรับลูกค้าใน Silicon Valley เช่น Google, Meta และ Microsoft ซึ่ง Sama ทำตลาดตัวเองว่าเป็นบริษัท “AI ที่มีจริยธรรม” และอ้างว่าได้ช่วยยกระดับผู้คนกว่า 50,000 คนให้พ้นจากความยากจน
ผู้ติด Tag ข้อมูลที่จ้างโดย Sama ในนามของ OpenAI ได้รับค่าจ้างประมาณ 1.32 ถึง 2 ดอลลาร์ ต่อชั่วโมง ขึ้นอยู่กับความอาวุโสและประสิทธิภาพการทำงานของพวกเขา
พนักงานของ Sama คนหนึ่งซึ่งได้รับมอบหมายให้อ่านและติด Tag ข้อความสำหรับ OpenAI กล่าวว่า เขาต้องทนทุกข์ทรมานจากการมองเห็นเรื่องเลวร้ายซ้ำๆ ตัวอย่างเช่น หลังจากอ่านคำอธิบายกราฟิกของชายคนหนึ่งที่มีเพศสัมพันธ์กับสุนัขต่อหน้าเด็กเล็ก “นั่นเป็นการทรมาน” เขากล่าว
“คุณจะอ่านข้อความทำนองนั้นตลอดทั้งสัปดาห์ และเมื่อถึงวันศุกร์คุณจะถูกรบกวนจากการคิดถึงภาพเหล่านั้น” ลักษณะที่กระทบกระเทือนจิตใจของงานทำให้ Sama ยกเลิกงานทั้งหมดสำหรับ OpenAI ในเดือนกุมภาพันธ์ 2022
พนักงานของ Sama ถูกคาดหวังให้อ่านและติด Tag ข้อความระหว่าง 150 ถึง 250 ข้อความต่อกะเก้าชั่วโมง ซึ่งตัวอย่างเหล่านี้อาจมีตั้งแต่ประมาณ 100 คำไปจนถึงมากกว่า 1,000 คำ
ทำให้เหล่าพนักงานของ Sama มีแผลเป็นทางจิตใจจากการทำงาน แม้ว่าพวกเขาจะมีสิทธิ์เข้าร่วมเซสชันกับที่ปรึกษาด้านสุขภาพจิต แต่เซสชันเหล่านี้ก็ไม่มีประโยชน์และต้องจองคิวนานมาก ๆ เนื่องจากมีความต้องการสูง
ในเดือนกุมภาพันธ์ 2022 ความสัมพันธ์ของ Sama และ OpenAI ต้องหยุดลง ในเดือนนั้น Sama เริ่มงานนำร่องสำหรับโครงการแยกต่างหากสำหรับ OpenAI การรวบรวมภาพทางเพศและความรุนแรง ซึ่งบางภาพผิดกฎหมายภายใต้กฎหมายของสหรัฐฯ เพื่อส่งไปยัง OpenAI งานติด Tag กำกับภาพดูเหมือนจะไม่เกี่ยวข้องกับ ChatGPT อีกต่อไป
การตัดสินใจของ Sama ที่จะยุติการทำงานกับ OpenAI หมายความว่าพนักงานของ Sama ไม่ต้องจัดการกับข้อความและภาพที่น่ารำคาญอีกต่อไป แต่มันมีผลกระทบอย่างมากต่อการดำรงชีวิตของพวกเขาด้วย
พนักงานของ Sama กล่าวว่าในช่วงปลายเดือนกุมภาพันธ์ 2022 พวกเขาถูกเรียกเข้าร่วมการประชุมกับสมาชิกในทีมทรัพยากรบุคคลของบริษัท ซึ่งพวกเขาได้รับแจ้งข่าวดังกล่าว “เราได้รับแจ้งว่าพวกเขา (Sama) ไม่ต้องการให้พนักงานของตนสัมผัสกับเนื้อหาที่อันตรายเช่นนี้อีก”
แต่ก็ต้องบอกว่าความต้องการของมนุษย์ในการติด Tag ข้อมูลสำหรับระบบ AI ยังคงมีอยู่ อย่างน้อยก็ในตอนนี้
“พวกมันมีความสามารถที่น่าประทับใจ แต่ ChatGPT และโมเดลอื่นๆ ไม่ได้มีเวทมนต์ พวกมันต่างพึ่งพาห่วงโซ่อุปทานขนาดใหญ่ของแรงงานมนุษย์และข้อมูลที่คัดลอกมา ซึ่งส่วนใหญ่ไม่ได้ระบุแหล่งที่มาและใช้โดยไม่ได้รับความยินยอม” Andrew Strait นักจริยธรรมด้าน AI กล่าวเมื่อเร็วๆ นี้ผ่านทางทวิตเตอร์. “สิ่งเหล่านี้เป็นปัญหาพื้นฐานที่ร้ายแรงซึ่งผมไม่เคยเห็น OpenAI กล่าวถึงมันเลยด้วยซ้ำ”
References :
https://www.sama.com/blog/we-are-a-b-corp/
https://time.com/collection/best-inventions-2022/6225486/dall-e-2/
https://time.com/6247678/openai-chatgpt-kenya-workers/
https://thisisafrica.me/africans-rising/samasource-digital-africa-unemployed-youth/