ปัญหาใหญ่ของวงการ AI คือข้อมูลที่มันได้ทำการ training มา โดยเฉพาะเหล่างานศิลปะทั้งหลายที่ถูกคัดลอกกันเป็นว่าเล่น เพราะ AI เหล่านี้มันไม่ได้สร้างสรรค์มันด้วยสมองของมันเอง แต่มันได้รับเอาข้อมูลจากงานของคนอื่นแล้วสร้างสรรค์ในรูปแบบใหม่ออกมา
หลักการนั้นเรียบง่าย เพียงแค่ป้อน AI ด้วยตัวอย่างความรุนแรง คำพูดแสดงความเกลียดชัง และการล่วงละเมิดทางเพศ และให้เครื่องมือนั้นสามารถเรียนรู้ที่จะตรวจจับรูปแบบความเป็นพิษเหล่านั้น
ตัวตรวจจับนั้นจะถูกสร้างขึ้นใน ChatGPT เพื่อตรวจสอบว่ามันสะท้อนความ Toxic ของข้อมูลการฝึกอบรมหรือไม่ และกรองออกก่อนที่จะส่งถึงผู้ใช้ นอกจากนี้ยังสามารถช่วยขัดเกลาข้อความที่เป็นพิษออกจากชุดข้อมูลการฝึกอบรมของโมเดล AI ในอนาคต
หุ้นส่วนเอาท์ซอร์สของ OpenAI ในเคนยาคือ Sama บริษัทในซานฟรานซิสโกที่จ้างคนงานในเคนยา ยูกันดา และอินเดียเพื่อติด Tag ข้อมูลสำหรับลูกค้าใน Silicon Valley เช่น Google, Meta และ Microsoft ซึ่ง Sama ทำตลาดตัวเองว่าเป็นบริษัท “AI ที่มีจริยธรรม” และอ้างว่าได้ช่วยยกระดับผู้คนกว่า 50,000 คนให้พ้นจากความยากจน
ผู้ติด Tag ข้อมูลที่จ้างโดย Sama ในนามของ OpenAI ได้รับค่าจ้างประมาณ 1.32 ถึง 2 ดอลลาร์ ต่อชั่วโมง ขึ้นอยู่กับความอาวุโสและประสิทธิภาพการทำงานของพวกเขา
พนักงานของ Sama คนหนึ่งซึ่งได้รับมอบหมายให้อ่านและติด Tag ข้อความสำหรับ OpenAI กล่าวว่า เขาต้องทนทุกข์ทรมานจากการมองเห็นเรื่องเลวร้ายซ้ำๆ ตัวอย่างเช่น หลังจากอ่านคำอธิบายกราฟิกของชายคนหนึ่งที่มีเพศสัมพันธ์กับสุนัขต่อหน้าเด็กเล็ก “นั่นเป็นการทรมาน” เขากล่าว
“คุณจะอ่านข้อความทำนองนั้นตลอดทั้งสัปดาห์ และเมื่อถึงวันศุกร์คุณจะถูกรบกวนจากการคิดถึงภาพเหล่านั้น” ลักษณะที่กระทบกระเทือนจิตใจของงานทำให้ Sama ยกเลิกงานทั้งหมดสำหรับ OpenAI ในเดือนกุมภาพันธ์ 2022
พนักงานของ Sama ถูกคาดหวังให้อ่านและติด Tag ข้อความระหว่าง 150 ถึง 250 ข้อความต่อกะเก้าชั่วโมง ซึ่งตัวอย่างเหล่านี้อาจมีตั้งแต่ประมาณ 100 คำไปจนถึงมากกว่า 1,000 คำ
ทำให้เหล่าพนักงานของ Sama มีแผลเป็นทางจิตใจจากการทำงาน แม้ว่าพวกเขาจะมีสิทธิ์เข้าร่วมเซสชันกับที่ปรึกษาด้านสุขภาพจิต แต่เซสชันเหล่านี้ก็ไม่มีประโยชน์และต้องจองคิวนานมาก ๆ เนื่องจากมีความต้องการสูง
ในเดือนกุมภาพันธ์ 2022 ความสัมพันธ์ของ Sama และ OpenAI ต้องหยุดลง ในเดือนนั้น Sama เริ่มงานนำร่องสำหรับโครงการแยกต่างหากสำหรับ OpenAI การรวบรวมภาพทางเพศและความรุนแรง ซึ่งบางภาพผิดกฎหมายภายใต้กฎหมายของสหรัฐฯ เพื่อส่งไปยัง OpenAI งานติด Tag กำกับภาพดูเหมือนจะไม่เกี่ยวข้องกับ ChatGPT อีกต่อไป
การตัดสินใจของ Sama ที่จะยุติการทำงานกับ OpenAI หมายความว่าพนักงานของ Sama ไม่ต้องจัดการกับข้อความและภาพที่น่ารำคาญอีกต่อไป แต่มันมีผลกระทบอย่างมากต่อการดำรงชีวิตของพวกเขาด้วย
พนักงานของ Sama กล่าวว่าในช่วงปลายเดือนกุมภาพันธ์ 2022 พวกเขาถูกเรียกเข้าร่วมการประชุมกับสมาชิกในทีมทรัพยากรบุคคลของบริษัท ซึ่งพวกเขาได้รับแจ้งข่าวดังกล่าว “เราได้รับแจ้งว่าพวกเขา (Sama) ไม่ต้องการให้พนักงานของตนสัมผัสกับเนื้อหาที่อันตรายเช่นนี้อีก”
แต่ก็ต้องบอกว่าความต้องการของมนุษย์ในการติด Tag ข้อมูลสำหรับระบบ AI ยังคงมีอยู่ อย่างน้อยก็ในตอนนี้
“พวกมันมีความสามารถที่น่าประทับใจ แต่ ChatGPT และโมเดลอื่นๆ ไม่ได้มีเวทมนต์ พวกมันต่างพึ่งพาห่วงโซ่อุปทานขนาดใหญ่ของแรงงานมนุษย์และข้อมูลที่คัดลอกมา ซึ่งส่วนใหญ่ไม่ได้ระบุแหล่งที่มาและใช้โดยไม่ได้รับความยินยอม” Andrew Strait นักจริยธรรมด้าน AI กล่าวเมื่อเร็วๆ นี้ผ่านทางทวิตเตอร์. “สิ่งเหล่านี้เป็นปัญหาพื้นฐานที่ร้ายแรงซึ่งผมไม่เคยเห็น OpenAI กล่าวถึงมันเลยด้วยซ้ำ”
AI ของ InnerEye ช่วยให้พนักงานตัดสินใจได้อย่างรวดเร็ว โดยเปลี่ยนพนักงานทุกวันให้กลายเป็นยอดมนุษย์ Emotiv เพียงต้องการให้พนักงานมีความสุขเพิ่มมากยิ่งขึ้น
Tan Le ซีอีโอและผู้ร่วมก่อตั้งของ Emotiv กล่าวว่า “ศักยภาพของเทคโนโลยีนี้มีมหาศาล” “ดังนั้นเราจึงตระหนักดีในการเลือกพันธมิตรที่ต้องการแนะนำเทคโนโลยีนี้ด้วยวิธีการที่มีความรับผิดชอบ พวกเขาต้องมีความปรารถนาอย่างแท้จริงที่จะช่วยเหลือและให้อำนาจแก่พนักงาน”
พวกเขาได้แจ้งต่อ Media Ratings Council (MRC) ซึ่งเป็นกลุ่มที่ไม่แสวงหาผลกำไรที่กำหนดมาตรฐานการให้คะแนน ให้ถอดการรับรอง Nielsen สำหรับเคเบิลทีวีและทีวีออกไป
Kenny เชื่อว่าทางออกที่ดีที่สุดคือการ Disrupt ตัวเอง และวิธีหนึ่งที่ช่วยให้ผู้ลงโฆษณาเข้าถึงผู้ชมทั้งหมดที่เหมาะสมได้ คือการรวบรวมข้อมูลขนาดใหญ่เข้ากับข้อมูลเชิงลึกครัวเรือนรายครัวเรือนอย่างใกล้ชิด สร้างเป็น Big Data ขนาดใหญ่แล้วนำมาประมวลผลด้วยเทคโนโลยี AI
นักวิจัยด้านปัญญาประดิษฐ์กำลังสร้างแนวคิดว่าเราจะเห็นปัญญาประดิษฐ์ทั่วไป (Artificial general intelligence – AGI) ซึ่งเป็น AI ที่สามารถบรรลุทุกสิ่งที่มนุษย์สามารถทำได้และอาจหลายอย่างที่เราทำไม่ได้ในช่วงชีวิตของเรา
แต่ Dr. Nando de Freitas หัวหน้านักวิจัยของ Google DeepMind ได้ประกาศอย่างกล้าหาญว่า “เกมมันได้จบลงแล้ว ” ซึ่งเขาได้กล่าวว่า “เมื่อเราทำการขยายความสามารถของ AI เราก็เข้าใกล้ AGI ด้วยเช่นกัน”
“มันเกี่ยวกับการทำให้โมเดลเหล่านี้ใหญ่ขึ้น ปลอดภัยขึ้น มีประสิทธิภาพในการคำนวณ เร็วขึ้นในการสุ่มตัวอย่าง หน่วยความจำที่ชาญฉลาดขึ้น รูปแบบต่างๆ ที่มากขึ้น” de Freitas กล่าว
Marcus นักวิทยาศาสตร์ นักเขียน และผู้ก่อตั้งและ CEO ของ Robust.AI ที่มีชื่อเสียงระดับโลก ได้ใช้เวลาหลายปีที่ผ่านมาในการสนับสนุนแนวทางใหม่ของ AGI เขาเชื่อว่าทั้งสายงานจำเป็นต้องเปลี่ยนวิธีการหลักเพื่อสร้าง AGI และเขียนหนังสือขายดีชื่อ “Rebooting AI” ร่วมกับ Ernest Davis
เขากำลังถกเถียงและหารือเกี่ยวกับแนวคิดของเขากับทุกคนตั้งแต่ Yann LeCun ของ Facebook ไปจนถึง Yoshua Bengio จาก University of Montreal
เขาได้โต้แย้ง de Freitas ว่า “คุณไม่สามารถทำให้แบบจำลองใหญ่ขึ้นและหวังว่าจะประสบความสำเร็จ มีงานวิจัยที่ได้ทำการปรับ scale เป็นจำนวนมากในช่วงที่ผ่านมา และประสบความสำเร็จอย่างมาก แต่ก็ประสบปัญหาบางอย่างเช่นกัน”