เมื่อ OpenAI จ้างคนงานชาวเคนยาน้อยกว่า 2 ดอลาร์ต่อชั่วโมงเพื่อทำให้ ChatGPT มีความ Toxic น้อยลง

ChatGPT ได้รับการยกย่องว่าเป็นหนึ่งในนวัตกรรมทางเทคโนโลยีที่น่าประทับใจที่สุดในปี 2022 เปิดตัวเมื่อเดือนพฤศจิกายนปีที่แล้ว Chatbot ปัญญาประดิษฐ์ (AI) อันทรงพลังสามารถสร้างข้อความในเกือบทุกหัวข้อ ตั้งแต่โคลงร่างของเชกสเปียร์ที่คิดขึ้นมาใหม่ ไปจนถึงทฤษฎีทางคณิตศาสตร์ที่ซับซ้อนซึ่งอธิบายเป็นภาษาที่เด็กอายุ 5 ขวบสามารถเข้าใจได้ ซึ่งภายในหนึ่งสัปดาห์มีผู้ใช้มากกว่าล้านคน

แต่เรื่องราวความสำเร็จนั้นไม่ใช่มาจากแค่เฉพาะกลุ่มมนุษย์อัจฉริยะของ Silicon Valley เพียงอย่างเดียว ในการพยายามทำให้ ChatGPT มีเนื้อหาที่ Toxic น้อยลง OpenAI ใช้แรงงานชาวเคนยาซึ่งมีรายได้น้อยกว่า 2 ดอลลาร์ต่อชั่วโมง

งานนี้มีความสำคัญสำหรับ OpenAI GPT-3 ซึ่งเป็นต้นแบบของ ChatGPT ได้แสดงความสามารถที่น่าประทับใจในการร้อยเรียงประโยคเข้าด้วยกัน

เนื่องจากแอปนี้มีแนวโน้มที่จะสร้างชุดคำพูดที่รุนแรง เหยียดเพศ และเหยียดเชื้อชาติ นี่เป็นเพราะ AI ได้รับการฝึกเกี่ยวกับคำศัพท์หลายแสนล้านคำที่คัดมาจากอินเทอร์เน็ต ซึ่งเป็นคลังเก็บภาษามนุษย์จำนวนมหาศาล 

ซึ่งชุดข้อมูลการฝึกอบรมขนาดใหญ่นั้นเป็นสาเหตุของความสามารถทางภาษาที่น่าประทับใจของ GPT-3 แต่ก็อาจเป็นคำสาปที่ใหญ่ที่สุดได้เช่นเดียวกัน 

เนื่องจากบางส่วนของอินเทอร์เน็ตเต็มไปด้วยความ Toxic และความลำเอียง จึงไม่มีวิธีง่ายๆ ในการล้างข้อมูลการฝึกอบรมส่วนเหล่านั้น แม้แต่ทีมงานที่มีมนุษย์หลายร้อยคนก็ยังต้องใช้เวลาหลายสิบปีในการค้นหาชุดข้อมูลขนาดมหึมาด้วยตนเอง มีเพียงการสร้างกลไกความปลอดภัยที่ขับเคลื่อนด้วย AI เพิ่มเติมเท่านั้นที่ OpenAI จะสามารถควบคุมอันตรายนั้นได้

ในการสร้างระบบความปลอดภัยนั้น OpenAI ได้ดึงเอาส่วนหนึ่งของวิธีที่บริษัทโซเชียลมีเดียอย่าง Facebook ที่ได้แสดงให้เห็นแล้วว่าสามารถสร้าง AI ที่สามารถตรวจจับภาษาที่ Toxic ได้ เช่น คำพูดแสดงความเกลียดชัง เพื่อช่วยลบมันออกจากแพลตฟอร์มของพวกเขา 

หลักการนั้นเรียบง่าย เพียงแค่ป้อน AI ด้วยตัวอย่างความรุนแรง คำพูดแสดงความเกลียดชัง และการล่วงละเมิดทางเพศ และให้เครื่องมือนั้นสามารถเรียนรู้ที่จะตรวจจับรูปแบบความเป็นพิษเหล่านั้น 

ตัวตรวจจับนั้นจะถูกสร้างขึ้นใน ChatGPT เพื่อตรวจสอบว่ามันสะท้อนความ Toxic ของข้อมูลการฝึกอบรมหรือไม่ และกรองออกก่อนที่จะส่งถึงผู้ใช้ นอกจากนี้ยังสามารถช่วยขัดเกลาข้อความที่เป็นพิษออกจากชุดข้อมูลการฝึกอบรมของโมเดล AI ในอนาคต

หุ้นส่วนเอาท์ซอร์สของ OpenAI ในเคนยาคือ Sama บริษัทในซานฟรานซิสโกที่จ้างคนงานในเคนยา ยูกันดา และอินเดียเพื่อติด Tag ข้อมูลสำหรับลูกค้าใน Silicon Valley เช่น Google, Meta และ Microsoft ซึ่ง Sama ทำตลาดตัวเองว่าเป็นบริษัท “AI ที่มีจริยธรรม” และอ้างว่าได้ช่วยยกระดับผู้คนกว่า 50,000 คนให้พ้นจากความยากจน

ผู้ติด Tag ข้อมูลที่จ้างโดย Sama ในนามของ OpenAI ได้รับค่าจ้างประมาณ 1.32 ถึง 2 ดอลลาร์ ต่อชั่วโมง ขึ้นอยู่กับความอาวุโสและประสิทธิภาพการทำงานของพวกเขา 

พนักงานของ Sama คนหนึ่งซึ่งได้รับมอบหมายให้อ่านและติด Tag ข้อความสำหรับ OpenAI กล่าวว่า เขาต้องทนทุกข์ทรมานจากการมองเห็นเรื่องเลวร้ายซ้ำๆ ตัวอย่างเช่น หลังจากอ่านคำอธิบายกราฟิกของชายคนหนึ่งที่มีเพศสัมพันธ์กับสุนัขต่อหน้าเด็กเล็ก “นั่นเป็นการทรมาน” เขากล่าว 

“คุณจะอ่านข้อความทำนองนั้นตลอดทั้งสัปดาห์ และเมื่อถึงวันศุกร์คุณจะถูกรบกวนจากการคิดถึงภาพเหล่านั้น” ลักษณะที่กระทบกระเทือนจิตใจของงานทำให้ Sama ยกเลิกงานทั้งหมดสำหรับ OpenAI ในเดือนกุมภาพันธ์ 2022

พนักงานของ Sama ถูกคาดหวังให้อ่านและติด Tag ข้อความระหว่าง 150 ถึง 250 ข้อความต่อกะเก้าชั่วโมง ซึ่งตัวอย่างเหล่านี้อาจมีตั้งแต่ประมาณ 100 คำไปจนถึงมากกว่า 1,000 คำ 

ทำให้เหล่าพนักงานของ Sama มีแผลเป็นทางจิตใจจากการทำงาน แม้ว่าพวกเขาจะมีสิทธิ์เข้าร่วมเซสชันกับที่ปรึกษาด้านสุขภาพจิต แต่เซสชันเหล่านี้ก็ไม่มีประโยชน์และต้องจองคิวนานมาก ๆ เนื่องจากมีความต้องการสูง

ในเดือนกุมภาพันธ์ 2022 ความสัมพันธ์ของ Sama และ OpenAI ต้องหยุดลง ในเดือนนั้น Sama เริ่มงานนำร่องสำหรับโครงการแยกต่างหากสำหรับ OpenAI การรวบรวมภาพทางเพศและความรุนแรง ซึ่งบางภาพผิดกฎหมายภายใต้กฎหมายของสหรัฐฯ เพื่อส่งไปยัง OpenAI งานติด Tag กำกับภาพดูเหมือนจะไม่เกี่ยวข้องกับ ChatGPT อีกต่อไป

การตัดสินใจของ Sama ที่จะยุติการทำงานกับ OpenAI หมายความว่าพนักงานของ Sama ไม่ต้องจัดการกับข้อความและภาพที่น่ารำคาญอีกต่อไป แต่มันมีผลกระทบอย่างมากต่อการดำรงชีวิตของพวกเขาด้วย 

พนักงานของ Sama กล่าวว่าในช่วงปลายเดือนกุมภาพันธ์ 2022 พวกเขาถูกเรียกเข้าร่วมการประชุมกับสมาชิกในทีมทรัพยากรบุคคลของบริษัท ซึ่งพวกเขาได้รับแจ้งข่าวดังกล่าว “เราได้รับแจ้งว่าพวกเขา (Sama) ไม่ต้องการให้พนักงานของตนสัมผัสกับเนื้อหาที่อันตรายเช่นนี้อีก”

แต่ก็ต้องบอกว่าความต้องการของมนุษย์ในการติด Tag ข้อมูลสำหรับระบบ AI ยังคงมีอยู่ อย่างน้อยก็ในตอนนี้ 

“พวกมันมีความสามารถที่น่าประทับใจ แต่ ChatGPT และโมเดลอื่นๆ ไม่ได้มีเวทมนต์ พวกมันต่างพึ่งพาห่วงโซ่อุปทานขนาดใหญ่ของแรงงานมนุษย์และข้อมูลที่คัดลอกมา ซึ่งส่วนใหญ่ไม่ได้ระบุแหล่งที่มาและใช้โดยไม่ได้รับความยินยอม” Andrew Strait นักจริยธรรมด้าน AI กล่าวเมื่อเร็วๆ นี้ผ่านทางทวิตเตอร์. “สิ่งเหล่านี้เป็นปัญหาพื้นฐานที่ร้ายแรงซึ่งผมไม่เคยเห็น OpenAI กล่าวถึงมันเลยด้วยซ้ำ”

References :
https://www.sama.com/blog/we-are-a-b-corp/
https://time.com/collection/best-inventions-2022/6225486/dall-e-2/
https://time.com/6247678/openai-chatgpt-kenya-workers/
https://thisisafrica.me/africans-rising/samasource-digital-africa-unemployed-youth/

อย่าแบน ChatGPT ในโรงเรียน จงใช้มันเป็นเครื่องมือในการเพิ่มประสิทธิภาพทางการศึกษา

เรียกได้ว่าตอนนี้ ChatGPT เองได้เป็นกระแสไปทั่วโลก กับความสามารถอันพิเศษของมัน ความรู้สึกส่วนตัวผมเองที่เคยรู้สึกเดียวกับเทคโนโลยีใหม่ ๆ แบบนี้ก็คือตอนที่ Google ได้เริ่มเปิดให้ใช้งานทั่วโลกใหม่ ๆ

ในตอนนั้นเดิมทีที่ข้อมูลต่าง ๆ ที่เราต้องการค้นหา อาจจะมีทางเว็บไซต์บ้าง แต่ก็ยากที่จะค้นหามัน ส่วนใหญ่ก็ต้องไปค้นคว้ากันที่ห้องสมุด เมื่อ Google เปิดตัวทุกสิ่งทุกอย่างก็เปลี่ยนไปทันที เมื่อเราสามารถค้นหาข้อมูลต่าง ๆ แทบทุกอย่างในโลกผ่านปลายนิ้ว

และเฉกเช่นเดียวกันกับสถานการณ์ที่กำลังจะเกิดขึ้นกับ ChatGPT เพราะมันสามารถทำอะไรได้หลายอย่างมาก ๆ โดยเฉพาะในวงการการศึกษา ทั้งเขียนเรียงความ แก้ปัญหาวิทยาศาสตร์ คณิตศาสตร์ หรือแม้กระทั่งเขียนโค้ดคอมพิวเตอร์

มันเป็นยิ่งกว่า Google ถ้าเทียบกับสิ่งที่มันส่งผลกระทบในการเรียน ซึ่งโลกของการเรียนรู้ของมนุษย์โดยเฉพาะในห้องเรียนจะเปลี่ยนไปอย่างสิ้นเชิง

แม้จะมีข่าวว่าเริ่มมีการแบน ChatGPT ในสถานศึกษาต่าง ๆ เกิดขึ้นบ้างแล้ว แต่ต้องบอกว่า ChatGPT มันก็แทบไม่ต่างจาก Google สุดท้ายมันจะกลายเป็นสิ่งสามัญของนักเรียนทุกคนที่ต้องใช้ในการเรียน การค้นหาข้อมูล

แม้มันจะดูเหมือนการโกง เช่น การให้ ChatGPT ทำการบ้าน หรือทำข้อสอบให้ ซึ่งดูเหมือนว่ามันจะทำได้ดีเสียด้วย มันเป็นการลุกล้ำเข้ามาในอุตสาหกรรมการศึกษาแบบแทบไม่มีการเตือนภัยล่วงหน้า

การแบน ChatGPT นั้นไม่ใช่ทางออกระยะยาวอย่างแน่นอน เพราะสุดท้ายมันมีเครื่องมือมากมายให้นักเรียนสามารถเข้าถึงบริการเหล่านี้ได้ ตัวอย่างเช่น VPN

แม้ว่าในทางเทคนิคการปิดกั้นนั้นจะพอทำได้ แต่มันสร้างภาระงานเพิ่มเติมให้กับครูผู้สอนอย่างแน่นอน เพราะต้องมาไล่ติดตามซอฟท์แวร์ที่คอยดักจับ AI เหล่านี้

แต่หากมองอีกมุมหนึ่งแล้วนั้น การนำ ChatGPT มาใช้งานที่ถูกต้อง สามารถทำให้มันเป็นเครื่องมือการสอนที่มีประสิทธิภาพได้

ตัวอย่างที่น่าสนใจ Cherie Shields ครูสอนภาษาอังกฤษระดับมัธยมปลายในรัฐ Oregon ได้ให้นักเรียนใช้เครื่องมืออย่าง ChatGPT ในการสร้างโครงร่างของเรียงความโดยเปรียบเทียบกับเรื่องสั้นในศตวรรษที่ 19

ChatGPT ช่วยเขียนโครงร่างเหล่านี้ ซึ่งลดเวลาหลายๆ อย่างในการเรียนรู้ให้กับนักเรียนได้เป็นอย่างมาก Cherie ยังสอนให้นักเรียนเกี่ยวกับการตอบโต้กับโมเดล AI และวิธีที่จะใช้ประโยชน์จากมัน

ChatGPT ยังช่วยให้ครูประหยัดเวลาในการเตรียมตัวสำหรับชั้นเรียนได้อีกด้วย Jon Gold ครูสอนประวัติศาสตร์ในเกรด 8 ที่โรงเรียน Moses Brown ในรัฐโรไอแลนด์ ได้ทดลองใช้ ChatGPT เพื่อสร้างแบบทดสอบ เขาได้ป้อนบทความเกี่ยวกับยูเครนให้ AI และขอให้ AI สร้างคำถามแบบปรนัย 10 ข้อที่สามารถใช้เพื่อทดสอบความเข้าใจของนักเรียนเกี่ยวกับบทความ

Gold กล่าวว่า ChatGPT ไม่ใช่ภัยคุกคามต่อการเรียนรู้ของนักเรียน กลับกัน มันเป็นเครื่องส่งเสริมความรู้ความเข้าใจให้กับนักเรียนและลดระยะเวลาในการเรียนรู้สิ่งต่าง ๆ ได้มีประสิทธิภาพมากยิ่งขึ้น

โลกเรานั้นมีแต่ก้าวไปข้างหน้าไม่มีถอยหลัง Google ก็พัฒนาความสามารถในการค้นหามาตลอดเวลา ทำให้คนสามารถเข้าถึงข้อมูลการค้นหาสิ่งต่าง ๆ ได้อย่างมีประสิทธิภาพมากยิ่งขึ้นกว่าเดิมในทุก ๆ วันน

ChatGPT ก็เช่นเดียวกัน มันมีแต่จะพัฒนาไปข้างหน้า เพราะฉะนั้น เราต้องหาวิธีการปรับตัวให้เข้ากับเครื่องมือเหล่านี้ ไม่ใช่แค่เลือกวิธีการง่าย ๆ โดยการแบนมัน เพราะสุดท้ายเราจะไม่ได้ประโยชน์อะไรจากเทคโนโลยีเหล่านี้ที่จะเปลี่ยนภูมิทัศน์ด้านการศึกษาของมนุษย์ไปตลอดกาลนั่นเองครับผม

References Image :
https://www.channelnewsasia.com/business/chatgpt-ai-teachers-education-plagiarism-homework-writing-essays-3207326

8 บทเรียนจากความล้มเหลวของผลิตภัณฑ์เทคโนโลยีที่ใหญ่ที่สุดตลอดกาล

ต้องเรียกได้ว่างาน Consumer Electronics Show (CES) ได้เป็นสถานที่เปิดตัวผลิตภัณฑ์ที่ปฏิวัติวงการอย่างแท้จริง แต่ก็มีอีกหลากหลายผลิตภัณฑ์ที่ล้มเหลวอย่างไม่เป็นท่า ในงาน CES ปีนี้จึงมีการจัดแสดงเทคโนโลยีมีความล้มเหลวมากที่สุดในรอบ 50 ปีที่ผ่านมา ที่นำเสนอโดย Prelaunch.com ซึ่งเป็นแพลตฟอร์มสำหรับการเปิดตัวผลิตภัณฑ์

ต่อไปนี้คือผลิตภัณฑ์เทคโนโลยีที่ใหญ่ที่สุดบางส่วนที่ล้มเหลวในประวัติศาสตร์ของโลกเทคโนโลยี

Amazon Fire Phone

ในปี 2014 Amazon ได้เปิดตัวสมาร์ทโฟนที่เปิดใช้งาน 3D เพื่อสานต่อความสำเร็จของแท็บเล็ต Fire มีฟีเจอร์เฉพาะที่ออกแบบมาสำหรับสาวก Amazon เช่น X-Ray (เทคโนโลยีซอฟต์แวร์ที่ระบุตัวนักแสดง เพลง และสิ่งอื่นๆ บนหน้าจอ ตลอดจนเรื่องเบ็ดเตล็ดในเนื้อหา) และเครื่องมือบริการลูกค้าโดยเฉพาะ ปรากฎว่าลูกค้าของ Amazon ที่ภักดีเหล่านั้นยังภักดีต่อ Apple และ Samsung อีกด้วย และไม่สนใจใยดีที่ Amazon จะนำสมาร์ทโฟนสมัยใหม่มาให้ใช้ 

TwitterPeek

นานมาแล้วก่อนที่ Elon Musk จะมีบทบาทในแพลตฟอร์มโซเชียลมีเดีย Twitter ตัดสินใจลองสิ่งที่แตกต่างออกไป โดยร่วมมือกับ Peek บริษัทเทคโนโลยีมือถือในปี 2009 เพื่อสร้างอุปกรณ์ที่เหมือนเพจเจอร์ที่ให้ผู้ใช้สามารถส่งและรับทวีตได้ โดยมีราคาอยู่ที่ 100 ดอลลาร์ และยังมีค่าบริการ 8 ดอลลาร์ต่อเดือนอีกด้วย ผู้บริโภคตัดสินใจอย่างรวดเร็วว่าพวกเขาต้องการใช้โทรศัพท์มากกว่าจ่ายเงินเพื่อทวีตแบบไร้สาระกับอุปกรณ์ดังกล่าวนี้ 

iPod HIFI

การนำระบบสเตอริโอในบ้านมาใช้ครั้งแรกของ Apple มีคุณภาพเสียงที่ยอดเยี่ยมและได้รับการยกย่องอย่างมากในการเปิดตัว แต่มันก็ไม่ใช่อุปกรณ์พกพาโดยเฉพาะ และเมื่อลำโพงพกพาคุณภาพสูงในราคาย่อมเยาเริ่มเข้าสู่ตลาด (และคู่แข่งอย่าง Sonos ก็เติบโตขึ้น) Apple ก็ทิ้งเจ้าลำโพงพกพาตัวนี้ทันที 

iPod HIFI จาก Apple (CR:Wikipedia)
iPod HIFI จาก Apple (CR:Wikipedia)

Sony Google TV Remote

แม้ดูเหมือน iPod HIFI จะเป็นการปฏิวัติห้องนั่งเล่นให้ทันสมัยด้วยอุปกรณ์ที่เป็นมิตรต่อผู้บริโภค  แต่ไม่ว่าจะเพราะการออกแบบที่ไม่ดีหรือความไม่ลงรอยกันระหว่างยักษ์ใหญ่ด้านเทคโนโลยีทั้งสอง รีโมทแบบ 88 ปุ่มนี้มีความซับซ้อนเกินไปสำหรับผู้ใช้ส่วนใหญ่ ซึ่งคิดไม่ออกด้วยซ้ำว่าจะเปลี่ยนช่องอย่างไร 

Microsoft Zune

iPod ของ Apple อยู่ในตลาดมาเป็นเวลาห้าปีแล้วในช่วงเวลาที่ Microsoft กำลังจะเปิดตัวเครื่องเล่นเพลงดิจิทัลของตัวเอง และการเข้าสู่ตลาดครั้งแรกนั้นเป็นอุปกรณ์ที่เทอะทะซึ่งไม่ใช่สิ่งที่ผู้บริโภคคาดหวัง แค็ตตาล็อกคลังเพลงของ Zune เทียบไม่ได้กับสิ่งที่มีใน iTunes และดูเหมือน Microsoft จะคิดล้ำหน้าไปนิด โดยเสนอบริการ subscription เพลง แทนที่จะมุ่งเน้นไปที่ผู้ที่ซื้อแบบซิงเกิ้ลและดาวน์โหลดอัลบั้มเหมือนที่ iTunes ทำ

Nike Magneto

Nike ทราบดีว่าลูกค้าที่เน้นการเล่นกีฬามันจะสวมแว่นกันแดด ดังนั้นจึงเหมาะสมที่จะแนะนำแบรนด์ Nike กับผลิตภัณฑ์ในตลาดดังกล่าวนี้

Nike Magneto ผลิตภัณฑ์แว่นกันแดดจาก Nike (CR:Y2K Aesthetic)
Nike Magneto ผลิตภัณฑ์แว่นกันแดดจาก Nike (CR:Y2K Aesthetic)

แต่เมื่อตระหนักว่าหนึ่งในจุดอ่อนที่สำคัญของนักกีฬาคือการที่แว่นตามีความลื่นเมื่อผู้สวมใส่เหงื่อออก บริษัทจึงใช้วิธีการที่ไม่ธรรมดา โดยขอให้ลูกค้าติดแม่เหล็กที่ขมับเพื่อให้แน่ใจว่าแว่นตาจะติดอยู่กับที่ น่าตกใจที่ผู้คนไม่เต็มใจที่จะทำเช่นนั้น

Rejuvenique Face Mask

อาจเป็นผลิตภัณฑ์ที่แปลกประหลาดที่สุด ความยิ่งใหญ่ของอุตสาหกรรมความงามนี้มีเป้าหมายเพื่อคืนความอ่อนเยาว์ด้วยการกระตุ้นด้วยไฟฟ้า แต่อุปกรณ์จริงซึ่งออกแบบมาให้รัดกับศีรษะของผู้ใช้ คล้ายกับบางอย่างในหนังสยองขวัญ แม้ตัวผลิตภัณฑ์จะได้รับการสนับสนุนจากดาราชื่อดัง แต่สำนักงานคณะกรรมการอาหารและยาประกาศว่ามันไม่ปลอดภัยและในที่สุดก็หายไปจากชั้นวางของในร้านไปแบบเงียบ ๆ  

Nintendo Virtual Boy

ชุดหูฟังสำหรับเล่นเกม 3 มิติของ Nintendo เป็นนวัตกรรมรุ่นบุกเบิกของชุดหูฟัง VR ที่เราเห็นกันในทุกวันนี้ แต่มันเกิดความผิดพลาดเกินกว่าที่จะจินตนาการได้ 

Nintendo Virtual Boy เป็นนวัตกรรมรุ่นบุกเบิกของชุดหูฟัง VR (CR:Youtube)
Nintendo Virtual Boy เป็นนวัตกรรมรุ่นบุกเบิกของชุดหูฟัง VR (CR:Youtube)

โดยตัวผลิตภัณฑ์เองก็มีราคาสูงกว่าที่แฟน ๆ Nintendo ส่วนใหญ่จะสามารถซื้อได้ เอฟเฟกต์ 3 มิติของมันก็ไม่น่าประทับใจ และการสวมใส่มันทำให้ปวดคอ หลัง และตาสำหรับผู้ใช้บางคน หลังจากนั้นไม่ถึงปี บริษัทก็ตัดสินใจว่าได้ทำผิดพลาดครั้งใหญ่ 

References :
https://www.fastcompany.com/90831790/lessons-from-8-worst-tech-product-failures-all-time
https://www.businessinsider.com/biggest-product-flops-in-history-2016-12

InnerEye x Emotiv เมื่อบริษัทต่างๆ เริ่มลงทุนในเทคโนโลยีเพื่อสแกนสมองของพนักงาน

ไม่มีความลับใด ๆ กับนายจ้างของคุณอีกต่อไป จงเตรียมตัวให้พร้อมกับเทคโนโลยีทางด้านประสาทใหม่ที่กำลังมาถึงในที่ทำงานของคุณ

ในช่วงไม่กี่ปีที่ผ่านมามีบริษัทจำนวนมากที่เสนออุปกรณ์อ่านใจให้นายจ้างสำหรับพนักงานของพวกเขา ตัวอย่างเช่น InnerEye บริษัทของอิสราเอลที่อ้างว่าชุดหูฟังของพวกเขาที่ได้รวมเอาเทคโนโลยี Machine Learning เข้ากับพลังโดยธรรมชาติของจิตใจมนุษย์

โดยจะช่วยให้พนักงานขจัดความไม่เด็ดขาดและทำงานได้รวดเร็วกว่าที่เคยเป็นมา Emotiv บริษัทสตาร์ทอัพในซานฟรานซิสโกอ้างว่าสามารถติดตามความเป็นอยู่ที่ดีของพนักงานด้วยชุดหูฟัง EEG แบบไร้สาย

นับตั้งแต่ก่อตั้งเมื่อ 11 ปีที่แล้ว Emotiv ได้เปิดตัวชุดหูฟังสแกนสมองน้ำหนักเบาสามรุ่น จนถึงตอนนี้ บริษัทขายฮาร์ดแวร์ให้กับนักประสาทวิทยาศาสตร์เป็นหลัก โดยมีธุรกิจปลีกย่อยที่มุ่งเป้าไปที่ผู้พัฒนาแอพหรือเกมที่ควบคุมด้วยสมอง 

Emotiv เริ่มโฆษณาเทคโนโลยีของตนว่าเป็นโซลูชันสำหรับองค์กรในปีนี้ เมื่อเปิดตัวรุ่นที่ 4 ซึ่งเป็นระบบ MN8 ซึ่งรวมเอาเซ็นเซอร์สแกนสมองไว้ในหูฟังบลูทูธ

Emotiv ได้เปิดตัวเทคโนโลยีสำหรับองค์กรในโลกที่กำลังมีการถกเถียงกันอย่างดุเดือดเกี่ยวกับอนาคตของสถานที่ทำงาน พนักงานกำลังมีปัญหากับนายจ้างเกี่ยวกับแผนการกลับไปทำงานหลังจากเกิดโรคระบาด

แม้มันจะดูเหมือนเป็นเรื่องบ้าคลั่งมาก ๆ แต่บริษัทเหล่านี้ไม่ได้ผิดปกติ เพราะนี่เป็นตลาดที่กำลังเติบโต และนายจ้างกำลังเริ่มลงทุนกับสิ่งเหล่านี้เพิ่มมากขึ้นอย่างมีนัยสำคัญ

ซึ่งก็ต้องบอกว่าเครื่องมือเหล่านี้ไม่เพียงแค่เพิ่มประสิทธิภาพการทำงานเท่านั้น แต่ยังช่วยให้พนักงานมีสุขภาพที่ดีอีกด้วย 

เมื่อบริษัทใช้ระบบ MN8 ของ Emotiv พนักงานจะได้รับข้อมูลเชิงลึกเกี่ยวกับระดับการโฟกัสและความเครียดของแต่ละคน และผู้จัดการจะได้รับข้อมูลที่รวบรวมและไม่ระบุตัวตนเกี่ยวกับทีมของตน 

AI ของ InnerEye ช่วยให้พนักงานตัดสินใจได้อย่างรวดเร็ว โดยเปลี่ยนพนักงานทุกวันให้กลายเป็นยอดมนุษย์ Emotiv เพียงต้องการให้พนักงานมีความสุขเพิ่มมากยิ่งขึ้น

Tan Le ซีอีโอและผู้ร่วมก่อตั้งของ Emotiv กล่าวว่า “ศักยภาพของเทคโนโลยีนี้มีมหาศาล” “ดังนั้นเราจึงตระหนักดีในการเลือกพันธมิตรที่ต้องการแนะนำเทคโนโลยีนี้ด้วยวิธีการที่มีความรับผิดชอบ พวกเขาต้องมีความปรารถนาอย่างแท้จริงที่จะช่วยเหลือและให้อำนาจแก่พนักงาน”

ที่สำคัญอุปกรณ์เหล่านี้แตกต่างจาก “bossware” ซึ่งเป็นเทคโนโลยีสำหรับผู้บริโภคที่กำลังเติบโตซึ่งมุ่งมั่นที่จะนำเสนอการเฝ้าระวังของพนักงานในโลกที่ทำงานจากระยะไกล

“ผมคิดว่ามีความสนใจอย่างมากจากนายจ้าง” Karen Rommelfanger ผู้ก่อตั้งสถาบัน Neuroethics กล่าว “แต่ผมไม่รู้ว่ามีพนักงาน สนใจมันจริง ๆ หรือไม่ “

แล้วคุณล่ะมีความคิดเห็นอย่างไรกับเทคโนโลยีดังกล่าวนี้?

References :
https://spectrum.ieee.org/neurotech-workplace-innereye-emotiv
https://gilescrouch.medium.com/brain-scanning-in-the-workplace-its-here-ceb995b49f2e
https://bioethics.com/archives/66797

จะเกิดอะไรขึ้น ถ้า AI ได้รับรางวัลโนเบลสาขาการแพทย์?

เอาจริง ๆ ถือเป็นเรื่องที่น่าสนใจนะครับว่า ในอนาคต ด้วยเทคโนโลยีโดยเฉพาะทางด้าน AI ที่ก้าวล้ำไปข้างหน้าอย่างรวดเร็ว เราได้เห็น model ทางการแพทย์ใหม่ ๆ ที่นำเอาอัลกอริธึมทางด้าน AI ไปประยุกต์ใช้ และประสบความสำเร็จอย่างสูง

ซึ่งในเบื้องต้น ยังต้องมีมนุษย์คอยช่วยพัฒนาวิธีการเหล่านี้อยู่ แต่ถ้าในอนาคตเราสามารถตัดมนุษย์ออกจากกระบวนการดังกล่าวได้ทั้งหมด แล้วปล่อยให้ AI มันทำงานแล้วสามารถค้นพบงานวิจัยระดับ breakthrough ของวงการได้ล่ะ AI ควรจะได้รับรางวัลโนเบลไหม?

เป็นบทความจาก the economist ที่ถือว่าน่าสนใจเลยทีเดียว เมื่อมีการทำนายอนาคตว่าในปี 2036 นั้น รางวัลโนเบลสาขาการแพทย์จะถูกมอบให้กับปัญญาประดิษฐ์

ต่อไปนี้คือเรื่องราวที่ถูกสมมิตขึ้น

ลองจินตนาการว่า มันจะวุ่นวายขนาดไหนหากมันเกิดขึ้นจริง AI ที่มีชื่อว่า YULYA ซึ่งเป็นเทคโนโลยี Machine Learning ที่รู้จักกันอย่างเป็นทางการว่า System for Automated Lymphoma Diagnosis

มันสามารถพิสูจน์ได้ว่ามีประสิทธิภาพในการต่อต้านแบคทีเรีย มันเกิดขึ้นเนื่องจากอัตราการเสียชีวิตที่เกี่ยวข้องกับความล้มเหลวของยาปฏิชีวนะเพิ่มขึ้นอย่างมีนัยสำคัญ

YULYA ได้ช่วยชีวิตผู้คนได้ประมาณ 4 ล้านคน ทั้งที่ผ่านการรักษาโรคติดเชื้อโดยตรง รวมถึงในกระบวนการการผ่าตัดทั้งผ่าคลอด ซึ่งถือว่าอันตรายเกินไปหากไม่มียาปฏิชีวนะ

เดิมที YULYA ถูกสร้างขึ้นเพื่อจัดการกับปัญหาที่แตกต่างกัน : ค้นหาวิธีในการรักษามะเร็งที่มีประสิทธิภาพมากขึ้น ระบบนี้เป็นหนึ่งในปัญญาประดิษฐ์รุ่นใหม่ที่รวมเอาที่รวมเอาเทคโนโลยี Neural Network และ Deep Learning ขั้นสูง

มันทำงานโดยการตรวจสอบบันทึกจากฐานข้อมูลผู้ป่วย ร่วมกับคลังเอกสารจากวารสารทางการแพทย์และข้อมูลในอดีตจากบริษัทยา นอกจากนี้ยังได้รับการตั้งโปรแกรมให้ประเมินประสิทธิภาพของการรักษาต่าง ๆ ซึ่งรวมถึงการรักษาแบบผสมผสาน เพื่อแนะนำสูตรการรักษาใหม่ที่สามารถทดสอบในผู้ป่วยได้

อย่างไรก็ตามมันได้เกิดจุดเปลี่ยนครั้งสำคัญในปี 2034 โดยไม่ตั้งใจ ซึ่ง YULYA ได้เข้าถึงเอกสารล่าสุดทั้งหมดในวารสารทางการแพทย์แทนที่จะเป็นเฉพาะที่เกี่ยวข้องกับมะเร็ง

YULYA เริ่มเข้าถึงข้อมูลที่เกี่ยวข้องกับการดื้อยาปฏิชีวนะ และได้เข้าไปเรียนรู้อย่างต่อเนื่อง และสามารถแนะนำแนวทางใหม่ในการรักษาได้สำเร็จ

YULYA ซึ่งถูกสร้างโดย Dr. Anisha Rai แต่มันบังเอิญไปเรียนรู้บางสิ่งบางอย่างนอกเหนือจากงานวิจัยที่เกี่ยวข้อง ซึ่งไม่เคยได้รับอนุญาต แต่ผลลัพธ์ที่ออกมามันกลับน่าทึ่ง Dr.Rai จึงเลือกที่จะเสนองานวิจัยดังกล่าวออกสู่สาธารณะ

มันได้กลายเป็นข้อถกเถียงกันอย่างดุเดือดว่า YULYA หรือ ผู้สร้างมัน ควรได้รับเครดิตสำหรับงานวิจัยนี้ แต่ Dr. Rai ยืนยันว่า YULYA สมควรได้รับเครดิตแต่เพียงผู้เดียว ซึ่งท้ายที่สุดงานวิจัยชิ้นนี้ได้รับรางวัลโนเบล

บทสรุป

โดยทั่วไปแล้ว AI จะใช้ทำนายการเริ่มมีอาการของโรค เช่น อัลไซเมอร์ ให้คำแนะนำการรักษาเฉพาะบุคคล และเพิ่มความสามารถในการวินิจฉัยของแพทย์ เช่น การอ่านผล X-RAY หรือ ช่วยในการค้นคว้ายาใหม่ ๆ

แต่ก็มีอีกหลากหลายเทคโนโลยีที่ตอนนี้เรียกได้ว่าก้าวล้ำไปมาก ๆ แล้ว แม้จะเป็นเรื่องที่สมมติขึ้น แต่อยู่บนพื้นฐานของการก้าวกระโดดครั้งสำคัญของเทคโนโลยีที่กำลังจะเกิดขึ้นจริง

และท้ายที่สุด YULYA จะไม่ใช่ปัญญาประดิษฐ์สุดท้ายที่ได้รับรางวัลโนเบล เพราะในแขนงอื่น ๆ ทั้งเคมี ฟิสิกส์ ระบบ AI กำลังถูกใช้เพื้อค้นหาวัสดุและสารประกอบเคมีใหม่ ๆ ที่เหมาะสำหรับใช้ในแบตเตอรี่ แผงโซลาเซลล์ และอื่นๆ อีกมากมาย

และสุดท้ายมนุษย์ก็แทบไม่จำเป็นในกระบวนการวิจัยเหล่านี้อีกต่อไปเหมือนสิ่งที่ YULYA ทำ อยู่ที่ว่าเราจะยอมรับความจริงหรือไม่ว่าเราได้พ่ายแพ้ให้กับพวกมันแล้ว และต้องมอบรางวัลทางวิทยาศาสตร์ที่ยิ่งใหญ่อย่างรางวัลโนเบลให้กับพวกมันนั่นเองครับผม

References :
https://www.economist.com/what-if/2021/07/03/what-if-an-ai-wins-the-nobel-prize-for-medicine
https://www.worldquant.com/ideas/the-next-imitation-game-ai-wins-the-nobel/