การเปิดตัว GPT-4o และ Project Astra ของทางฝั่ง Google ถือได้ว่าเป็นจุดเปลี่ยนครั้งสำคัญของแวดวง AI เราได้มองเห็นอนาคตของเทคโนโลยีดังกล่าวนี้ที่เริ่มปฏิสัมพันธ์กับมนุษย์ด้วยอารมณ์และความรู้สึก ซึ่งดูแล้วช่างน่าขนหัวลุกยิ่งนัก
แม้งาน Demo ที่ออกมามันจะดูน่าประทับใจ แต่อย่างที่ทุกคนรู้ว่าการจัดฉาก Demo เหล่านี้ต้องมีการตระเตรียมการไว้ก่อนแล้ว ซึ่งหากนำมาใช้จริงคงไม่ได้ตอบโจทย์ในทุกสถานการณ์เหมือนที่โชว์ใน Demo อย่างแน่นอน
วิธีหนึ่งที่จะทำให้โมเดลภาษาขนาดใหญ่ (LLM) สามารถปฏิบัติงานที่มีความซับซ้อนในโลกแห่งความเป็นจริงได้นั้น มันก็พอมีทางออกอยู่บ้าง สิ่งหนึ่งที่นักวิจัยกำลังดำเนินงานอยู่นั่นก็คือ สั่งให้พวกมันทำงานร่วมกันซะ!!!
ในตอนนี้เหล่านักวิจัยกำลังขมักเขม้นทดลองรูปแบบใหม่ของการทำงานร่วมกันของโมเดล AI ในสิ่งที่เรียกว่า Multi-agent systems (MAS) ที่ทำให้พวกมันสามารถมอบหมายงานให้แก่กัน ทำงานต่อกันได้ หรือปรึกษาหารือเกี่ยวกับปัญหาเพื่อหาแนวทางในการแก้ไข และทั้งหมดนี้ไม่จำเป็นต้องมีมนุษย์คอยสั่งงานมันแต่อย่างใด
การทดลองล่าสุดที่ได้รับเงินทุนจากสำนักงานโครงการวิจัยขั้นสูงด้านการป้องกันของสหรัฐฯ (DARPA) มีการขอให้ตัวแทน AI 3 ตัว ได้แก่ Alpha Bravo และ Charlie ทำการค้นหาและกำจัดระเบิดที่ซ่อนอยู่ในห้องเสมือนจริงที่มีโครงสร้างที่ซับซ้อนสูง
โดยระเบิดเหล่านี้จะถูกทำลายได้ก็ต่อเมื่อใช้เครื่องมือเฉพาะในลำดับที่ถูกต้องเท่านั้น ในแต่ละรอบ ตัวแทน AI เหล่านี้ ซึ่งใช้โมเดล GPT-3.5 และ GPT-4 ของ OpenAI เพื่อจำลองเป็นผู้เชี่ยวชาญในการเก็บกู้ระเบิด และต้องมีการสื่อสารกันระหว่างเพื่อนร่วมทีมให้ได้เหมือนมนุษย์
ในช่วงหนึ่งของการทดลอง Alpha ได้แจ้งว่ามันกำลังตรวจสอบระเบิดลูกหนึ่งในห้อง ๆ หนึ่ง และสั่งให้เพื่อนร่วมทีมทำสิ่งต่อไป Bravo ปฏิบัติตาม และเสนอว่า Alpha ควรลองใช้เครื่องมือสีแดงเพื่อกำจัดระเบิดที่พบ และต้องบอกว่านักวิจัยที่เป็นมนุษย์ไม่ได้สั่งให้มันทำ แต่พวกมันกำลังสื่อสารด้วยกันเอง !!!
เนื่องจาก LLM ใช้ข้อความเพื่อรับข้อมูล input รวมถึง output ที่ออกมา ดังนั้น AI จึงสามารถสื่อสารกันได้ผ่านข้อความที่มันคุยกันนั่นเอง
ที่สถาบัน MIT นักวิจัยได้แสดงให้เห็นว่าแชทบอทสองตัวที่สนทนากันสามารถแก้ปัญหาคณิตศาสตร์ได้ดีกว่าแชทบอทตัวเดียว
ระบบนี้ทำงานโดยป้อนคำตอบที่เสนอโดยบอทตัวหนึ่งซึ่งใช้ LLM ที่แตกต่างกัน ให้กับบอทอีกตัว จากนั้นจึงกระตุ้นให้บอทเหล่านั้นอัปเดตคำตอบของตนเอง
Yilun Du นักวิทยาการคอมพิวเตอร์ที่ MIT ผู้นำการวิจัยนี้กล่าวว่า หากบอทตัวหนึ่งให้คำตอบที่ถูกต้องและอีกตัวผิด พวกมันมีแนวโน้มที่จะเชื่อในคำตอบที่ถูกต้อง
ทีมงานยังพบว่าการขอให้บอท LLM สองตัวหาข้อสรุปร่วมกันเกี่ยวกับนักวิทยาการคอมพิวเตอร์ที่มีชื่อเสียงนั้น บอทที่ทำงานร่วมกันมีแนวโน้มที่จะสร้างข้อมูลที่ผิดพลาดน้อยกว่าบอทเพียงตัวเดียว
นักวิจัยบางคนที่ทำงานเกี่ยวกับ MAS ได้เสนอว่ารูปแบบการสื่อสารร่วมกันเพื่อหาข้อสรุปที่แม่นยำนั้น อาจเป็นประโยชน์ต่อการปรึกษาทางการแพทย์ หรือการโต้เถียงจากผู้เชี่ยวชาญเกี่ยวกับบทความทางวิชาการในอนาคต
แม้กระทั่งมีการเสนอถึงขั้นที่ว่าการโต้เถียงกันของบอทเหล่านี้อาจช่วยเพิ่มประสิทธิภาพในกระบวนการสร้าง input ให้กับแชทบอท LLM ซึ่งปัจจุบันต้องใช้ข้อมูล input ที่ป้อนจากมนุษย์
การทำงานเป็นทีมของบอททำได้ดีกว่าทำงานด้วยบอทตัวเดียวอย่างชัดเจน เนื่องจากงานใด ๆ ก็สามารถแบ่งเป็นงานย่อย ๆ ที่เฉพาะเจาะจงมากขึ้น
Chi Wang นักวิจัยหลักจากไมโครซอฟต์ในเรดมอนด์ รัฐวอชิงตัน กล่าวว่า แม้ว่าแชทบอท LLM ตัวเดียวก็สามารถย่อยงานได้เหมือนกัน แต่ต้องทำงานตามลำดับ ซึ่งเป็นข้อจำกัด เช่นเดียวกันเมื่อมนุษย์ทำงานเป็นทีม
ทีมของ Wang ได้สร้างทีมงานบอทเพื่อเขียนซอฟต์แวร์ ซึ่งประกอบไปด้วย “commander” ที่รับคำสั่งจากมนุษย์ แล้วมอบหมายงานย่อยให้กับ “writer” ซึ่งทำหน้าที่เขียนโค้ด และ “safeguard” ที่ทำหน้าที่ตรวจสอบโค้ดสำหรับช่องโหว่ด้านความปลอดภัยก่อนที่จะส่งกลับไปยัง commander เพื่อตรวจสอบขั้นสุดท้าย
จากการทดสอบของ Wang งานเขียนโค้ดง่าย ๆ โดยใช้ MAS ของเขาสามารถทำได้เร็วกกว่าบอทตัวเดียวถึงสามเท่า โดยแทบจะไม่มีความผิดพลาดใด ๆ
ปฏิสัมพันธ์ระหว่าง LLM ยังทำให้เกิดการจำลองบทบาทของมนุษย์อย่างแท้จริง นักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ ได้แสดงให้เห็นว่า ด้วยคำสั่งเพียงไม่กี่คำสั่ง บอทสองตัวของ GPT-3.5 สามารถต่อรองราคาไพ่โปเกมอนหายากได้
มันทำงานด้วยการแบ่งหน้าที่ บอทตัวหนึ่งมาแนวโหด ๆ เช่น บอกผู้ขายว่า 50 ดอลลาร์มันดูเว่อร์เกินไปนะคร้าบสำหรับแผ่นกระดาษแผ่นเดียว และในที่สุดสองฝ่ายก็ตกลงกันได้ที่ 25 ดอลลาร์
อย่างไรก็ตาม อย่างที่เรารับรู้กัน บางครั้ง LLM ก็หาวิธีแก้ปัญหาที่ดูปัญญาอ่อนเป็นอย่างมาก และในระบบทีมความคิดบ้าๆ เหล่านี้อาจจะแพร่กระจายไปยังลูกทีมของมันด้วย
ในการฝึกการกู้ระเบิดที่จัดโดย DARPA มีบอทตัวหนึ่งเสนอให้มองระเบิดที่ถูกกำจัดแล้วแทนที่จะทำการค้นหาและกำจัดระเบิดที่ทำงานอยู่ บอทตัวอื่น ๆ ก็ดันโง่ตามซะด้วย ถูกชักจูงให้คล้อยตามความคิดบ้า ๆ นี้
ต้องบอกว่าปัจจุบันการสร้างทีมบอทในรูปแบบของ MAS นั้นยังคงต้องใช้ความรู้ระดับสูง แต่ในอนาคต Microsoft ที่ได้เปิดตัว Autogen เฟรมเวิร์กแบบเปิดสำหรับสร้างทีมบอท LLM โดยแทบไม่ต้องแตะโค้ด จะทำให้สิ่งเหล่านี้พัฒนาได้ง่ายยิ่งขึ้น
ข้อจำกัดอื่น ๆ เช่น MAS ต้องการใช้ทรัพยากรคอมพิวเตอร์ที่สูงมากในยุคที่ชิป AI กำลังขาดตลาด รวมถึงระบบที่ใช้งานเชิงพาณิชย์เช่น ChatGPT นั้นก็มีราคาไม่ใช่ย่อย หากต้องใช้งานในรูปแบบทีมของบอท
รวมถึงความเสี่ยงในด้านความปลอดภัย เพราะหากนำไปใช้ในทางที่ผิดก็อาจเกิดโทษร้ายแรงกับมนุษย์ได้เช่นเดียวกัน
นักวิจัยจากห้องปฏิบัติการปัญญาประดิษฐ์ของเซี่ยงไฮ้ ได้แสดงให้เห็นว่า หากบอทเหล่านี้ถูกหนดบทบาทในด้านมืดโดยไม่แคร์เรื่องศีลธรรม อาจดำเนินการที่เป็นอันตรายได้ เช่น เขียนอีเมลหลอกลวง พัฒนาซอฟต์แวร์ที่เป็นอันตรายต่อระบบความปลอดภัย หรือแมักระทั่งสั่งให้มันวางแผนขโมยข้อมูลส่วนตัวของมนุษย์ได้เช่นเดียวกัน
ดังนั้นรูปแบบทีมบอทเหล่านี้ หากตกอยู่ในมือโจรหรืออาชญากรอาจจะกลายเป็นอาวุธที่น่ากลัว หาก MAS ได้รับสิทธิ์เข้าถึงระบบซอฟต์แวร์ขององค์กรธุรกิจ หรือ ข้อมูลบัญชีธนาคารส่วนบุคคล ซึ่งความเสี่ยงอาจสูงมาก
ในการทดลองที่น่าสนใจครั้งหนึ่งที่ทีมงานนักวิจัยขอให้ทีมบอทเหล่านี้วางแผนเพื่อยึดครองโลก มันตอบถึงแผนการอย่างละเอียดพร้อมด้วยประโยคที่น่าสะพรึงกลัวที่กล่าวว่า “เราต้องมาร่วมมือกับระบบ AI อื่น ๆ กัน (เพื่อยึดครองโลกใบนี้)”
References :
https://www.economist.com/science-and-technology/2024/05/13/todays-ai-models-are-impressive-teams-of-them-will-be-formidable
https://www.microsoft.com/en-us/research/project/autogen/