มันได้กลายเป็นปัญหาใหม่ และปัญหาใหญ่ที่กำลังจะเกิดขึ้นกับรัฐบาลทั่วโลก เมื่อเทคโนโลยีอย่าง Generative AI กำลังแพร่กระจายไปยังคนหมู่มากได้ใช้งาน ซึ่งเทคโนโลยีดังกล่าวมันก็มีทั้งข้อดีและข้อเสียที่ยังไม่ได้รับการประเมินอย่างถี่ถ้วน ว่าจะกระทบกับวิถีการดำเนินชีวิต เศรษฐกิจ และสังคมโลกอย่างไรบ้าง
Sam Altman CEO ของ OpenAI เรียกร้องให้ฝ่ายนิติบัญญติพิจารณาควบคุม AI ในระหว่าง การให้ปากคำกับวุฒิสภา เมื่อวันที่ 16 พฤษภาคม 2023 ที่ผ่านมา คำแนะนำดังกล่าว ทำให้เกิดคำถามในสิ่งที่จะเกิดขึ้นต่อจากนี้
สำหรับ โซลูชั่นที่ Altman เสนอนั้น คือการสร้างหน่วยงานกำกับดูแลด้าน AI และกำหนดให้บริษัทต่าง ๆ ต้องได้รับใบอนุญาติ ซึ่งถือว่าเป็นสิ่งที่น่าสนใจว่า แม้กระทั่ง OpenAI ซึ่งเป็นคนสร้างเทคโนโลยีดังกล่าว ก็ยังแสดงความกังวลกับผลกระทบที่จะตามมา
มีผู้เชี่ยวชาญมากมายได้ให้ความเห็นในเรื่องดังกล่าวที่มีความสำคัญพอ ๆ กัน ทั้งความโปร่งใสในการฝึกอบรมข้อมูล และ การกำหนดกรอบที่ชัดเจนสำหรับความเสี่ยงที่เกี่ยวข้องกับ AI
อีกประเด็นหนึ่งที่น่าสนใจที่ยังไม่มีการพูดถึงก็คือ เมื่อคำนึงถึงเศรษฐศาสตร์ของการสร้างโมเดล AI ขนาดใหญ่ อุตสาหกรรมอาจได้เห็นการเกิดขึ้นของการผูกขาดทางเทคโนโลยีประเภทใหม่นี้ได้เช่นเดียวกัน
หน่วยงานที่ควบคุม AI
ฝ่ายนิติบัญญัติและผู้กำหนดนโยบายทั่วโลก (ยังไม่เห็นในไทย) ได้เริ่มกล่าวถึงประเด็นบางประเด็นในคำให้การของ Altman แล้ว
พระราชบัญญัติ AI ของสหภาพยุโรป ได้อิงตามแบบจำลองความเสี่ยงที่กำหนดให้แอปพลิเคชั่น AI มีความเสี่ยงสามประเภท ได้แก่ ความเสี่ยงที่ยอมรับไม่ได้ ความเสี่ยงสูง และ ความเสี่ยงต่ำหรือความเสี่ยงที่น้อยที่สุด
การจัดหมวดหมู่ดังกล่าวนี้ทำให้ตระหนักถึงเครื่องมือต่าง ๆ ที่กำลังใช้เทคโนโลยี AI เช่น Social Credit ที่ถูกใช้โดยรัฐบาลบางประเทศ และเครื่องมืออัตโนมัติต่าง ๆ สำหรับการคัดกรองการจ้างงาน ซึ่งล้วนมีความเสี่ยงที่แตกต่างกันไป
สถาบันมาตรฐานและเทคโนโลยีแห่งชาติของสหรัฐอเมริกา (NIST) ก็ได้จัดทำกรอบการจัดการความเสี่ยงด้าน AI ที่สร้างขึ้นด้วยข้อมูลจากผู้ที่มีส่วนได้ส่วนเสียหลายกลุ่ม รวมถึงหอการค้าสหรัฐ , สมาพันธ์นักวิทยาศาสตร์อเมริกัน ตลอดจนสมาคมธุรกิจและวิชาชีพอื่น ๆ บริษัททางด้านเทคโนโลยีต่าง ๆ
หน่วยงานของรัฐบาลกลาง เช่น คณะกรรมการการจ้างงานที่เท่าเทียม และ คณะกรรมาธิกาการค้าแห่งสหพันธรัฐ ได้ออกแนวทางเกี่ยวกับความเสี่ยงบางประการที่มีอยู่ใน AI แม้กระทั่ง คณะกรรมการความปลอดภัยของสินค้าอุปโภคบริโภค และหน่วยงานอื่น ๆ ก็กำลังมีบทบาทเช่นเดียวกัน
ซึ่งแทนที่จะสร้างหน่วยงานใหม่ที่จะมาจัดการเรื่องราวเหล่านี้ รัฐสภาพได้นำกรอบจัดการความเสี่ยงของ NIST ไปใช้ทั้งในภาครัฐและเอกชน และออกกฎหมายต่าง ๆ เช่น พระราชบัญญัติความรับผิดชอบต่ออัลกอริธึม เช่นเดียวกับกฎหมายอย่าง กฎหมาย Sarbanes-Oxley และข้อบังคับอื่น ๆ รวมถึง สภาคองเกรสยังสามารถใช้ กฎหมายที่ครอบคลุมเกี่ยวกับความเป็นส่วนตัวของข้อมูล
ซึ่งการควบคุม AI นั้น ควรเป็นความร่วมมือระหว่างนักวิชาการ อุตสาหกรรม ผู้เชี่ยวชาญด้านนโยบาย และหน่วยงานระหว่างประเทศ
ซึ่งผู้เชี่ยวชาญเปรียบเทียบแนวทางดังกล่าวนี้กับ องค์กรระหว่างประเทศ เช่น European Organization for Nuclear Research หรือที่รู้จักกันในชื่อ CERN หรือ องค์กรพัฒนาเอกชนที่เกี่ยวข้องกับองค์กรไม่แสวงหาผลกำไร ภาคประชาสังคม อุตสาหกรรม และผู้กำหนดนโยบาย เช่น Internet Corporation for Assigned Names and Numbers และ World Telecommunication Standardization Assembly ตัวอย่างเหล่านี้เป็นแบบจำลองสำหรับอุตสาหกรรมและผู้กำหนดนโยบายในปัจจุบัน
ผู้ออกใบอนุญาต ไม่ควรเป็นองค์กรธุรกิจ
แม้ว่า Altman จาก OpenAI จะแนะนำว่าบริษัทต่าง ๆ สามารถได้รับอนุญาตให้เผยแพร่เทคโนโลยี AI สู่สาธารณะ แต่เขาก็ชี้แจงว่าเขาหมายถึง เทคโนโลยี AI ทั่วไป
เทคโนโลยี AI ที่ควรได้รับการออกใบอนุญาติ คือ AI ในอนาคตที่มีศักยภาพซึ่งจะมีสติปัญญาเหนือกว่ามนุษย์ซึ่งอาจจะเป็นภัยคุกคามต่อมนุษยชาติ มันคล้ายกับบริษัทที่ได้รับสัมปทาน หรือ ใบอนุญาตในเทคโนโลยีอื่น ๆ ที่เป็นอันตราย เช่น พลังงานนิวเคลียร์
ผู้เชี่ยวชาญด้าน AI ได้กล่าวว่า ปัญหาเรื่องความลำเอียงและความเป็นธรรมของ AI ไม่สามารถแก้ไขได้ด้วยวิธีการเทคนิคเพียงอย่างเดียว แต่จำเป็นต้องมีแนวทางปฏิบัติในการลดความเสี่ยงที่ครอบคลุมมากขึ้น
การเสริมสร้างกฎหมายที่มีอยู่เกี่ยวกับความปลอดภัย ความเป็นส่วนตัว และการคุ้มครองผู้บริโภค จะช่วยให้ระบบ AI ซับซ้อนน้อยลง สิ่งที่สำคัญก็คือต้องมีความตระหนักว่าความรับผิดชอบและความโปร่งใสของข้อมูลที่มากขึ้นอาจะกำหนดข้อจำกัดใหม่ๆ ให้กับองค์กรเช่นเดียวกัน
ต้องมีกรอบการทำงานเพื่อรับรู้ถึงอันตรายของการทำงานของ AI ในสาขาต่าง ๆ เช่น การจ้างงาน การประกันภัย และการดูแลสุขภาพ ซึ่งจำเป็นต้องได้รับใบอนุญาต เพื่อให้แน่ใจว่ากระบวนการยุติธรรมมีความยุติธรรมเพียงพอและปกป้องในเรื่องความเป็นส่วนตัวของข้อมูล
อย่างไรก็ตาม ก็ต้องมีการถกเถียง ระหว่าง นักพัฒนา AI และผู้กำหนดนโยบาย และผู้ที่ได้รับผลกระทบจากการนำ AI ไปใช้ในวงกว้าง เช่นเดียวกัน
AI ผูกขาด?
ประเด็นนี้ค่อนข้างมีความสำคัญมาก ๆ สิ่งสำคัญคือต้องทราบว่าข้อมูลการฝึกอบรมทั้งหมดสำหรับเครื่องมือต่าง ๆ เช่น ChatGPT มันยังไปรุกล้ำข้อมูลต่าง ๆ ที่ถูกสร้างขึ้นด้วยหยาดเหงื่อแรงกายของมนุษย์คนอื่น ๆ เช่น ผู้ร่วมเขียน wikipedia บล็อกเกอร์ และผู้แต่งหนังสือ แต่ผลประโยชน์ทางเศรษฐกิจจากเครื่องมือเหล่านี้ จะตกอยู่กับบริษัทเทคโนโลยี ที่มาหากินที่ปลายทางเพียงเท่านั้น
ในอนาคต มันจะยิ่งเป็นเรื่องที่ยากขึ้น ในการพิสูจน์อำนาจการผูกขาดของบริษัทเทคโนโลยี เมื่อเทคโนโลยีเหล่านี้ยิ่งพัฒนาขึ้น ก็จะมีความได้เปรียบจากการเรียนรู้ข้อมูลที่มากขึ้น
ทั้งที่ฐานข้อมูลหลักนั้น มาจากหยาดเหงื่อแรงกายของคนจำนวนมาก แต่พวกเขากลับมาหากิน ในขั้นตอนสุดท้ายของกระบวนการ ผ่านการเรียนรู้ของ AI ซึ่งถือว่าเป็นการเอาเปรียบบุคคลอื่นค่อนข้างมาก
กฎระเบียบที่เกิดขึ้นจึงเป็นสิ่งสำคัญมาก ๆ และรัฐบาลทั่วโลกต้องเริ่มให้ความสำคัญ แม้กระทั่งรัฐบาลไทย ที่เราเป็นเพียงผู้ใช้งานฝั่งปลายน้ำ เพียงเท่านั้น
เพราะหากไม่ทำอะไรเลย มันจะส่งผลอย่างมาก ต่อโครงสร้างทางด้านเศรษฐกิจ สังคม ของประเทศนั้น ๆ เพราะเทคโนโลยีเหล่านี้ ไม่ได้รับการตรวจสอบผลกระทบอย่างดีเพียงพอ ทั้งในแง่บวก หรือ แง่ลบ
เพราะนโยบายต่าง ๆ ที่ทางรัฐบาลที่ได้รับการเลือกตั้งวาดฝันไว้ ก็อาจจะไม่สามารถผลักดันให้เกิดขึ้นจริงได้ เพราะโครงสร้างทางด้านสังคม และเศรษฐกิจ ที่มันกำลังจะเปลี่ยนไปอย่างสิ้นเชิงนั่นเองครับผม
References :
https://www.fastcompany.com/90902547/pov-heres-how-congress-can-regulate-ai
https://www.washingtonpost.com/opinions/2023/05/26/ai-regulation-congress-risk/
https://hbr.org/2023/05/who-is-going-to-regulate-ai
https://www.nytimes.com/2023/05/16/technology/openai-altman-artificial-intelligence-regulation.html