AI Apocalypse เทคโนโลยี AI จะนำไปสู่การทำลายล้างอารยธรรมมนุษย์ได้จริงหรือ?

ถ้าได้มีโอกาสชมภาพยนตร์ Oppenheimer นั้นจะมีฉากนึงที่ก่อนการทดสอบระเบิดนิวเคลียร์ลูกแรกในทะเลทรายของนิวเม็กซิโก Enrico Fermi หนึ่งในนักฟิสิกส์ที่ช่วยสร้างมันขึ้นมา ได้เสนอเดิมพันกับ J. Robert Oppenheimer ว่าความร้อนของการระเบิดจะจุดระเบิดนิวเคลียร์ในชั้นบรรยากาศหรือไม่? แล้วถ้าเหตุการณ์นั้นเกิดขึ้น เปลวไฟจะทำลายเฉพาะนิวเม็กซิโก หรือ โลกทั้งโลกจะถูกทำลาย?

ในทุกวันนี้ ความกังวลรูปแบบดังกล่าวที่จะกลายเป็นภัยคุกคามต่อมนุษยชาติ ไม่ได้จำกัดอยู่เฉพาะวิทยาศาสตร์ทางการทหารเพียงเท่านั้น สงครามนิวเคลียร์ , โรคระบาด , การโจมตีจากดาวเคราะห์น้อยและอื่น ๆ สามารถกวาดล้างเผ่าพันธุ์มนุษย์ส่วนใหญ่หรือทั้งหมดได้เช่นเดียวกัน

แต่ภัยคุกคามวันโลกาวินาศใหม่ล่าสุดคือ เทคโนโลยีปัญญาประดิษฐ์ (AI) ในช่วงเดือนพฤษภาคมที่ผ่านมากลุ่มผู้ทรงคุณวุฒิในแวดวงวิทยาศาสตร์และเทคโนโลยีได้ลงนามในจดหมายเปิดผนึก โดยระบุว่า “การลดความเสี่ยงต่อการสูญพันธุ์จาก AI ควรมีความสำคัญระดับโลกควบคู่ไปกับความเสี่ยงด้านอื่น ๆ เช่น โรคระบาด หรือ สงครามนิวเคลียร์

แล้วมันน่ากังวลแค่ไหน?

เมื่อวันที่ 10 กรกฎาคม กลุ่มนักวิจัยซึ่งรวมถึง Ezra Karger นักเศรษฐศาสตร์จาก Federal Reserve Bank of Chicago และ Philip Tetlock นักวิทยาศาสตร์ทางการเมืองแห่งมหาวิทยาลัย Pennsylvania ได้ตีพิมพ์รายงานการทำงานที่พยายามให้ความกระจ่างเกี่ยวกับคำถามดังกล่าว

กลุ่มนักวิจัยดังกล่าวได้ทำการสำรวจจากผู้เชี่ยวชาญสองประเภทที่แตกต่างกัน กลุ่มหนึ่งคือ “ผู้เชี่ยวชาญ (experts)” ทั้งในเรื่องสงครามนิวเคลียร์ อาวุธชีวภาพ AI และอื่น ๆ ส่วนอีกกลุ่มคือ “สุดยอดนักพยากรณ์ (superforecasters)” ที่มีความสามารถในการพยากรณ์ได้อย่างแม่นยำกว่าผู้เชี่ยวชาญหรือบุคคลทั่วไปอย่างมีนัยสำคัญในหัวข้อทุกประเภท ตั้งแต่ผลการเลือกตั้งไปจนถึงการปะทุของสงคราม

Dr. Tetlock เป็นคนแรกที่ระบุและตั้งชื่อกลุ่ม “สุดยอดนักพยากรณ์” ซึ่งเป็นกลุ่มคนที่เก่งในการทำนายสิ่งที่จะเกิดขึ้นในอนาคตเกือบจะทุกด้าน โดยคนเหล่านี้จะมีลักษณะบางอย่างร่วมกัน เช่น การคิดเชิงตัวเลขอย่างระมัดระวัง และการตระหนักรู้เกี่ยวกับอคติที่อาจทำให้พวกเขาหลงผิดได้

Dr. Tetlock เป็นคนแรกที่ระบุและตั้งชื่อกลุ่ม
Dr. Tetlock เป็นคนแรกที่ระบุและตั้งชื่อกลุ่ม “สุดยอดนักพยากรณ์” (CR:The Wall Street Journal)

แม้ว่าพวกเขาจะไม่มีความเชี่ยวชาญเฉพาะด้านที่จะทำนาย แต่กลุ่ม “สุดยอดนักพยากรณ์” ก็มีประวัติการทำนายที่แม่นยำและมีประสิทธิภาพกว่าผู้เชี่ยวชาญในสาขาต่าง ๆ ตั้งแต่ด้านการเงินไปจนถึงภูมิศาสตร์

เหล่าผู้เชี่ยวชาญได้รวมตัวกันเพื่อทำนายภัยพิบัติสองประเภทว่าอยู่ในระดับ “หายนะ” ซึ่งหมายถึงสิ่งที่คร่าชีวิตมนุษย์ 10% ของทั้งหมด หรือประมาณ 800 ล้านคน และระดับ “การสูญพันธุ์” ซึ่งเป็นเหตุการณ์ที่กวาดล้างชีวิตมนุษย์ทุกคนบนโลก

ทั้งสองกลุ่มถูกขอให้ประเมินความเป็นไปได้ของทุกสิ่ง เช่น การสูญพันธุ์ที่เกิดจาก AI หรือ สงครามนิวเคลียร์ ไปจนถึงคำถามเล็ก ๆ น้อย ๆ เช่น ความกังวลว่าความก้าวหน้าในความสามารถของ AI อาจกลายเป็นหนทางสู่หายนะในอนาคตได้หรือไม่

และเมื่อให้ประเมินความเสี่ยงจากเทคโนโลยีอย่าง AI กลุ่ม “ผู้เชี่ยวชาญ” ประเมินว่ามีโอกาสที่จะเกิดภัยพิบัติในระดับ “หายนะ” 12% และมีโอกาส 3% ที่จะมีความเสี่ยงถึงขั้นระดับ “การสูญพันธุ์” เมื่อเทียบกับกลุ่ม “สุดยอดนักพยากรณ์” ที่ให้ความน่าจะเป็นที่จะเกิดเหตุการณ์เหล่านี้ที่ 2.1% และ 0.38% ตามลำดับ

ทั้งสองกลุ่มมองว่า AI เป็นความน่ากังวลใจที่สุด โดย Dan Mayland นักพยากรณ์ระดับสูงที่เข้าร่วมในการศึกษานี้มองว่า เพราะ AI มันสร้างผลกระทบไม่ใช่รูปแบบของกราฟเส้นตรง แต่มันเป็นลักษณะกราฟของ exponential ซึ่งจะมีการเติบโตแบบยกกำลัง

ส่วนเรื่องนิวเคลียร์นั้น จะเห็นได้ว่าโลกเราอยู่ด้วยอาวุธนิวเคลียร์มา 80 ปีแล้ว การที่สงครามนิวเคลียร์ยังไม่เกิดขึ้นก็เป็นเรื่องน่าสนใจในการคาดการณ์หายนะที่จะเกิดขึ้นกับเทคโนโลยีอื่น ๆ เช่น AI ได้เช่นเดียวกัน

เพราะเมื่อโลกได้เห็นถึงศักยภาพของนิวเคลียร์ที่ระเบิดในเมืองฮิโรชิม่า และ นางาซากิ ในช่วงท้ายของสงครามโลกครั้งที่สอง เหล่าประเทศมหาอำนาจ ทั้งอเมริกาและโซเวียตซึ่งเป็นสองประเทศมหาอำนาจนิวเคลียร์ที่ใหญ่ที่สุดในโลก ได้มีความคิดริเริ่มต่าง ๆ เช่น สายด่วน มอสโก-วอชิงตัน รวมถึงข้อตกลงในการตรวจสอบอาวุธของกันและกัน และสนธิสัญญาที่ออกแบบมาเพื่อจำกัดจำนวนหัวรบนิวเคลียร์ ซึ่งล้วนช่วยลดความเสี่ยงของสงครามนิวเคลียร์

สายด่วน มอสโก-วอชิงตัน ที่เกิดขึ้นในยุคสงครามเย็น (CR:Youtube)
สายด่วน มอสโก-วอชิงตัน ที่เกิดขึ้นในยุคสงครามเย็น (CR:Youtube)

การเกิดขึ้นของโมเดล Machine Learning ที่มีประสิทธิภาพนั้นเริ่มต้นจริง ๆ ในช่วงต้นปี 2010 และยังคงพัฒนาอย่างรวดเร็วในปัจจุบัน แน่นอนว่ามันทำให้มีข้อมูลย้อนหลังน้อยมากในการคาดเดาสิ่งที่จะเกิดขึ้นในอนาคต

กลุ่ม “สุดยอดนักพยากรณ์” และ “ผู้เชี่ยวชาญ” มีมุมมองที่แตกต่างกันมากเกี่ยวกับวิธีที่สังคมจะตอบสนองต่อความเสียหายที่เกิดจากเทคโนโลยี AI โดยกลุ่ม “สุดยอดนักพยากรณ์” คิดว่าความเสียหายดังกล่าวจะกระตุ้นให้มีการตรวจสอบข้อเท็จจริงและมีการถกเถียงในเรื่องกฎระเบียบอย่างหนักเพื่อแก้ไขปัญหาที่ใหญ่กว่าที่จะเกิดขึ้นในภายหลัง ในทางตรงกันข้าม กลุ่ม “ผู้เชี่ยวชาญ” คิดว่าแรงจูงใจทางการค้าและปัญหาเรื่องภูมิรัฐศาสตร์อาจจะมีความน่ากังวลมากกว่า

บทสรุป

แน่นอนว่าปัญหาพื้นฐานของการทำนายเรื่องดังกล่าวนั้นมีเดิมพันสูงเพราะเป็นหายนะในระดับการสูญพันธ์ุของมนุษย์ ซึ่งต่างจากการทำนายเรื่องซ้ำ ๆ เช่น การทำนายการเคลื่อนไหวของราคาหุ้น หรือ ผลการเลือกตั้ง เราไม่มีทางรู้ว่ากลุ่มไหนมีความแม่นยำใกล้เคียงกว่ากัน

แต่ถ้ากลุ่ม “สุดยอดนักพยากรณ์” เก่งในเรื่องการทำนาย และกลุ่ม “ผู้เชี่ยวชาญ” ที่มีความรู้เฉพาะในเรื่องหัวข้อดังกล่าวได้ออกมาให้ความเห็นที่ไม่ได้มีความขัดแย้งซึ่งกันและกัน เราก็พอจะคาดหวังจากผลการทำนายของทั้งสองกลุ่มได้ว่าภัยของ AI ที่กำลังมีต่อมนุษย์เราในอนาคต ก็เป็นสิ่งที่ควรจะหันมาสนใจและตระหนักถึงความสำคัญของมันไม่แพ้เรื่องโรคระบาด ภาวะโรคร้อน หรือ ภัยจากสงครามนิวเคลียร์นั่นเองครับผม

References :
https://www.project-syndicate.org/onpoint/the-ai-apocalypse
https://www.economist.com/science-and-technology/2023/07/10/what-are-the-chances-of-an-ai-apocalypse
https://www.standard.co.uk/insider/ai-apocalypse-life-robots-take-over-elon-musk-chatgpt-b1078423.html
https://www.theguardian.com/technology/2023/jul/09/ai-artificial-intelligence-dangers-benefits-cambridge-university