ทุกวันนี้เรากำลังเฝ้ามองดู AI เติบโตจนเกินกว่าที่โลกใบนี้จะรองรับได้ไหว
Data center ระดับ Gigawatt กำลังผุดขึ้นทุกหนทุกแห่ง บางแห่งใช้พลังงานไฟฟ้าเทียบเท่ากับประเทศทั้งประเทศรวมกัน
และตามแผนงานที่ถูกเหล่าบริษัทเทคโนโลยียักษ์ใหญ่วางไว้ โลกเรายังต้องการพลังการประมวลผลเพิ่มขึ้นอีกถึง 100 เท่า
แต่ท่ามกลางความตื่นตัวนี้ มีทีมวิศวกรเล็กๆ ทีมหนึ่งกำลังนำเสนอความจริงที่น่าสนใจ…
พวกเขากำลังบอกว่า ทิศทางที่อุตสาหกรรมเทคโนโลยีกำลังเดินไป อาจเป็นทางที่ผิด
พวกเขาจึงตัดสินใจย้อนกลับไปตั้งต้นที่หลักการพื้นฐานใหม่ทั้งหมด
และได้สร้างชิปประมวลผลด้วยแสงชนิดใหม่ขึ้นมา โดยใช้วัสดุโครงสร้างพิเศษระดับนาโนที่เรียกว่า “Metasurfaces”
ชิปตัวใหม่นี้ให้พลังการประมวลผลเทียบเท่ากับ GPU 100 ตัว ในพื้นที่ติดตั้งเพียงตัวเดียว
ที่สำคัญคือ มันใช้พลังงานเพียงแค่ประมาณ 1% ของระบบเดิมเท่านั้น…
หากสิ่งที่พวกเขากล่าวอ้างเป็นความจริง มันจะทำลายความเชื่อหลักที่ขับเคลื่อนอุตสาหกรรม AI ทั้งระบบ
ความเชื่อที่ว่า ความฉลาดจะต้องแลกมาด้วยการใช้พลังงานที่เพิ่มขึ้นเสมอ
แม้ตัวเลขพวกนี้อาจจะฟังดูดีเกินกว่าจะเป็นจริง จนหลายคนอาจตั้งข้อสงสัย
แต่ลองมาดูเหตุผลกันว่า ทำไมพวกเขาถึงอาจจะเป็นฝ่ายคิดถูก
ก็ต้องบอกว่าเป็นเวลานานหลายทศวรรษที่วงการคอมพิวเตอร์ดำเนินตามกฎง่ายๆ เพียงข้อเดียว
ทำทรานซิสเตอร์ให้เล็กลง ใส่ลงในชิปให้มากขึ้น แล้วระบบจะเร็วขึ้น
กฎข้อนี้มอบทุกอย่างให้กับเรา ไม่ว่าจะเป็นสมาร์ทโฟน ระบบคลาวด์ หรือ AI สมัยใหม่
แต่เมื่อเวลาผ่านไป การย่อขนาดทรานซิสเตอร์ก็เริ่มชะลอตัวลง
อัตราการใช้พลังงานไม่ได้ลดลงตามขนาดที่เล็กลงอีกต่อไป
ทว่า AI กลับไม่ได้รอให้เราแก้ปัญหานี้
อุตสาหกรรมจึงต้องปรับตัว โดยการเลิกพยายามทำให้ชิปคอมพิวเตอร์เล็กลง แต่เปลี่ยนไปทำให้มันใหญ่ขึ้นแทน
เราเริ่มเชื่อมต่อชิปจำนวนมากขึ้น ซ้อนทับกันทั้งในแนวราบและแนวดิ่ง
เพื่อรีดเค้นประสิทธิภาพจากขนาด แทนที่จะเป็นหลักการทางฟิสิกส์
เราทุกคนต่างยอมรับสภาพว่า ความฉลาดมีต้นทุนด้านพลังงานที่ตายตัว
และหนทางเดียวที่จะก้าวไปข้างหน้าคือการยอมจ่ายต้นทุนนั้น
ดังนั้นเมื่อโมเดล AI มีขนาดใหญ่ขึ้นอย่างก้าวกระโดด ตรรกะที่ตามมาจึงดูเหมือนเป็นเรื่องปกติ
สร้างระบบประมวลผลให้มากขึ้น สร้าง Data center ให้ใหญ่ขึ้น สร้างโรงไฟฟ้าเพื่อมาป้อนพลังงานให้พวกมัน
แต่เมื่อมองไปที่ Data center ขนาด 5 Gigawatt ที่กำลังก่อสร้างในตอนเหนือของรัฐ Louisiana
มันทำให้เกิดความรู้สึกว่ามีบางอย่างที่ไม่สมเหตุสมผล
เพราะคอขวดที่แท้จริงไม่ใช่ปริมาณการประมวลผล แต่มันคือพลังงานที่ใช้ต่อการสั่งงานหนึ่งครั้ง
ปริมาณการประมวลผลที่เราต้องการ ณ จุดนี้ ซึ่งเป็นผลมาจาก AI ที่สามารถคิดและทำงานได้เอง มากกว่าที่เราเคยคิดไว้เมื่อปีที่แล้วถึง 100 เท่า
หากนำ NVIDIA GPU ขนาด 700 วัตต์ มาทำให้เร็วขึ้น 100 เท่าโดยไม่เปลี่ยนวิธีการคำนวณพื้นฐาน
จะได้ชิปที่เผาผลาญพลังงานถึง 70 กิโลวัตต์ และหลอมละลายทันทีที่คุณเปิดเครื่องใช้งาน
นี่คือจุดที่แผนงานในปัจจุบันเริ่มไปต่อไม่ได้
ดังนั้น หากเราต้องการให้ชิป AI เร็วขึ้น 100 เท่า เราต้องการฟิสิกส์รูปแบบใหม่…
แล้วเราจะไปหาคำตอบแบบนั้นจากที่ไหน
คำตอบคือ เราต้องเริ่มต้นจากตัวงานของมันเอง
AI สมัยใหม่ถูกขับเคลื่อนด้วยปฏิบัติการหลักเพียงอย่างเดียว นั่นคือ Matrix multiplication
ซึ่งจริงๆ แล้วเราเคยแก้ปัญหานี้มาแล้วด้วยเทคโนโลยีที่เรียกว่า Systolic arrays
แทนที่จะต้องส่งข้อมูลไปมาระหว่างหน่วยประมวลผลและหน่วยความจำ เราเพียงแค่โหลดข้อมูลเข้าไปครั้งเดียวแล้วนำมาใช้ซ้ำหลายๆ ครั้ง
ะมันช่วยประหยัดพลังงานได้มหาศาล เพราะการเข้าถึงหน่วยความจำคือจุดที่ผลาญพลังงานมากที่สุด
แนวคิดนี้มีมาตั้งแต่ยุค 1970 และถูกลืมไปพักใหญ่
จนกระทั่งปี 2017 เมื่อ Google นำมันกลับมาใช้กับชิป AI เฉพาะทางที่เรียกว่า TPU
นี่คือชิปที่สร้างขึ้นบนแนวคิดนี้โดยเฉพาะ และมันทำงานได้ดีเยี่ยมมาก
ทำให้พวกเขาเป็นเจ้าของหนึ่งในซิลิคอน AI ที่มีประสิทธิภาพสูงที่สุดในโลกจนถึงปัจจุบัน
ในโลกดิจิทัล แนวทางนี้ถือว่ายอดเยี่ยมมาก จนถึงจุดหนึ่ง
ตราบใดที่อาร์เรย์ยังมีขนาดเล็ก
แต่เมื่อเราขยับไปสู่เมทริกซ์ที่ใหญ่ขึ้นเรื่อยๆ อาร์เรย์เหล่านี้ก็ต้องขยายตาม
และเมื่อมันใหญ่ขึ้น การใช้พลังงานก็จะเพิ่มขึ้นตามขนาดพื้นที่
ณ จุดนั้น พลังงานส่วนใหญ่จะไม่หมดไปกับการย้ายข้อมูลอีกต่อไป แต่มันจะถูกเผาผลาญอยู่ภายในหน่วยประมวลผลแทน
ทุกครั้งที่มีการคูณ การสะสมค่า หรือจังหวะสัญญาณนาฬิกา (Clock tick) ความร้อนจะก่อตัวขึ้นเร็วกว่าที่จะระบายออกได้
ประสิทธิภาพจะหยุดชะงัก นี่คือจุดที่ Digital array ไม่สามารถขยายขนาดต่อไปได้
ดังนั้น นักวิจัยจึงก้าวไปสู่ขั้นต่อไป ไม่ใช่แค่การปรับปรุงสถาปัตยกรรม แต่เป็นแนวทางใหม่ในการประมวลผลขั้นพื้นฐาน
นั่นคือระบบ Analog…
ระบบ Analog เป็นระบบฟิสิกส์เชิงเส้น และการคูณเมทริกซ์ก็เป็นการดำเนินการเชิงเส้นเช่นกัน
สองสิ่งนี้จึงเหมือนเกิดมาคู่กัน
ในการประมวลผลแบบ Analog พลังงานส่วนใหญ่จะถูกใช้ที่บริเวณขอบ (Perimeter) ซึ่งเป็นจุดที่ใช้ป้อนข้อมูลเข้าและอ่านผลลัพธ์ออกมา
ส่วนภายในอาร์เรย์นั้นจะไม่มีการเปิดหรือปิดสวิตช์ใดๆ
นี่คือความสวยงามของมัน เพราะการคำนวณเกิดขึ้นแบบ Passive ในขณะที่สัญญาณไหลผ่านระบบฟิสิกส์
เมื่อขยายขนาดอาร์เรย์ให้ใหญ่ขึ้นเรื่อยๆ พื้นที่ด้านในจะไม่ได้ใช้พลังงานแพงขึ้น มีเพียงแค่ขอบของมันเท่านั้นที่ใช้ ดังนั้นพลังงานรวมที่ใช้จึงยังคงที่พอๆ กัน
และประสิทธิภาพนี้แหละคือสิ่งที่ AI ต้องการอย่างแท้จริง
ทุกคนจึงแห่กันเข้ามา และตามมาด้วยกระแสการพัฒนาชิปแบบ Analog
แต่ท้ายที่สุด ชิป Analog ส่วนใหญ่ก็ล้มเหลว
มีเหตุผลมากมาย แต่ปัญหาหนึ่งที่ปรากฏขึ้นซ้ำแล้วซ้ำเล่าคือ พวกมันยังคงถูกสร้างขึ้นจากอุปกรณ์อิเล็กทรอนิกส์
ตัวต้านทาน และตัวเก็บประจุ อุปกรณ์เหล่านี้ไม่สามารถเคลื่อนย้ายสัญญาณได้ในทันที
พวกมันต้องอาศัยการชาร์จและดิสชาร์จประจุ ซึ่งทำให้เกิดความล่าช้า และสูญเสียพลังงาน
เมื่ออาร์เรย์มีขนาดใหญ่ขึ้น ความล่าช้าก็สะสมมากขึ้น สัญญาณรบกวนก็เพิ่มขึ้น การควบคุมก็ยากขึ้น
สรุปก็คือ แม้คณิตศาสตร์จะถูกต้อง แต่สื่อกลางนั้นไม่ตอบโจทย์
อุตสาหกรรมจึงละทิ้งระบบ Analog ไป…
แต่ถ้าสมมติว่าแนวทางของ Analog นั้นถูกต้องแล้ว แต่อิเล็กทรอนิกส์ต่างหากที่ไม่ใช่
นี่คือช่วงเวลาที่วิศวกรเริ่มรู้สึกอึดอัดใจ
เพราะการปรับแต่งสถาปัตยกรรมคือเรื่องหนึ่ง แต่การตั้งคำถามกับสื่อตัวกลางเป็นอีกเรื่องหนึ่งเลย
จะเป็นอย่างไรถ้าแทนที่เราจะผลักอิเล็กตรอนผ่านเส้นลวด เราเปลี่ยนมาใช้สัญญาณแสงที่เดินทางได้ทันทีโดยไม่มีแรงต้านทาน
ทีนี้ ลองจินตนาการว่าเราสร้าง Systolic arrays เหล่านี้ด้วยส่วนประกอบทางแสงดู
สิ่งมหัศจรรย์จะเกิดขึ้น
ทุกครั้งที่เพิ่มขนาดเป็นสองเท่า มันไม่ได้แค่ได้พลังการประมวลผลเพิ่มขึ้นสองเท่า
แต่ได้เปลี่ยนประสิทธิภาพการใช้พลังงานให้กลายเป็นความเร็ว
เพราะเมื่อเราทำชิปนี้ให้ใหญ่ขึ้น เราจะได้พลังการคำนวณมหาศาลที่คุ้มค่ากว่าพลังงานส่วนเกินที่เสียไปมาก
ซึ่งตามหลักแล้วมันไม่น่าจะเป็นไปได้ แต่มันเป็นไปแล้ว
หลายท่านอาจจะเคยเห็นข่าวผ่านมาบ้างว่ามีคนเคยพยายามสร้างชิปประมวลผลด้วยแสงมาแล้ว
ซึ่ง Optical computing เป็นความฝันมานานหลายทศวรรษ แต่มันยังคงเป็นแค่ความฝันด้วยเหตุผลเดียว
ทรานซิสเตอร์แสงแบบดั้งเดิมนั้นมีขนาดใหญ่โตมโหฬาร
ขนาดที่ใหญ่นี้ทำลายโอกาสในการขยายสเกลไปในระดับอุตสาหกรรม ตั้งแต่ยังไม่ทันเริ่ม
และนั่นคือเหตุผลที่ Optical computing ไม่เคยมีโอกาสแจ้งเกิด ไม่ใช่เมื่อต้องสู้กับ GPU ที่สามารถขยายสเกลได้ดีกว่ามาก
แต่แล้วบางสิ่งก็เปลี่ยนไป…
นั่นคือ Neurophos สตาร์ตอัปจากเทกซัสที่ได้รับการสนับสนุนจากกองทุนของ Bill Gates, Jeff Bezos และ Michael Bloomberg
การเข้ามาสนับสนุนของบุคคลระดับนี้มีความสำคัญมาก เพราะพวกเขาเลือกลงทุนในจังหวะพอดีเป๊ะกับตอนที่ AI data centers เริ่มกลายเป็นปัญหาด้านพลังงาน
สิ่งที่น่าสนใจมากคือ เป้าหมายของพวกเขาไม่ใช่การเข้าไปแทนที่ระบบนิเวศของ GPU แต่เป็นการเสียบเชื่อมต่อเข้ากับมัน
ชิปของ Neurophos ถูกสร้างขึ้นด้วยกรรมวิธีเดียวกับการสร้าง GPU ในปัจจุบัน
ใช้โรงงานเดียวกัน ซัพพลายเชนเดียวกัน และหลักการแพ็กเกจจิ้งแบบเดียวกัน
ใน GPU ทั่วไป คอร์ประมวลผลจะคอยดึงข้อมูลจากหน่วยความจำตลอดเวลา การดึงข้อมูลไปมานี่แหละคือจุดที่ผลาญพลังงานมากที่สุด
แต่ Neurophos พลิกแนวคิดนี้ เพราะแนวคิดของพวกเขาหน่วยความจำคือหน่วยประมวลผล
ชิปตัวนี้ยังคงใช้แพ็กเกจจิ้งเดิม ๆ มีหน่วยความจำแบนด์วิดท์สูงตั้งอยู่ข้างๆ ชิปแสง
แต่จุดแตกต่างสำคัญคือ สถานที่เก็บค่าน้ำหนัก ((Weights) ของ Neural Network
แทนที่จะเก็บเป็นบิตข้อมูลดิจิทัล พวกมันถูกจัดเก็บในรูปของ physical ลงบน “Metasurface”
บันทึกผ่านวิธีการที่พื้นผิวนี้สะท้อนและเปลี่ยนรูปของแสง
เมื่อแสงตกกระทบพื้นผิว การคำนวณคณิตศาสตร์จะเกิดขึ้นทันที ณ จุดสัมผัสนั้น
ความสำเร็จในการก้าวข้ามขีดจำกัดนี้มาจาก Metasurface
Patrick Bowen ใช้เวลาหลายปีในการศึกษา Metasurfaces นานก่อนที่ AI จะผลักดัน Data center ให้มาถึงจุดวิกฤต
ในตอนแรก Metasurfaces ถูกสร้างมาเพื่อควบคุมแสง ทำให้วัตถุมีขนาดเล็กลงและแม่นยำขึ้น
แต่ในกระบวนการนี้ มีแนวคิดใหม่ผุดขึ้นมา
ถ้าเราสามารถควบคุมแสงได้แม่นยำขนาดนั้น บางทีเราอาจจะนำมันมาใช้ประมวลผลด้วยก็ได้
ลองจินตนาการถึงกระจกที่แบนราบและบางเฉียบสุดๆ แต่แทนที่มันจะเรียบเนียน มันกลับถูกปกคลุมด้วยลวดลายขนาดเล็กจิ๋วนับล้านรูปแบบ
เมื่อแสงตกกระทบพื้นผิวนี้ คำสั่งเหล่านี้จะกำหนดว่าเกิดอะไรขึ้นกับแสง
พวกมันสามารถหักเหแสง เปลี่ยนเฟส และเปลี่ยนทิศทางแสงได้ทั้งหมดในคราวเดียว
ก่อนหน้านี้ พวกมันไม่เคยถูกนำมาใช้ประมวลผล เพราะ Metasurfaces แบบดั้งเดิมนั้นมีสภาพคงที่
เหมือนกับการฝังตัวเลขถาวรลงในฮาร์ดแวร์ ซึ่งมันดีมากสำหรับการทำเลนส์ แต่ไม่ค่อยมีประโยชน์นักกับการคำนวณ
แต่ Neurophos เปลี่ยนแปลงสิ่งนั้น
พวกเขาสร้างอุปกรณ์ Metasurface แบบแอกทีฟ ที่ฟังก์ชันนั้นสามารถเขียนและเขียนทับใหม่ทางอิเล็กทรอนิกส์ได้
ทีนี้ลองจินตนาการว่า แต่ละพิกเซลประกอบด้วยเซลล์ขนาดเล็กนับล้านๆ เซลล์
และแต่ละเซลล์สามารถถูกตั้งโปรแกรมการสะท้อนและการเปลี่ยนเฟสได้โดยการจ่ายแรงดันไฟฟ้าเข้าไป
ทำให้มันดูคล้ายกับ Optical DRAM มากขึ้น ซึ่งผลิตขึ้นจากกระบวนการของโรงงานผลิตชิปมาตรฐาน
ลองนึกภาพว่ามีลำแสงส่องเข้ามา ความสว่างของแสงนั้นจะทำหน้าที่เข้ารหัสข้อมูลขาเข้า
สว่างมากหมายถึงค่ามาก สว่างน้อยหมายถึงค่าน้อย
และแสงนั้นจะตกกระทบพิกเซลที่มีค่าการสะท้อนระดับหนึ่ง
หากพิกเซลสะท้อนแสงแค่ครึ่งเดียว ผลลัพธ์ที่ได้ก็จะมีความเข้มลดลงครึ่งหนึ่ง
ดังนั้น แสงขาเข้า คูณ ค่าการสะท้อน เท่ากับ แสงขาออก
นั่นคือการคูณที่เกิดขึ้นโดยตรงทางหลักฟิสิกส์
และเซลล์แสงเหล่านี้มีขนาดเล็กมาก เล็กกว่าอุปกรณ์ด้านแสงแบบดั้งเดิมถึง 10,000 เท่า
นั่นหมายความว่าเราสามารถบรรจุพวกมันนับล้านเซลล์ลงในชิปตัวเดียวได้
และเมื่อแสงตกกระทบพื้นผิว ทุกๆ พิกเซลจะทำการคูณหนึ่งครั้ง และพวกมันทั้งหมดทำพร้อมกันในเวลาเดียวกัน
การสะท้อนแสงนั่นเองที่ทำหน้าที่คำนวณทางคณิตศาสตร์
ผลลัพธ์ที่ได้คือเครื่องคูณเมทริกซ์แสง ซึ่งทำงานด้วยความเร็วแสง
เมื่อก้าวข้ามขีดจำกัดนี้ สิ่งที่น่าทึ่งก็เกิดขึ้น
อัตราการประมวลผลจะขยายตัวไปตามพื้นที่ ดังนั้นเมื่อทำชิปให้ใหญ่ขึ้น มันก็จะยิ่งทำงานได้ดีขึ้น…
ตามข้อมูลของ Neurophos ชิปเพียง 1 ยูนิตสามารถทำความเร็วได้ถึง 1.2 ล้านล้านคำสั่งต่อวินาที
และเมื่อวางชิป 8 ยูนิตนี้ลงในถาด พวกเขาประเมินว่าประสิทธิภาพอาจเหนือกว่าแร็ก GPU ทั้งตู้เลยทีเดียว
โดยใช้พลังงานเพียงเศษเสี้ยวเท่านั้น
หากเทคโนโลยีนี้ใช้งานได้จริงในระดับอุตสาหกรรม ผลลัพธ์ที่ตามมาจะมากกว่าแค่เรื่องชิปที่ประหยัดพลังงานขึ้น
มันจะเปลี่ยนเศรษฐศาสตร์ของ AI data center ทั้งระบบ
นั่นหมายความว่าพลังงานจะไม่ใช่ข้อจำกัดหลักในการขยายสเกลอีกต่อไป
และนั่นสำคัญมาก เพราะมันจะเปลี่ยนทั้งสถานที่ที่ AI สามารถทำงานได้ ใครที่สามารถเข้าถึงมันได้ และมันจะเติบโตได้เร็วแค่ไหน
ตอนนี้ Neurophos มีชิปทดสอบที่ใช้งานได้จริงแล้ว เป็นต้นแบบซิลิคอน และโดยพื้นฐานแล้วพวกเขาได้จัดการความเสี่ยงด้านฟิสิกส์ทั้งหมดไปแล้ว
คอร์ประมวลผลทำงานที่ความถี่ 56 GHz และแทบไม่มีอะไรข้างในเลยที่ทำให้สัญญาณช้าลง
ไม่มีอิเล็กตรอนต้องฝ่าแรงต้านทาน ไม่มีตัวเก็บประจุที่ต้องชาร์จและดิสชาร์จ ไม่มีสายโลหะยาวๆ ที่สะสมความร้อน
นั่นคือสาเหตุที่ชิปซิลิคอนแบบดั้งเดิมถึงทางตันที่ระดับไม่กี่ GHz
แต่ชิปตัวนี้ไม่ได้เล่นตามกฎเหล่านั้น เพราะพื้นฐานฟิสิกส์ข้างในถูกเปลี่ยนไปโดยสิ้นเชิง
ความแตกต่างนี้สะท้อนให้เห็นในด้านประสิทธิภาพ
จากการวัดผลในงานวิจัยของพวกเขา เพื่อเปรียบเทียบให้เห็นภาพ
NVIDIA Blackwell GPU มอบพลังประมวลผลประมาณ 9 POPS (Peta Operations Per Second) ที่กำลังไฟประมาณ 1,000 วัตต์
ในขณะที่ชิปตัวใหม่นี้มีเป้าหมายที่ความเร็วสูงสุดประมาณ 235 POPS ต่อวินาที ที่กำลังไฟ 675 วัตต์
พวกเขาประเมินว่ามันจะมีประสิทธิภาพดีกว่า NVIDIA GPU ระดับแนวหน้าในปัจจุบันถึง 30 เท่า
และนั่นคือเหตุผลที่พวกเขาตั้งเป้าหมายไปที่เหล่า Hyperscalers เป็นกลุ่มแรก
โดยเน้นไปที่การทำงานประเภทย่อยข้อมูลและพยากรณ์ผล ซึ่งประสิทธิภาพต่อการใช้พลังงานมีความสำคัญมากกว่าแค่ความแรงสูงสุด
ลองนึกถึงเวิร์กโหลดอย่างการค้นหา การจัดอันดับ หรือการประมวลผลแบบเรียลไทม์เบื้องหลัง ChatGPT
ระบบเหล่านี้ทำงานตลอดเวลาและกินพลังงาน Data center มหาศาลมาก
หากสามารถลดพลังงานในส่วนนี้ได้ ผลลัพธ์ก็จะทวีคูณขึ้นอย่างรวดเร็ว
แผนงานของพวกเขาชี้ให้เห็นว่าระบบที่พร้อมใช้งานสำหรับ Data center น่าจะเปิดตัวประมาณปี 2028
ชิปนี้ถูกออกแบบมาเพื่อผลิตที่โรงงานอย่าง TSMC บนกระบวนการผลิตมาตรฐาน Silicon photonic
ซึ่งหมายความว่ามันสามารถใช้กับซัพพลายเชนการผลิตเซมิคอนดักเตอร์ที่มีอยู่แล้วได้
และนั่นสร้างความแตกต่างอย่างมหาศาล ระหว่างแค่ไอเดียในห้องแล็บ กับสิ่งที่สามารถผลิตออกสู่ตลาดได้จริงในสเกลระดับอุตสาหกรรม…
แต่ปัญหามีอยู่ว่า หลายปีมานี้ มักจะมีคนออกมาเคลมว่า Optical computing จะมาแทนที่ GPU
และแทบทุกครั้งมันก็ล้มเหลวเมื่อเริ่มขยายสเกลไปสู่ระดับอุตสาหกรรม
สตาร์ตอัปไม่สามารถชนะด้วยฟิสิกส์เพียงอย่างเดียว เพราะฟิสิกส์ไม่ได้เป็นคนตัดสินผู้ชนะ แต่ระบบนิเวศต่างหากที่เป็นผู้ตัดสิน
การผลิต Metasurfaces ในสเกลใหญ่นั้นเป็นเรื่องยาก สิ่งที่ใช้งานได้ในห้องแล็ปไม่ได้หมายความว่าจะรอดในการผลิตจริงเสมอไป
นอกจากนี้ยังมีเรื่องของซอฟต์แวร์ เพราะฮาร์ดแวร์จะชนะไม่ได้หากไม่มีระบบนิเวศรองรับ
GPU มีความได้เปรียบที่สั่งสมมาหลายทศวรรษ
ทั้งคอมไพเลอร์ เฟรมเวิร์ก และทีมผู้เชี่ยวชาญทั้งระบบล้วนถูกสร้างขึ้นมาเพื่อรองรับพวกมัน
การแข่งขันกับ NVIDIA Blackwell GPU ที่กำลังเริ่มจัดส่งในสเกลมหาศาลแล้ว เป็นมาตรฐานที่สูงปรี๊ด
สำหรับ Neurophos การพิสูจน์ว่าฟิสิกส์ใช้งานได้ เป็นเพียงก้าวแรกเท่านั้น
พวกเขายังต้องพิสูจน์ถึงความเข้ากันได้ของซอฟต์แวร์ และความคุ้มทุนที่เทียบเท่ากันให้ได้
และพวกเขาต้องทำมันให้เร็วด้วย เพราะกว่าที่ต้นแบบระดับ Data center รุ่นแรกของพวกเขาจะมาถึง
NVIDIA ก็คงไม่ได้ยืนนิ่งเฉยๆ รออยู่แน่
นี่ถือเป็นการเดิมพันที่น่าตื่นเต้นที่สุดครั้งหนึ่งในโลกคอมพิวเตอร์ยุคใหม่
แต่ประวัติศาสตร์ไม่ได้ใจดีในเรื่องนี้เท่าไรนัก สตาร์ตอัปด้าน Optical computing เคยพุ่งชนกำแพงนี้มาแล้ว
หลายรายไม่เคยไปไกลกว่าห้องแล็บเลย เพราะเหล่า Hyperscalers ไม่ต้องการเสี่ยง
หลักการทางฟิสิกส์นั้นน่าสนใจ ต้นแบบก็ใช้งานได้จริง แต่การขยายสเกลจะเป็นบททดสอบที่แท้จริง
แต่อย่างไรก็ดี อนาคตของการประมวลผลก็ยังดูสดใส
มันจะไม่ใช่แค่อิเล็กทรอนิกส์ล้วนๆ อีกต่อไป แต่มันก็คงไม่ใช่การประมวลผลด้วยแสงเพียงอย่างเดียวเช่นกัน
มันจะเป็นแบบผสมผสานเทคโนโลยีที่หลากหลาย
และนี่อาจจะเป็นครั้งแรกที่พลังงานจะไม่ใช่ข้อจำกัดอีกต่อไป
ถ้าหากว่าระบบนิเวศสามารถปรับตัวได้เร็วพอที่จะตามทันกฎแห่งฟิสิกส์…
References : [neurophos, semiwiki, ieee, technologyreview, wired]

