“LLM in a Flash”‘ งานวิจัยชิ้นใหม่ของ Apple ได้เสนอแนวทางแก้ไขข้อจํากัดทางการคํานวณในปัจจุบัน ซึ่งจะนำไปสู่การใช้โมเดลภาษาขนาดใหญ่ (LLMs) อย่างมีประสิทธิภาพบนอุปกรณ์ที่มีหน่วยความจําจํากัด ซึ่งโมเดลภาษาขนาดใหญ่ ซึ่งเป็นคลังข้อมูลขนาดใหญ่ที่ขับเคลื่อนแอปพลิเคชันเช่น ChatGPT ตอบกลับสิ่งที่ผู้ใช้ถาม แชทบอทและ LLM ทั่วไปทํางานอยู่ในศูนย์ข้อมูลขนาดใหญ่ที่มีพลังการประมวลผลมากกว่า iPhone
บทความดังกล่าวตีพิมพ์เมื่อวันที่ 12 ธันวาคม แต่ได้รับความสนใจอย่างกว้างขวางหลัง Hugging Face ซึ่งเป็นเว็บยอดนิยมสําหรับนักวิจัย AI ใช้เผยแพร่ผลงาน เน้นไปยังบทความดังกล่าวในวันพุธที่ผ่านมา บทความนี้เป็นงานวิจัยที่สองของแอปเปิลด้าน Genearative AI ถัดจากการเคลื่อนไหวก่อนหน้านี้ในการทําให้โมเดลสร้างภาพ เช่น Stable Diffusion ทํางานได้บนชิพที่ออกแบบเอง
เลือกฟังกันได้เลยนะครับ อย่าลืมกด Follow ติดตาม PodCast ช่อง Geek Forever’s Podcast ของผมกันด้วยนะครับ
🎧 ฟังผ่าน Podbean :
http://tinyurl.com/2cxmkd4x
🎧 ฟังผ่าน Apple Podcast :
http://tinyurl.com/y49jb85z
🎧 ฟังผ่าน Google Podcast :
http://tinyurl.com/555raupd
🎧 ฟังผ่าน Spotify :
http://tinyurl.com/yc3km7au
🎧 ฟังผ่าน Youtube :
https://youtu.be/pr6x_ddtqhg