AI กำลังช่วยนักดาราศาสตร์ค้นพบดาวดวงใหม่

เราได้เห็นเทคโนโลยีทางด้าน AI ที่กำลังก้าวไปข้างหน้าอย่างรวดเร็ว ทั้งรถที่ขับเคลื่อนได้อัติโนมัติ หรือ AlphaGo ที่สามารถเล่นเกมโกะ ชนะมนุษย์ได้ แต่มีอีกศาสตร์แขนงหนึ่งที่กำลังน่าสนใจที่นำ AI มาช่วยคือ AI กำลังมาช่วยเหล่านักดาราศาสตร์แก้ปัญหาเรื่องความลึกลับของจักรวาลของเรา

แรกเริ่มนั้น AI ถูกใช้ในภารกิจในการค้นหาดาวเคราะห์นอกระบบสุริยะ ซึ่งหนึ่งในนั้นคือภารกิจของ Nasa Kepler Mission ในการนำเครื่องมือ Kepler-90 Solar system ไปยังดาวเคราะห์ 8 ดวง ซึ่งพบว่าในระบบสุริยะที่พบนั้นมีหนึ่งในนั้นรูปแบบคล้ายกับโลกมนุษย์เรา

ซึ่งดาวเคราะห์นอกระบบสุริยะส่วนใหญ่นั้นจะถูกค้นพบโดยใช้วิธีการที่เรียกว่า transit method โดยจะใช้กล้องโทรทรรศน์ชี้ไปที่ดวงดาวที่ศึกษาโดยจะใช้เวลาช่วงหนึ่งซึ่งยาวนานพอสมควร ซึ่งจะทำให้เหล่านักดาราศาสตร์สามารถมองเห็นส่วนมืดส่วนนึงปรากฏอยู่เมื่อดาวดังกล่าวเคลื่อนที่มาปรากฏตรงหน้า

และแทนที่จะใช้การมองภาพดังกล่าว การปรากฏตัวของดาวเคราะห์ดวงใหม่ ๆ นั้นมีแนวโน้มที่จะถูกค้นพบโดยการศึกษาจากข้อมูลจำนวนมากที่ได้จากกล้องโทรทรรศน์ ซึ่งเกี่ยวข้องกับความสว่างของภาพ ซึ่งเมื่อระบบสุริยะนั้นมีดาวเคราะห์มากกว่า 1 ดวง การเกิดรูปแบบนี้นั้นก็จะมีความซับซ้อนมากยิ่งขึ้น และทำให้สามารถที่จะคำนวณขนาดของมวล รวมถึงระยะห่างระหว่างดาวเคราะห์ ผ่านความซับซ้อนเหล่านี้ได้

ซึ่งรูปแบบ pattern เหล่านี้นั้น เดิมใช้ความเชี่ยวชาญของนักดาราศาสตร์ในการวิเคราะห์ แต่งานเหล่านี้ในปัจจุบันสามารถที่จะใช้ระบบ computer เพื่อมาช่วยในการวิเคราะห์ให้มีประสิทธิภาพที่มากขึ้น

When a planet crosses in front of its star as viewed by an observer, the event is called a transit. Transits by terrestrial planets produce a small change in a star’s brightness of about 1/10,000 lasting for 2 to 16 hours. Credit NASA

 

เช่นเดียวกันงานส่วนใหญ่ที่เกี่ยวข้องกับข้อมูลที่มีความซับซ้อน Machine Learning นั้นสามารถที่จะช่วยเหลือในงานรูปแบบดังกล่าวได้ ดังที่ได้กล่าวมาในหลาย ๆ blog ก่อนหน้านี้ ซึ่งในการค้นพบครั้งล่าสุดนั้นนักวิจัยได้ทำการนำข้อมูลที่เกี่ยวข้องกับภาพทางดาราศาสตร์ของระบบสุริยะมาทำการ Train ผ่าน Machine Learning เพื่อตรวจหาจุดเล็ก ๆ บนความสว่างเหล่านี้ที่ไม่เคยได้พบเห็นมาก่อน

ซึ่งการทำงานร่วมกันของ Christopher Shallue วิศวกรของ google และ Andrew Vanderburg นักดาราศาสตร์แห่ง University of Texas,Austin ได้ทำการใช้ Machine Learning เพื่อที่จะเรียนรู้วิธีในการระบุดาวเคราะห์นอกระบบสุริยะ ที่ได้ทำการบันทึกภาพผ่านเครื่องมืออย่าง Kepler โดยพวกเค้าได้ใช้ สัญญาณกว่า 15,000 แบบในการ train โดยใช้ Neural network ซึ่งเป็นรูปแบบการทำงานที่เลียนแบบการทำงานของสมอง ซึ่งจะเห็นได้ว่า จะใช้รูปแบบการทำงานคล้ายกับที่ผมเคยทำวิจัยในเรื่อง Machine Learning กับการวิเคราะห์มะเร็งเต้านม  ซึ่งในงานวิจัยมะเร็งนั้น จะทำการหาจุดขาวผ่านภาพ Xray Digital Mammogram โดยผ่านการ train โดยใช้ Machine Learning เหมือนกัน แต่ในส่วนของการค้นหาดาวเคราะห์นั้น จะเป็นการหาจุดมืด ที่อยู่บนความสว่างของภาพดังรูปข้างต้น

โดยหลังจากทำการทดลองนั้นพบว่าระบบ Neural Network ของ Shallue มีความแม่นยำในการระบุดาวเคราะห์สูงถึง 96% แม้ว่าอาจจะมีความผิดพลาดอยู่บ้าง แต่ก็สามารถที่จะระบุได้ถึงดาวเคราะห์จริง ๆ ได้เป็นจำนวนมากเช่นกัน เช่น กลุ่มดาว 8 ดวงของ Kepler-90i ซึ่งอยู่ห่างจากโลกเราประมาณ 2,545 ปีแสง ซึ่งการใช้เทคโนโลยีทางด้าน AI เข้ามาช่วยเหลือนั้น ก็ถือว่าเป็นนวัตกรรมใหม่ในวงการดาราศาสตร์ ที่จะช่วยเหลือเหล่านักวิจัย รวมถึงนักดาราศาตร์ในอนาคตข้างหน้า ให้ช่วยไขความลับบางอย่างของจักรวาลที่ยังไม่สามารถหาคำตอบได้ ณ จนถึงปัจจุบัน

Artist’s impression of Planet Nine. Credit Tom Ruen/ESO

จากการค้นหากลุ่มดาว planet nine  ซึ่งเป็นกลุ่มดาวลึกลับที่คาดการณ์ว่าจะอยู่นอกสุดของระบบสุริยะของเรา ซึ่งแม้ว่าการปรากฏตัวของกลุ่มดาวดังกล่าวยังไม่ไดัรับการยืนยัน แต่ Andrew Vanderburg ได้กล่าวไว้ว่า Machine Learning นั้นจะสามารถช่วยหากลุ่มดาว planet nine ได้อย่างแน่นอน แม้กลุ่มดาวดังกล่าวยังไม่ได้รับการอธิบายที่ดีพอจากทฤษฏีอื่น ๆ ก่อนหน้านี้

หนึ่งในนวัตกรรมที่สำคัญที่สุดของ Machine Learning ที่เกี่ยวข้องกับดาราศาสตร์ คือ ความสามารถในการระบุวัตถุ หรือ จุด ที่น่าสนใจผ่านข้อมูลขนาดใหญ่ที่มีการเก็บข้อมูลมาอย่างยาวนาน ซึ่งในปี 2015 ได้มี paper ทางวิชาการ ที่กลุ่มนักดาราศาสตร์ได้เริ่มใช้ AI เพื่อค้นหากลุ่มดาว planet nine หรือวัตถุอื่นๆ  ในระบบสุริยะที่ยังไม่สามารถหาคำตอบได้ ซึ่งสิ่งนึงที่เราสามารถรู้ได้อย่างแน่นอนในตอนนี้นั้นในด้านดาราศาสตร์นั้น AI กำลังเข้ามามีบทบาที่สำคัญ และอาจจะทำให้เกิดการค้นพบครั้งยิ่งใหญ่ในเร็ววันนี้ก็เป็นไปได้ คำตอบของจักรวาลที่เรายังไม่รู้ อาจจะสามารถหาคำตอบได้ผ่านเครื่องมือใหม่ ๆ เหล่านี้ในอนาคตอันใกล้นี้

References : www.wired.co.uk

 

 

ศึกชิงตัวบุคคลากรด้าน AI ของยักษ์ใหญ่แห่ง Silicon Valley

ต้องบอกว่ากระแสของ AI นั้นมาแรงจริง ๆ ในช่วงนี้ ทำให้ผู้ที่เกี่ยวข้องที่เป็นบุคลลากรด้าน AI ทั้งนักวิจัย รวมถึงวิศวกรต่าง ๆ ที่มีความสามารถทางด้าน AI เป็นที่ต้องการจากบริษัทยักษ์ใหญ่ของ silicon valley ไม่ว่าจะเป็น google , microsoft , apple หรือ facebook ซึ่งล้วนแล้วต่างมี project ที่เกี่ยวข้องกับ AI กันแทบทั้งสิ้น

แต่ไม่ใช่เฉพาะบริษัทยักษ์ใหญ่เท่านั้น เหล่า startup เล็ก ๆ ก็ให้ข้อเสนอที่เย้ายวนใจสำหรับบุคคลากรด้านนี้เหมือนกัน ไม่ว่าจะเป็นรูปแบบของหุ้น ซึ่งอาจจะทำให้เป็นเศรษฐีได้หากบริษัท startup เล็ก ๆ เหล่านั้นประสบความสำเร็จแบบบริษัทรุ่นพี่ขึ้นมาจริง ๆ เหมือนที่ google , facebook เคยทำได้ในอดีต

ต้องบอกว่าการแข่งขันทางด้านการแย่งตัวบุคคลากรนั้น ค่อนข้างรุนแรง เนื่องจากมีพนักงานที่มีคุณสมบัติด้าน AI ที่เป็นไปตามความต้องการของบริษัทเหล่านี้อยู่ไม่มาก จึงต้องมีการแย่งชิงตัวกัน โดยมีข้อเสนอเงินรายได้จำนวนมหาศาลเพื่อเป็นสิ่งล่อใจในการแย่งชิงตัวบุคลากรเหล่านี้

ซึ่งต้องบอกว่าเหล่าบริษัทยักษ์ใหญ่ใน silicon valley เดิมพันค่อนข้างสูงกับเทคโนโลยี AI ไล่มาตั้งแต่ ระบบการสแกนหน้าผ่าน smartphone เทคโนโลยีทางด้าน healthcare รวมไปถึง ในอุตสาหกรรมยานยนต์ ที่กำลังมุ่งสู่ยานยนต์ไร้คนขับ ซึ่งกำลังเดิมพันด้วยจำนวนเงินที่น่าตกใจ ทำให้รายได้ของพนักงานเหล่านี้สูงขึ้นตามไปด้วย

ซึ่งผู้เชี่ยวชาญด้าน AI ซึ่งรวมถึง ดอกเตอร์ที่เพิ่งจบปริญญาเอกมาใหม่ ๆ หรือแม้กระทั่งพนักงานที่มีประสบการณ์ไม่มากนัก แต่มีความรู้ด้าน AI ตามความต้องการของบริษัทยักษ์ใหญ่เหล่านี้ ก็สามารถเสนอค่าตอบแทนได้สูงถึง 300,000 – 500,000 เหรียญสหรัฐต่อปี รวมถึงให้ข้อเสนอทางด้านหุ้น เพื่อเป็นสิ่งล่อใจให้กับบุคคลากรเหล่านี้ให้เข้ามาอยู่กับบริษัทตัวเองให้ได้

สำหรับผู้ที่มีประสบการณ์การทำงานใน field AI มาบ้างแล้วนั้นก็ได้ค่าตอบแทนที่สูงขึ้นไปอีกในหลักล้านเหรียญสหรัฐต่อปี รวมถึงจำนวนหุ้นที่เป็นข้อเสนอก็จะมีจำนวนมากตามประสบการณ์ของพนักงานคนนั้น ๆ และรูปแบบการต่อสัญญานั้นบางครั้งก็คล้าย ๆ กับนักกีฬาอาชีพเลยก็ว่าได้ ซึ่งสามารถเรียกค่าตอบแทนเพิ่มมากขึ้นในการต่อสัญญาใหม่ โดยสัญญาอาจจะเป็นระยะสั้น เพื่อให้สามารถต่อรองเรื่องสัญญาใหม่ได้เร็วขึ้นนั่นเองเพราะมีหลายบริษัทที่คอยจะฉกตัวกันไปอยู่แล้ว เพราะความต้องการใน domain ดังกล่าวนั้นมีล้นมาก แต่บุคคลากรยังไม่พอต่อความต้องการ

ยิ่งไม่ต้องพูดถึงในระดับผู้บริหารที่มีประสบการณ์กับโครงการ AI นั้น บางรายอาจจะมีปัญหาถึงกับต้องเข้าสู่กระบวนการศาลกันเลยทีเดียวเช่น ในกรณีของ Anthony Levandowski ซึ่งเป็นลูกจ้างเก่าของ google ที่ได้เริ่มงานกับ google มาตั้งแต่ปี 2007 ได้รับค่าแรงจูงใจหรือ incentive ในการไปเซ็นสัญญาเข้าร่วมงานกับบริษัท Uber กว่า 120 ล้านเหรียญสหรัฐ ซึ่งต้องทำให้ทั้ง google และ Uber ต้องมีปัญหาขึ้นโรงขึ้นศาลกันเนื่องมาจากปัญหาเรื่องทรัพย์สินทางปัญญาที่อาจจะถูกละเมิดได้

Anthony Levandowski

มีปัจจัยเร่งไม่กี่อย่างที่ทำให้อัตราการจ่ายค่าจ้างของบุคคลากรด้าน AI นั้นถีบสูงขึ้นอย่างรวดเร็ว หนึ่งในนั้นคือ การแย่งตัวจาก อุตสาหกรรมรถยนต์ ที่กำลังพัฒนาในส่วนรถไร้คนขับ ซึ่งต้องการบุคคลากรแนวเดียวกันกับที่บริษัทยักษ์ใหญ่ทางด้าน internet ใน silicon valley ต้องการ ซึ่งส่วนของบริษัททางด้าน internet อย่าง facebook หรือ google นั้นต้องการแก้ปัญหาหลายอย่างที่ต้องใช้ AI ในการแก้เช่น การสร้างผู้ช่วย digital สำหรับ smart phone หรือ IoT device ที่อยู่ภายในบ้าน หรือการคัดกรองเนื้อหา content ที่ไม่เหมาะสมในระบบก็ต้องอาศัย AI ในการช่วยคัดกรอง ซึ่งการแก้ไขปัญหาเหล่านี้นั้นไม่เหมือนกับการสร้าง application mobile ธรรมดา ๆ ที่สามารถหาบุคคลากรได้ไม่ยาก แต่ต้องอาศัยความเชี่ยวชาญในด้าน AI เพื่อช่วยแก้ปัญหาเหล่านี้ให้ง่ายขึ้น

ต้องอาศัยเงินไม่ใช่น้อยหากจะสร้าง Lab ทางด้าน AI ตัวอย่างของ  Deepmind ที่เป็น Lab ที่วิจัยทางด้าน Deep Learning ที่ถูก google aqquired ไปเมื่อปี 2014 มูลค่ากว่า 650 ล้านเหรียญสหรัฐนั้น มีรายจ่ายในการจ้างพนักงาน และเหล่านักวิจัยกว่า 400 คน สูงถึง 138 ล้านเหรียญสหรัฐ ซึ่งโดยเฉลี่ย ต่อคนสูงถึง 345,000 เหรียญสหรัฐต่อปี ซึ่งเป็นการยากที่บริษัทเล็ก ๆ จะสามารถแข่งขันเรื่องค่าจ้างกับบริษัทยักษ์ใหญ่ดังกล่าวได้

สำหรับความสำเร็จของงานวิจัยด้าน AI นั้นขึ้นอยู่กับ เทคนิคที่เรียกว่า Deep Neural networks ซึ่ง เป็น อัลกอรึธึมทางคณิตศาสตร์ ที่สามารถเรียนรู้ผ่านข้อมูลได้ด้วยตัวเอง เช่น การมองหารูปแบบของสุนัขนับล้านตัว ซึ่งทำให้ Neural Network สามารถเรียนรู้ที่จะจดจำรูปแบบของสุนัขได้ ซึ่งแนวคิดดังกล่าวนั้นต้องย้อนกลับไปตั้งแต่ยุค 1950 แต่มันยังคงอยู่ในรูปแบบของการศึกษาเท่านั้นจนกระทั่ง 5 ปีที่ผ่านมา ถึงได้เริ่มมีการนำมาประยุกต์ใช้ในงานจริง

googleplex

ในปี 2013 นั้น google , facebook รวมถึงบริษัทอื่น ๆ จำนวนหนึ่งนั้นได้ทำการเริ่มรับสมัครนักวิจัยเพียงไม่กี่คนที่เข้าใจถึง เทคนิคดังกล่าว ซึ่ง Neural Network ในตอนนี้สามารถที่จะช่วยจดจำใบหน้าในภาพถ่ายที่ post ไปยัง facebook หรือ สามารถระบุคำสั่งได้ใน Amazon Echo รวมถึงสามารถที่จะช่วยแปลภาษาต่างประเทศได้ผ่านบริการ skype ของ Microsoft ซึ่งล้วนแล้วแต่เกิดจากการพัฒนาทางด้าน Neural Network และมาประยุกต์ใช้กับธุรกิจจริงแทบทั้งสิ้น

ซึ่งการใช้ อัลกอริธึมทางคณิตศาสตร์ในลักษณะเดียวกันนั้น นักวิจัยกำลังทำการพัฒนารถยนต์แบบไร้คนขับ รวมถึงพัฒนาบริการของโรงพยาบาลในการวิเคราะห์โรค ผ่าน ภาพทางการแพทย์เช่น ภาพ X-Ray รวมถึงในวงการตลาดเงินหรือตลาดทุนนั้น ก็มีการพัฒนาหุ่นยนต์ที่คอยช่วยซื้อขายหุ้นแบบอัตโนมัติ ซึ่งนักวิจัยเหล่านี้ล้วนเป็นพวกมันสมองที่จบจากมหาวิทยาลัยดัง ๆ ของสหรัฐทั้งนั้น

Uber นั้นได้ทำการว่าจ้างนักจัยกว่า 40 คนจาก Carnegie Mellon เพื่อมาช่วยพัฒนายานยนต์ไร้คนขับของ Uber  และ 1 ใน 4 ของนักวิจัยด้าน AI ชื่อดังได้ลาออกจากงานจากตำแหน่งศาสตราจารย์ที่มหาลัยสแตนฟอร์ด ส่วนในมหาวิทยาลัยวอชิงตันนั้น 6 ใน 20 ของนักวิจัยที่อยู่ในมหาลัย รวมถึงคณาจารย์ที่มีความเชี่ยวชาญกำลังลาออก และ ไปทำงานให้กับภาคเอกชนยักษ์ใหญ่ของอเมริกา

แต่ก็มีบางรายที่ออกไปอยู่กับองค์กรที่ไม่แสดงหาผลกำไร ตัวอย่าง Oren Etzioni ผู้ซึ่งลาออกจากตำแหน่งศาสตาจารย์จาก University of Washington เพื่อไปดูแล Allen Institute for Artifical Intelligence ซึ่งเป็นองค์กรที่ไม่แสวงหาผลกำไร

ส่วนบางรายก็ใช้รูปแบบการประนีประนอม Luke Zettlemoyer จาก University of Washington ได้มารับตำแหน่งที่ห้องทดลองทางด้าน AI ของ google ในเมือง ซีแอตเติล ซึ่งสามารถจ่ายเงินให้มากกว่าสามเท่าของรายได้เดิมของ Luke โดย google อนุญาติให้เขาสามารถสอนหนังสือต่อได้ที่ Allen Institute

ซึ่ง Zettlemoyes นั้นได้กล่าวไว้ว่า มีสถาบันการศึกษามากมายที่รองรับการทำงานทั้งสองรูปแบบ ที่สามารถแบ่งเวลาให้กับทั้งภาคเอกชน รวมถึง สามารถแบ่งเวลาส่วนนึงให้กับภาคการศึกษาได้ ปัจจัยหลักนั้นเกิดจากความแตกต่างอย่างสุดขั้วของรายได้ระหว่างการทำงานในภาคเอกชนกับภาคการศึกษา ซึ่งคนที่สามารถทำงานทั้งสองอย่างได้นั้น ก็เนื่องมาจากเขาสนใจในงานด้านวิชาการจริง ๆ

เพื่อเป็นการสร้างบุคคลากรรุ่นใหม่ทางด้าน AI ให้เพิ่มมากขึ้น บริษัทอย่าง google หรือ facebook นั้น ได้สร้าง class ที่สอนเนื้อหาเกี่ยวกับ “deep learning” รวมถึงเทคโนโลยีต่าง ๆ ที่เกี่ยวข้อง ให้กับพนักงานที่มีอยู่ เพื่อเป็นการสร้างบุคคลากรรุ่นใหม่ภายในบริษัทเอง รวมถึงการเปิด online course ให้กับพนักงานผู้ที่สนใจด้าน AI ได้เข้ามาเรียนรู้

ซึ่งแนวคิดพื้นฐานของ Deep Learning นั้นก็ไม่ได้ยากเกินไปที่จะเรียนรู้ ซึ่งอาศัยความรู้ทางด้านคณิตศาสตร์ที่เป็นพื้นฐานหลักของเหล่าวิศวกรในบริษัทเหล่านี้อยู่แล้ว แต่ การที่จะสร้างผู้เชี่ยวชาญด้านนี้จริง ๆ นั้นต้องอาศัย ความรู้ทางด้านคณิศาสตร์ชั้นสูง รวมถึงความรู้เฉพาะด้าน ซึ่งเป็นสิ่งจำเป็นสำหรับสาขาต่าง ๆ เช่น รถขับเคลื่อนอัตโนมัติ หรือ การวิเคราะห์ข้อมูลด้านสุขภาพ

แต่สำหรับบริษัทเล็ก ๆ นั้นการที่จะแข่งขันกับบริษัทยักษ์ใหญ่นั้นก็มีทางเลือกไม่มากนัก ก็ต้องมองหาทางเลือกอื่นที่ใช้งบประมาณไม่สูงเท่า เช่น บางบริษัทได้ว่าจ้าง นักฟิสิกส์ หรือ นักดาราศาสตร์ ที่มีทักษะทางคณิตศาสตร์ที่สามารถนำมาประยุกต์ใช้กับ AI ได้ หรือ มองหาพนักงานจากเอเชีย ยุโรปตะวันออก หรือ ที่อื่น ๆ ที่มีค่าแรงต่ำกว่าแทน

แต่เหล่าบริษัทยักษ์ใหญ่ อย่าง google , facebook หรือ Microsoft ก็ได้ทำการเปิดห้องทดลองด้าน AI ในต่างประเทศ เช่น Microsoft นั้นได้เปิดขึ้นที่ แคนาดา ส่วน google นั้นก็มีการจ้างงานเพิ่มขึ้นในประเทศจีนเหมือนกัน

ซึ่งสาเหตุต่าง ๆ เหล่านี้ล้วนแต่ทำให้ไม่แปลกใจว่าการขาดแคลนบุคคลากรด้าน AI นั้นคงจะไม่บรรเทาลงไปในเร็ว ๆ วันนี้อย่างแน่นอน เพราะการสร้างบุคคลากรด้านนี้ขึ้นมานั้นไม่ใช่เรื่องง่ายแต่อย่างใด มหาลัยที่เชี่ยวชาญที่สามารถสร้างบุคลากรที่มีคุณภาพออกได้ก็มีไม่มาก ซึ่งส่วนใหญ่ก็อยู่ในสหรัฐอเมริกา ซึ่งจากสาเหตุที่ demand และ supply ของบุคคลากรด้าน AI ยังไม่สมดุลในขณะนี้ ก็มีแนวโน้มที่รายได้ของบุคคลากรในด้านนี้ก็จะยังคงสูงขึ้นต่อไปเรื่อย ๆ อย่างแน่นอน

 

References : www.nytimes.com , www.paysa.com , qz.com

Spotify’s Discover Weekly : Machine Learning ช่วยเลือกเพลงที่โดนใจเราได้อย่างไร

ในทุก ๆ วันนั้น ผู้ใช้กว่า 100 ล้านคนของ Spotify จะได้เจอ playlist ใหม่ ๆ อยู่ตลอดเวลา ซึ่ง อาจจะเป็นการ mix 30 เพลง ที่เราแทบไม่เคยได้ยินมาก่อนเลยก็ว่าได้ แต่คุณจะตกหลุมรักเพลงเหล่านั้น ซึ่ง Features นี้ก็คือ Discover Weekly แล้ว Spotify รู้ใจเราได้อย่างไร?

Spotify นั้นรู้รสนิยมในการฟังเพลงของลูกค้ามากกว่าบริการอื่นใด แต่ระบบเบื้องหลังการทำงานนั้น ทำอย่างไรล่ะ ที่จะคอยหาเพลงที่เราจะชอบมัน ในทุก ๆ สัปดาห์ ผ่าน Features Discover Weekly  ซึ่งเพลงเหล่านั้น เราแทบจะไม่เคยได้ฟังมาก่อน แต่มาโดนกับรสนิยมเราได้ ซึ่ง Spotify ที่มีการเติบโตอย่างรวดเร็วนั้น ปัจจัยสำคัญอย่างนึงก็คือ ระบบ Playlist ที่แนะนำให้เรานี่แหละ ที่ทำให้ใครหลาย  ๆ คนหลังรัก Spotify  ซึ่งเป็นสิ่งที่ Spotify นั้น Focus มาตั้งแต่แรกเริ่มหลังจากปล่อยบริการนี้ออกมา เพราะ Spotify นั้นไม่ใช่บริการแรก ๆ ที่ทำบริการด้าน online music stream แต่ผู้ใช้หลายล้านคนนั้นหลงรักระบบของ Spotify ซึ่ง Spotify นั้นลงทุนไปเป็นจำนวนมากกับการสร้าง algorithm ในการสร้าง Playlist เหล่านี้

A brief history of online music curation

history of online music

history of online music

จุดเริ่มต้นคือในปี 2000 บริการ Songza ได้เริ่มบริการ music online โดยใช้ระบบ manual มีคนช่วยสร้างระบบ Playlist ให้กับ Users โดยใช้ กูรูทางด้าน music มาช่วยจัด Playlist จากเพลงที่คิดว่าน่าสนใจให้ ซึ่งลูกค้าก็แค่คอยเลือก Playlist เหล่านี้มาฟัง ซึ่บริการแบบนี้ก็ work ในช่วงแรก เพราะเราได้ฟังเพลงใหม่ ๆ ผ่านระบบ Playlist จากผู้เชี่ยวชาญคอยเลือกเพลงให้ แต่ไม่สามารถให้ประสบการณ์ในรสนิยมของลูกค้าแต่ละคนได้ ทุกคนก็ต้องมาฟัง Playlist คล้าย ๆ กัน ซึ่งอาจจะไม่ถูกจริตสำหรับบางคน แต่คนส่วนใหญ่ก็ชอบกัน

ซึ่งหลังจากบริการของ Songza ได้รับความนิยมนั้น Pandora ก็ได้สร้างบริการในลักษณะคล้าย ๆ กัน แต่มีการปรับแต่งบางอย่าง เริ่มมีการเพิ่งระบบ Tag ให้กับเพลง ซึ่งผู้ใช้บริการสามารถที่จะ สร้าง tag เพื่อกำหนดคุณสมบัติของแต่ละเพลงได้ เพื่อให้สามารถ filter เพลงได้ง่ายยิ่งขึ้น และสามารถที่จะสร้าง playlist จากเพลงที่แนวทางคล้าย ๆ กันได้ง่ายขึ้น

ในขณะเดียวกันนั้น กลุ่ม MIT Media Lab ได้เริ่มปล่อยบริการ The Echo Nest ซึ่งมีการปรับปรุงระบบให้เข้ากับรสนิยมส่วนบุคคลมากกว่า โดยเริ่มใช้รูปแบบของ computer algorithm ในการวิเคราะห์เสียง รวมถึง content ของเพลง ซึ่งสามารถทำให้ระบุรสนิยมของเพลง รวมถึงเริ่มมีระบบ personalized recommendation การสร้าง playlist ที่เริ่มเป็นแบบระบบอัติโนมัติจาก computer algorithm

และบริการที่อยู่มาจนถึงปัจจุบันอย่าง Last.fm ใช้การมีส่วนร่วมของ user ในระบบ ซึ่งเรียกว่า collaborative filtering ที่ช่วยในการระบุเพลงที่ user น่าจะชอบในขณะนั้นได้

ในขณะที่บริการทั้งหลายเหล่านี้นั้น เน้นในเรื่อง music recommendations แต่ Spotify ที่เปิดบริการหลัง แต่มาพร้อมด้วย engine พิเศษ ที่สามารถที่จะรับรู้รสนิยมการฟังเพลงของ user ได้แบบรายบุคคล และมีความแม่นยำในการจำแนกรสนิยมการฟังเพลงได้มากกว่าบริการอื่น ๆ ที่เปิดมาก่อนได้อย่างไร?

Spotify’s 3 Types of Recommendation Models

Spotify นั้นไม่ได้ใช้เพียงรูปแบบของ Recommendation models เพียงแบบเดียวเท่านั้น แต่เป็นการผสมผสาน หลาย  ๆ เทคนิคเข้าไปและประยุกต์ให้กลายเป็นระบบที่ทรงพลังและมีเอกลักษณ์ในรูปแบบของ Discovey Weekly ซึ่ง Spotify นั้นใช้ 3 models คือ

  1. Collaborative Filtering  ใช้รูปแบบคล้าย ๆ กับ Last.fm โดยการนำเอาพฤติกรรมการฟังของคุณ รวมถึงคนอื่นๆ ในระบบ มาทำการวิเคราะห์
  2. Natural Language Processing (NLP)  ซึ่ง model นี้จะเกี่ยวข้องกับการวิเคราะห์ด้านข้อความ หรือ content จากเพลงที่มีลักษณะเป็นข้อความ
  3. Audio ส่วน model นี้จะนำเอา file เพลงดิบ ๆ มาทำการวิเคราะห์ในส่วนของเสียง
spotify recommendation model

spotify recommendation model

Recommendation Model #1 : Collaborative Filtering

หลาย ๆ หากได้ยินคำว่า “Collaborative Filtering” นั้นอาจจะนึกถึง Netflix  ซึ่งเป็นหนึ่งในบริการแรก ๆ ที่ใช้ collaborative filtering ใสการสร้าง recommendation model โดยจะใช้รูปแบบการให้ดาว ตาม rating ของหนัง ซึ่งเป็นส่วนที่ใช้แนะนำให้กับผู้ใช้คนอื่น ๆ ในระบบ หลังจากความประสบความสำเร็จของ Netflix ในการใช้ collaborative filtering ซึ่งหลาย ๆ บริการก็จะใช้รูปแบบของการให้ดาวในการแนะนำให้กับ user อื่นในระบบ

แต่ Spotify นั้นไม่ได้มีระบบการให้ดาวแบบเดียวกับ Netflix เพื่อให้ user ให้คะแนนกับเพลง เหมือนกับที่ user ให้ดาวกับหนังของ netflix แต่ Spotify นั้นจะใช้รูปแบบของ implicit feedback โดยจะใช้การนับจำนวน stream ที่เรียกฟังเพลง รวมถึงการที่ user ได้ทำการ save เพลงเข้ามายัง playlist ของตน หรือมีการเข้าเยี่ยมชมในส่วนของ Artist page หลังจากได้ฟังเพลง ซึ่งแสดงให้เห็นถึงความสนใจต่อเพลงนั้น ๆ ของ user

How does it work?

Collaborative Filtering ทำงานอย่างไร

Collaborative Filtering ทำงานอย่างไร

จากรูปตัวอย่างแสดงให้เห็นรูปแบบการทำงานอย่างง่าย จากรูปชายทางซ้ายนันชอบเพลงใน tracks P,Q,R และ S  ส่วนชายที่อยู่ด้านขวานั้นชอบ tracks Q,R,S และ T

ซึ่งจากการวิเคราะห์อย่างง่าย ๆ นั้น ก็ต้องแนะนำชายที่อยู่ด้านขวาให้ลองฟังใน track P และ ชายคนที่อยู่ด้านซ้ายให้ลองฟังใน track T เพราะรสนิยมของทั้งสองนั้นใกล้เคียงกัน ซึ่งตรงนี้ดูเหมือนเป็นวิธีง่าย  ๆ แต่ Spotify นั้นต้องคำนวนจากจำนวน user เป็นร้อยล้านคน ซึ่งมาจากร้อยล้านรสนิยมการฟังเพลงของ user แล้ว spotify ทำอย่างไร?

…matrix math , done with Python Libraries!

matrix math

matrix math

จากรูปเป็นตัวอย่างแบบย่อ ๆ ในรูปแบบ matrix  ซึ่ง matrix จริง ๆ นั้นจำนวนแถวของ matrix นั้นจะเท่ากับจำนวน user ในระบบซึ่งจะมีกว่าร้อยล้านแถว ซึ่งแต่ละแถวนั้นให้แทน user แต่ละคนในระบบ ส่วนของ column นั้นจะเป็นจำนวนเพลงทั้งหมดในระบบ ซึ่งหากเป็น matrix ในระบบจริง ๆ ก็จะมีกว่า 30 ล้านเพลง ก็จะมี 30 ล้าน column ตามฐานข้อมูลของ spotify

ซึ่ง Python Library นั้นจะ run matrix ทั้งหมดโดยใช้สมการคือ

สมการ python

สมการ python

ซึ่งเมื่อ run จบนั้น จะได้รูปแบบของ Vectors สองชนิดคือ X จะแทน user vector ซึ่งจะหมายถึง รสนิยมการฟังเพลงของ single นั้น ๆ ของ user  ส่วน Y นั้นจะเป็น song vector จะเป็นตัวแทนของ profile ของเพลงนั้น ๆ

The User/Song matrix produces two types of vectors: User vectors and Song vectors

ซึ่งเราจะได้ User Vectors จำนวน 140 ล้านตามจำนวน user ทั้งหมดในระบบ  และ Song Vectors จำนวน 30 ล้าน ตามจำนวนเพลงทั้งหมดในระบบ  ซึ่งเหล่า Vector ข้อมูลเหล่านี้นั้น เป็นประโยชน์อย่างยิ่งในการเปรียบเทียบรสนิยมการฟังเพลงของ user แต่ละคน ซึ่งการที่จะหาว่า user  คนใด  ๆ มีรสนิยมการฟังเพลงคล้ายกับใครนั้น จะต้องใช้ collaborative filtering ในการเปรียบเทียบ vector ของ user นั้น ๆ กับ vector ของคนอื่น ๆ ในระบบทั้งหมด ซึ่งเมื่อใช้ computer algorithm ทำการเปรียบเทียบทั้งหมด เราก็จะได้เห็นว่าใครมีรสนิยมการฟังเพลงคล้ายกัน  เช่นเดียวกับในส่วนของ Song Vector เราก็ต้องนำ song vector ของเพลงนั้น ๆ ไปเปรียบเทียบหาจาก song vector ของเพลงทั้งหมดในระบบ ก็จะได้เพลงที่มีสไตล์คล้าย ๆ กัน  ถึงแม้ว่าจากตัวอย่างที่ผ่านมานั้น collaborative filtering นั้นสามารถที่จะให้ผลลัพธ์ที่น่าสนใจ แต่ spotify ก็รู้ว่าเค้าต้องทำอะไรได้ดีกว่าการใช้ engine รูปแบบเดียวกับบริการอื่น ๆ เพียงอย่างเดียว

Recommendation Model #2 : Natural Language Processing (NLP)

สำหรับส่วนที่ 2 ใน Recommendation Model ของ Spotify นั้นใช้ เทคนิค ของ Natural Language Processing (NLP)  สำหรับ source ของข้อมูลที่จะนำมา analyse ผ่านเทคนิค NLP นั้นจะใช้ ข้อมูลของ track metadata ของเพลง ,  news articles, blogs รวมถึงข้อมูลที่เป็น text อื่น ๆ ในระบบ internet

Natural Language Processing (NLP)

Natural Language Processing (NLP)

Natural Language Processing นั้น จะเป็นการใช้ความสามารถของ computer ในการวิเคราะห์ข้อความ text โดยส่วนใหญ่นั้นจะใช้วิธีผ่าน sentiment analysis APIs ซึ่งผมได้เคยเขียน blog การวิเคราะห์ Market Trend ของหุ้น โดยใช้ปัจจัยพื้นฐานด้านข่าว  ซึ่งจะใช้เทคนิคคล้าย ๆ กันคือ sentiment analysis เพื่อไปวิเคราะห์ market trend ของหุ้น

โดยรูปแบบการทำงานเบื้องหลังของ NLP ที่ spotify ใช้นั้น spotify จะสร้าง crawls คล้าย ๆ กับที่ google ใช้ในการเก็บ index ข้อมูล data เพื่อมา index ให้ user ทำการค้นหา แต่ spotify นั้นจะ focus ไปที่ blogs หรือ งานเขียน ที่เกี่ยวข้องกับวงการเพลง  และนำมาวิเคราะห์ว่าผู้คน ใน internet กำลังพูดถึง ศิลปิน หรือ เพลงนั้นๆ อย่างไร แต่วิธีการในการ process ข้อมูลเหล่านี้นั้นยังเป็นความลับที่ spotify ยังไม่มีการเผยแพร่ออกมาว่าจัดการกับข้อมูลเหล่านี้อย่างไร  แต่จะขอยกตัวอย่างจาก Echo Nest ที่ใช้วิธีการคล้าย ๆ กัน ซึ่ง Echo Nest นั้้นนำข้อมูลมา process โดยเรียกว่า “cultural vectors” หรือ “top terms”  โดยแต่ละ ศิลปิน รวมถึง แต่ละเพลงนั้น จะมีการเปลี่ยนแปลงของ top-terms อยู่ทุกวันผ่านการ analysis ข้อมูลจากระบบ internet  ซึ่งแต่ละ term นั้นจะมีค่า weight อยู่ ขึ้นอยู่กับความสำคัญของคุณลักษณะของแต่ละ term

“Cultural vectors” , or “top terms” , as used by the Echo Nest.

หลังจากนั้น รูปแบบก็จะคล้าย ๆ กับ collaborative filtering ซึ่ง NLP Model จะใช้ terms และ weights ในการสร้าง vector ของเพลง ซึ่งสามารถที่จะนำมาเปรียบเทียบว่า เพลงใด มีสไตล์ คล้าย ๆ กับเพลงใด ซึ่งจะส่งผลต่อการแนะนำให้กับ user ที่ใช้งานได้ตรงรสนิยมของ user คนนั้น ๆ ได้

Recommendation Model #3: Raw Audio Models

Raw Audio Models

Raw Audio Models

หลาย ๆ ท่านอาจจะคิดว่า แค่ 2 model ข้างต้นนั้นก็สามารถวิเคราะห์ข้อมูล ของเพลงและ user ได้อย่างมีประสิทธิภาพแล้ว แต่ Spotify ได้เพิ่มในส่วนของ Raw Audio Model เพื่อเพิ่มความแม่นยำในส่วนการแนะนำเพลงให้มีความแม่นยำมากที่สุด และ Raw Audio Model นั้นยังสามารถที่จะเปิดประสบการณ์ฟังเพลงใหม่ ๆ ให้กับ user ได้อีกด้วย

ลองนึกถึงตัวอย่างว่า มีเพลง ที่เราคิดว่าเพราะมาก ๆ อยู่ใน spotify แต่อาจจะเพราะเป็นจากศิลปินหน้าใหม่ที่ยังไม่ดัง ซึ่งอาจจะมีคนฟังเพลงนี้แค่ 50 คน ทำให้การใช้ collaboratively filter นั้นอาจจะยังไม่ได้ผลนักเพราะยังมีคนน้อยคนที่ฟังเพลงดังกล่าว รวมถึง ยังไม่มีใครพูดถึงเพลงดังกล่าวใน internet ทำให้ NLP ไม่สามารถที่จะไปวิเคราะห์ได้  แต่ Raw Audio Models นั้นมาปิดจุดอ่อนในส่วนนี้ คือไม่ว่าจะเป็นเพลงใหม่ หรือ เพลงฮิต นั้น ก็สามารถที่จะทำให้เพลงดังกล่าว ขั้นไปอยู่ใน Discovery Weekly ได้เหมือนกัน

ซึ่งเทคนิคของ Raw Audio Model นั้นเป็นสิ่งไม่ง่ายเลย แต่สามารถที่จะทำได้ด้วย convolutional neural networks

convolutional neural networks นั้นเป็นเทคโนโลยีเดียวกันกับที่เราใช้ใน facial recognition ใน case ของ spotify นั้น ได้ทำการดัดแปลงจากการใช้ pixel data ใน facial recognition มาใช้ audio data แทน ซึ่ง ตัวอย่างของ Architecture ที่ใช้ Neural network มีดังนี้

convolutional neural networks

convolutional neural networks

ซึ่งส่วนประกอบของ neural network นั้นจะประกอบด้วย 4 convolutional layers ซึ่งจากรูปคือ บาร์ที่มีขนาดกว้างที่อยู่ด้านซ้าย  และ 3 dense layers ซึ่งจากรูปคือ บาร์ที่มีขนาดแคบที่อยู่ทางด้านขวา  ซึ่ง input ที่เข้ามานั้นจะนำเอา audio data มาแปลงเป็น time-frequency เพื่อแทนส่วนของ audio frames ซึ่งต่อมาจะแปลงไปสู่รูปแบบของ spectrogram

Audio frames นั้นจะเข้าสู่ convolutional layers และหลังจากแท่ง convolutional layers แท่งสุดท้ายนั้นจะเป็นส่วนของ “global temporal pooling” layer  ซึ่งเป็นเทคนิคที่ใช้ Neural Network ในการเรียนรู้คุณลักษณะของเพลง โดย จะส่งเป็นชุด audio frame เพื่อให้ Neural Network ทำการ Learning

หลังจาก process เสร็จนั้น neural network นั้นจะสามารถที่จะเข้าใจคุณลักษณะต่าง ๆ ของเพลง ตัวอย่างเช่น time signature , key , mode , tempo หรือ loudness ซึ่ง output รูปตัวอย่างข้างล่างนั้นจะเป็นการนำเพลง “Around the world” ของศิลปิน Daft Punk มาผ่าน process จากรูปข้างบน และจะได้ output ดังรูป

ใช้เทคโนโลยี Neural Network

ใช้เทคโนโลยี Neural Network

ซึ่งหลังจากเข้าใจคุณลักษณะหลัก ๆ ของเพลงนั้น Spotify ก็สามารถที่จะนำข้อมูลต่าง ๆ เหล่านี้ไปวิเคราะห์เพื่อเปรียบเทียบเพลง ซึ่งสามารถทำให้ user ได้รับเพลงที่มีรสนิยมคล้าย ๆ กันโดยนำข้อมูลจากประวัติการฟังเพลงของ user นั้น ๆ มาเปรียบเทียบกับเพลงใหม่ ๆ ที่ได้ทำการวิเคราะห์ผ่าน Raw Audio Model

ซึ่งการประกอบกับของทั้ง 3 models นั้น ได้สร้างความแตกต่างและประสิทธิภาพให้กับ Features Discover Weekly Playlist ของ Spotify ที่ทำให้แตกต่างจากบริการฟังเพลง online อื่น ๆ และทำให้ user ต่างหลงรัก Spotify

Spotify Recommendation Model

Spotify Recommendation Model

ซึ่งทุก ๆ model นั้นมีการเชื่อมต่อกับ service ของ Spotify ซึ่งเป็น ecosystem ที่มีขนาดใหญ่มากตามจำนวน user และ เพลง ที่มีในระบบ ซึ่งต้องประกอบไปด้วยฝั่ง infrasturcture หลังบ้านที่แข็งแกร่งเพื่อรองรับ data จำนวนมหาศาล และสามารถจะวิเคราะห์ข้อมูลจำนวนมหาศาลเหล่านี้ได้อย่างรวดเร็ว ทำให้ user ที่ใช้งานรู้สึกสะดวกที่สุดและสามารทำงานได้อย่างมีประสิทธิภาพมากที่สุด ซึ่งเราจะเห็นได้ว่าจากตัวอย่างของ Spotify นั้นแม้จะเป็นบริการที่เปิดทีหลัง แต่ก็สามารถต่อกรกับยักษ์ใหญ่ได้อย่างไม่เป็นรอง เพราะระบบหลังบ้านที่มีความแข็งแกร่ง และการใช้ Machine Learning หรือ AI มาช่วยในการพัฒนาบริการนั้นก็ได้เพิ่มความแตกต่างให้กับบริการของ Spotify  รวมถึง Features ที่สามารถตอบโจทย์ให้กับ user ทำให้ user นั้นต่างหลงรักและยอมเปลี่ยนมาใช้ Spotify กว่าร้อยล้านคน และกำลังเติบโตขึ้นเรื่อย ๆ ในขณะนี้

References : 

ติดตาม ด.ดล Blog เพิ่มเติมได้ที่
Fanpage :facebook.com/tharadhol.blog
Blockdit :blockdit.com/tharadhol.blog
Twitter :twitter.com/tharadhol
Instragram :instragram.com/tharadhol

ความน่ากลัวของ Google AI

เป็นข่าวใหญ่ในช่วงสัปดาห์เลยทีเดียวสำหรับการแข่งขันเกมส์โกะ ระหว่างมนุษย์ กับ AI ของ Google โดยมีการนำแชมป์โลกโกะอย่าง Lee Sedol โดยในสามเกมส์แรก Alpha go ซึ่งเป็น AI จาก Google ที่พัฒนาโดยบริษัท Deepmind ซึ่งเป็นบริษัทลูกของ google สามารถเอาชนะไปได้ และล่าสุด Lee Sedol เพิ่งจะกลับมาชนะได้เป็นเกมส์แรกในเกมส์ที่ 4 หลังจากพ่ายแพ้ไปใน 3 เกมส์แรก

เทคโนโลยีด้าน AI นั้นได้พัฒนามาในระดับที่สามารถแก้ไขปัญหาที่ซับซ้อนได้ อย่างการเล่นเกมส์ที่มีความซับซ้อน และเง่ื่อนไขการเล่นที่มีความน่าจะเป็นจำนวนมากอย่างเกมส์โกะได้ ถือว่าเป็นเรื่องไม่ธรรมดา โดยในปัจจุบันนั้นมีการวิจัยค้นคว้าทั้งทางด้าน Machine Learning รวมไปถึง Neural Network ที่พัฒนาไปไกลมาก แทนที่จะเก็บความน่าจะเป็นทั้งหมด แล้วให้ AI ค้นหาทางเลือกที่ดีที่สุด ก็มีการพัฒนาให้มีการเรียนรู้เองแบบมนุษย์ทำให้ความสามารถของ AI เพิ่มมากขึ้นเป็นอย่างมากสามารถใช้ในการ Solve ปัญหาที่ยาก ๆ ได้หลาย ๆ ปัญหา

สำหรับ Alpha Go นั้นถือว่าเป็นจุดเริ่มต้นของยุคใหม่ของ AI ที่มนุษย์ทุกคนต้องตระหนักถึงเลยก็ว่าได้ ซึ่งเป็นการแสดงให้เห็นถึงก้าวกระโดดของการพัฒนา AI ที่ทำให้มนุษย์ทุกคนต้องหันมาจับตามอง เพราะมันจะมีผลกระทบต่อชีวิตของคนเรามากเป็นอย่างยิ่งในอนาคตอันใกล้นี้อย่างแน่นอน

ทำไมเราถึงต้องกลัว?  การที่ google ยอมลงทุนงานวิจัยด้าน AI ในระดับมูลค่ามหาศาลผ่านการรวมตัวของ นักวิทยาศาสตร์ และ programmer กว่า 100 ชีวิตใน Deepmind นั้นถือว่าเป็นการมองถึงอนาคตที่ยิ่งใหญ่ของ google หากมีเครื่องมีที่สามารถ solve ปัญหายาก  ๆได้ทุกปัญหาผ่านการใช้ AI เช่น  การ trade หุ้น หากมีเครื่องมีที่สามารถชนะกลไก ของตลาดหุ้นโดยมีเป้าหมายที่ให้ผลตอบแทนสูงสุด โดยใช้ AI ในการ trade ซึ่งก็มองว่าเป็นเครื่องจักรทำเงินของ google ได้เลยทีเดียว รวมถึงด้านแขนงอื่น ๆ อย่างด้านการแพทย์ หากนำ AI ไปแก้ปัญหายาก  ๆ อย่างการรักษาโรคมะเร็ง หรือ ผลิตยารักษาโรคที่ไม่สามารถรักษาได้ในปัจจุบันเพราะบางปัญหานั้น มนุษย์เรายังไม่สามารถ solve ปัญหาได้ แต่มันไม่ใช่ปัญหาของ AI  แต่อย่างใด รวมถึงปัญหาที่เราสงสัยกันมานานอย่างเรื่องการเกิดของระบบจักรวาล ที่แท้จริงแล้วมีที่มาอย่างไร หรือการนำไปใช้ในการทหารผ่านหุ่นยนต์รบต่าง ๆ หรือระบบขับเคลื่อนอาศยานแบบอัตโนมัติ เหล่านี้ล้วนแล้วแต่ใช้ AI มาแก้ปัญหาได้ทั้งสิ้น

และแน่นอนทุกอย่างก็จะมีผลกระทบต่อชีวิตมนุษย์เราทุกคนในอนาคตอย่างแน่นอน หาก google มีเครื่องมือเหล่านี้อยู่ในมือก็สามารถสร้างประโยชน์ได้มหาศาลจากเครื่องมือดังกล่าวทั้งในด้านบวกและด้านลบ และ google ก็จะคืบคลานเข้าสู่เทคโนโลยีด้านอื่น ๆ ที่เกี่ยวข้องกับชีวิตประจำวันของเราโดยผ่านเครื่องมือด้าน AI ที่มีอยู่ในมือ และนี่คงไม่เป็นการมองที่เว่อร์เกินไป เพราะ ณขณะนี้ AI มันเริ่มเข้ามาใกล้ตัวเรามากขึ้นจริง ๆ

Img Ref : adminspoint.com