ศึกชิงตัวบุคคลากรด้าน AI ของยักษ์ใหญ่แห่ง Silicon Valley

ต้องบอกว่ากระแสของ AI นั้นมาแรงจริง ๆ ในช่วงนี้ ทำให้ผู้ที่เกี่ยวข้องที่เป็นบุคลลากรด้าน AI ทั้งนักวิจัย รวมถึงวิศวกรต่าง ๆ ที่มีความสามารถทางด้าน AI เป็นที่ต้องการจากบริษัทยักษ์ใหญ่ของ silicon valley ไม่ว่าจะเป็น google , microsoft , apple หรือ facebook ซึ่งล้วนแล้วต่างมี project ที่เกี่ยวข้องกับ AI กันแทบทั้งสิ้น

แต่ไม่ใช่เฉพาะบริษัทยักษ์ใหญ่เท่านั้น เหล่า startup เล็ก ๆ ก็ให้ข้อเสนอที่เย้ายวนใจสำหรับบุคคลากรด้านนี้เหมือนกัน ไม่ว่าจะเป็นรูปแบบของหุ้น ซึ่งอาจจะทำให้เป็นเศรษฐีได้หากบริษัท startup เล็ก ๆ เหล่านั้นประสบความสำเร็จแบบบริษัทรุ่นพี่ขึ้นมาจริง ๆ เหมือนที่ google , facebook เคยทำได้ในอดีต

ต้องบอกว่าการแข่งขันทางด้านการแย่งตัวบุคคลากรนั้น ค่อนข้างรุนแรง เนื่องจากมีพนักงานที่มีคุณสมบัติด้าน AI ที่เป็นไปตามความต้องการของบริษัทเหล่านี้อยู่ไม่มาก จึงต้องมีการแย่งชิงตัวกัน โดยมีข้อเสนอเงินรายได้จำนวนมหาศาลเพื่อเป็นสิ่งล่อใจในการแย่งชิงตัวบุคลากรเหล่านี้

ซึ่งต้องบอกว่าเหล่าบริษัทยักษ์ใหญ่ใน silicon valley เดิมพันค่อนข้างสูงกับเทคโนโลยี AI ไล่มาตั้งแต่ ระบบการสแกนหน้าผ่าน smartphone เทคโนโลยีทางด้าน healthcare รวมไปถึง ในอุตสาหกรรมยานยนต์ ที่กำลังมุ่งสู่ยานยนต์ไร้คนขับ ซึ่งกำลังเดิมพันด้วยจำนวนเงินที่น่าตกใจ ทำให้รายได้ของพนักงานเหล่านี้สูงขึ้นตามไปด้วย

ซึ่งผู้เชี่ยวชาญด้าน AI ซึ่งรวมถึง ดอกเตอร์ที่เพิ่งจบปริญญาเอกมาใหม่ ๆ หรือแม้กระทั่งพนักงานที่มีประสบการณ์ไม่มากนัก แต่มีความรู้ด้าน AI ตามความต้องการของบริษัทยักษ์ใหญ่เหล่านี้ ก็สามารถเสนอค่าตอบแทนได้สูงถึง 300,000 – 500,000 เหรียญสหรัฐต่อปี รวมถึงให้ข้อเสนอทางด้านหุ้น เพื่อเป็นสิ่งล่อใจให้กับบุคคลากรเหล่านี้ให้เข้ามาอยู่กับบริษัทตัวเองให้ได้

สำหรับผู้ที่มีประสบการณ์การทำงานใน field AI มาบ้างแล้วนั้นก็ได้ค่าตอบแทนที่สูงขึ้นไปอีกในหลักล้านเหรียญสหรัฐต่อปี รวมถึงจำนวนหุ้นที่เป็นข้อเสนอก็จะมีจำนวนมากตามประสบการณ์ของพนักงานคนนั้น ๆ และรูปแบบการต่อสัญญานั้นบางครั้งก็คล้าย ๆ กับนักกีฬาอาชีพเลยก็ว่าได้ ซึ่งสามารถเรียกค่าตอบแทนเพิ่มมากขึ้นในการต่อสัญญาใหม่ โดยสัญญาอาจจะเป็นระยะสั้น เพื่อให้สามารถต่อรองเรื่องสัญญาใหม่ได้เร็วขึ้นนั่นเองเพราะมีหลายบริษัทที่คอยจะฉกตัวกันไปอยู่แล้ว เพราะความต้องการใน domain ดังกล่าวนั้นมีล้นมาก แต่บุคคลากรยังไม่พอต่อความต้องการ

ยิ่งไม่ต้องพูดถึงในระดับผู้บริหารที่มีประสบการณ์กับโครงการ AI นั้น บางรายอาจจะมีปัญหาถึงกับต้องเข้าสู่กระบวนการศาลกันเลยทีเดียวเช่น ในกรณีของ Anthony Levandowski ซึ่งเป็นลูกจ้างเก่าของ google ที่ได้เริ่มงานกับ google มาตั้งแต่ปี 2007 ได้รับค่าแรงจูงใจหรือ incentive ในการไปเซ็นสัญญาเข้าร่วมงานกับบริษัท Uber กว่า 120 ล้านเหรียญสหรัฐ ซึ่งต้องทำให้ทั้ง google และ Uber ต้องมีปัญหาขึ้นโรงขึ้นศาลกันเนื่องมาจากปัญหาเรื่องทรัพย์สินทางปัญญาที่อาจจะถูกละเมิดได้

Anthony Levandowski

มีปัจจัยเร่งไม่กี่อย่างที่ทำให้อัตราการจ่ายค่าจ้างของบุคคลากรด้าน AI นั้นถีบสูงขึ้นอย่างรวดเร็ว หนึ่งในนั้นคือ การแย่งตัวจาก อุตสาหกรรมรถยนต์ ที่กำลังพัฒนาในส่วนรถไร้คนขับ ซึ่งต้องการบุคคลากรแนวเดียวกันกับที่บริษัทยักษ์ใหญ่ทางด้าน internet ใน silicon valley ต้องการ ซึ่งส่วนของบริษัททางด้าน internet อย่าง facebook หรือ google นั้นต้องการแก้ปัญหาหลายอย่างที่ต้องใช้ AI ในการแก้เช่น การสร้างผู้ช่วย digital สำหรับ smart phone หรือ IoT device ที่อยู่ภายในบ้าน หรือการคัดกรองเนื้อหา content ที่ไม่เหมาะสมในระบบก็ต้องอาศัย AI ในการช่วยคัดกรอง ซึ่งการแก้ไขปัญหาเหล่านี้นั้นไม่เหมือนกับการสร้าง application mobile ธรรมดา ๆ ที่สามารถหาบุคคลากรได้ไม่ยาก แต่ต้องอาศัยความเชี่ยวชาญในด้าน AI เพื่อช่วยแก้ปัญหาเหล่านี้ให้ง่ายขึ้น

ต้องอาศัยเงินไม่ใช่น้อยหากจะสร้าง Lab ทางด้าน AI ตัวอย่างของ  Deepmind ที่เป็น Lab ที่วิจัยทางด้าน Deep Learning ที่ถูก google aqquired ไปเมื่อปี 2014 มูลค่ากว่า 650 ล้านเหรียญสหรัฐนั้น มีรายจ่ายในการจ้างพนักงาน และเหล่านักวิจัยกว่า 400 คน สูงถึง 138 ล้านเหรียญสหรัฐ ซึ่งโดยเฉลี่ย ต่อคนสูงถึง 345,000 เหรียญสหรัฐต่อปี ซึ่งเป็นการยากที่บริษัทเล็ก ๆ จะสามารถแข่งขันเรื่องค่าจ้างกับบริษัทยักษ์ใหญ่ดังกล่าวได้

สำหรับความสำเร็จของงานวิจัยด้าน AI นั้นขึ้นอยู่กับ เทคนิคที่เรียกว่า Deep Neural networks ซึ่ง เป็น อัลกอรึธึมทางคณิตศาสตร์ ที่สามารถเรียนรู้ผ่านข้อมูลได้ด้วยตัวเอง เช่น การมองหารูปแบบของสุนัขนับล้านตัว ซึ่งทำให้ Neural Network สามารถเรียนรู้ที่จะจดจำรูปแบบของสุนัขได้ ซึ่งแนวคิดดังกล่าวนั้นต้องย้อนกลับไปตั้งแต่ยุค 1950 แต่มันยังคงอยู่ในรูปแบบของการศึกษาเท่านั้นจนกระทั่ง 5 ปีที่ผ่านมา ถึงได้เริ่มมีการนำมาประยุกต์ใช้ในงานจริง

googleplex

ในปี 2013 นั้น google , facebook รวมถึงบริษัทอื่น ๆ จำนวนหนึ่งนั้นได้ทำการเริ่มรับสมัครนักวิจัยเพียงไม่กี่คนที่เข้าใจถึง เทคนิคดังกล่าว ซึ่ง Neural Network ในตอนนี้สามารถที่จะช่วยจดจำใบหน้าในภาพถ่ายที่ post ไปยัง facebook หรือ สามารถระบุคำสั่งได้ใน Amazon Echo รวมถึงสามารถที่จะช่วยแปลภาษาต่างประเทศได้ผ่านบริการ skype ของ Microsoft ซึ่งล้วนแล้วแต่เกิดจากการพัฒนาทางด้าน Neural Network และมาประยุกต์ใช้กับธุรกิจจริงแทบทั้งสิ้น

ซึ่งการใช้ อัลกอริธึมทางคณิตศาสตร์ในลักษณะเดียวกันนั้น นักวิจัยกำลังทำการพัฒนารถยนต์แบบไร้คนขับ รวมถึงพัฒนาบริการของโรงพยาบาลในการวิเคราะห์โรค ผ่าน ภาพทางการแพทย์เช่น ภาพ X-Ray รวมถึงในวงการตลาดเงินหรือตลาดทุนนั้น ก็มีการพัฒนาหุ่นยนต์ที่คอยช่วยซื้อขายหุ้นแบบอัตโนมัติ ซึ่งนักวิจัยเหล่านี้ล้วนเป็นพวกมันสมองที่จบจากมหาวิทยาลัยดัง ๆ ของสหรัฐทั้งนั้น

Uber นั้นได้ทำการว่าจ้างนักจัยกว่า 40 คนจาก Carnegie Mellon เพื่อมาช่วยพัฒนายานยนต์ไร้คนขับของ Uber  และ 1 ใน 4 ของนักวิจัยด้าน AI ชื่อดังได้ลาออกจากงานจากตำแหน่งศาสตราจารย์ที่มหาลัยสแตนฟอร์ด ส่วนในมหาวิทยาลัยวอชิงตันนั้น 6 ใน 20 ของนักวิจัยที่อยู่ในมหาลัย รวมถึงคณาจารย์ที่มีความเชี่ยวชาญกำลังลาออก และ ไปทำงานให้กับภาคเอกชนยักษ์ใหญ่ของอเมริกา

แต่ก็มีบางรายที่ออกไปอยู่กับองค์กรที่ไม่แสดงหาผลกำไร ตัวอย่าง Oren Etzioni ผู้ซึ่งลาออกจากตำแหน่งศาสตาจารย์จาก University of Washington เพื่อไปดูแล Allen Institute for Artifical Intelligence ซึ่งเป็นองค์กรที่ไม่แสวงหาผลกำไร

ส่วนบางรายก็ใช้รูปแบบการประนีประนอม Luke Zettlemoyer จาก University of Washington ได้มารับตำแหน่งที่ห้องทดลองทางด้าน AI ของ google ในเมือง ซีแอตเติล ซึ่งสามารถจ่ายเงินให้มากกว่าสามเท่าของรายได้เดิมของ Luke โดย google อนุญาติให้เขาสามารถสอนหนังสือต่อได้ที่ Allen Institute

ซึ่ง Zettlemoyes นั้นได้กล่าวไว้ว่า มีสถาบันการศึกษามากมายที่รองรับการทำงานทั้งสองรูปแบบ ที่สามารถแบ่งเวลาให้กับทั้งภาคเอกชน รวมถึง สามารถแบ่งเวลาส่วนนึงให้กับภาคการศึกษาได้ ปัจจัยหลักนั้นเกิดจากความแตกต่างอย่างสุดขั้วของรายได้ระหว่างการทำงานในภาคเอกชนกับภาคการศึกษา ซึ่งคนที่สามารถทำงานทั้งสองอย่างได้นั้น ก็เนื่องมาจากเขาสนใจในงานด้านวิชาการจริง ๆ

เพื่อเป็นการสร้างบุคคลากรรุ่นใหม่ทางด้าน AI ให้เพิ่มมากขึ้น บริษัทอย่าง google หรือ facebook นั้น ได้สร้าง class ที่สอนเนื้อหาเกี่ยวกับ “deep learning” รวมถึงเทคโนโลยีต่าง ๆ ที่เกี่ยวข้อง ให้กับพนักงานที่มีอยู่ เพื่อเป็นการสร้างบุคคลากรรุ่นใหม่ภายในบริษัทเอง รวมถึงการเปิด online course ให้กับพนักงานผู้ที่สนใจด้าน AI ได้เข้ามาเรียนรู้

ซึ่งแนวคิดพื้นฐานของ Deep Learning นั้นก็ไม่ได้ยากเกินไปที่จะเรียนรู้ ซึ่งอาศัยความรู้ทางด้านคณิตศาสตร์ที่เป็นพื้นฐานหลักของเหล่าวิศวกรในบริษัทเหล่านี้อยู่แล้ว แต่ การที่จะสร้างผู้เชี่ยวชาญด้านนี้จริง ๆ นั้นต้องอาศัย ความรู้ทางด้านคณิศาสตร์ชั้นสูง รวมถึงความรู้เฉพาะด้าน ซึ่งเป็นสิ่งจำเป็นสำหรับสาขาต่าง ๆ เช่น รถขับเคลื่อนอัตโนมัติ หรือ การวิเคราะห์ข้อมูลด้านสุขภาพ

แต่สำหรับบริษัทเล็ก ๆ นั้นการที่จะแข่งขันกับบริษัทยักษ์ใหญ่นั้นก็มีทางเลือกไม่มากนัก ก็ต้องมองหาทางเลือกอื่นที่ใช้งบประมาณไม่สูงเท่า เช่น บางบริษัทได้ว่าจ้าง นักฟิสิกส์ หรือ นักดาราศาสตร์ ที่มีทักษะทางคณิตศาสตร์ที่สามารถนำมาประยุกต์ใช้กับ AI ได้ หรือ มองหาพนักงานจากเอเชีย ยุโรปตะวันออก หรือ ที่อื่น ๆ ที่มีค่าแรงต่ำกว่าแทน

แต่เหล่าบริษัทยักษ์ใหญ่ อย่าง google , facebook หรือ Microsoft ก็ได้ทำการเปิดห้องทดลองด้าน AI ในต่างประเทศ เช่น Microsoft นั้นได้เปิดขึ้นที่ แคนาดา ส่วน google นั้นก็มีการจ้างงานเพิ่มขึ้นในประเทศจีนเหมือนกัน

ซึ่งสาเหตุต่าง ๆ เหล่านี้ล้วนแต่ทำให้ไม่แปลกใจว่าการขาดแคลนบุคคลากรด้าน AI นั้นคงจะไม่บรรเทาลงไปในเร็ว ๆ วันนี้อย่างแน่นอน เพราะการสร้างบุคคลากรด้านนี้ขึ้นมานั้นไม่ใช่เรื่องง่ายแต่อย่างใด มหาลัยที่เชี่ยวชาญที่สามารถสร้างบุคลากรที่มีคุณภาพออกได้ก็มีไม่มาก ซึ่งส่วนใหญ่ก็อยู่ในสหรัฐอเมริกา ซึ่งจากสาเหตุที่ demand และ supply ของบุคคลากรด้าน AI ยังไม่สมดุลในขณะนี้ ก็มีแนวโน้มที่รายได้ของบุคคลากรในด้านนี้ก็จะยังคงสูงขึ้นต่อไปเรื่อย ๆ อย่างแน่นอน

 

References : www.nytimes.com , www.paysa.com , qz.com

เมื่อ Robot Trade หุ้นได้ดีกว่ามนุษย์

ใครจะคาดคิดว่าว่าตอนนี้ AI ได้กำลังเริ่มเข้ามามีบทบาทต่อ Wall Street แล้ว และมันกำลังเริ่มทำเงินให้เหล่านักลงทุนต่าง ๆ ที่เริ่มหันมาใช้ robot ในการ trade

ซึ่งในช่วงกลางเดือน ตุลาคม 2017 นั้น นับว่าเป็นจุดเริ่มต้นของกองทุนที่เรียกว่า AI Powered Equity ETF ซึ่งมีการ manage ความเสี่ยงในการลงทุนผ่านระบบ artificial intelligence เพื่อที่จะเอาชนะตลาด Wall Street

ซึ่งจนถึง ณ ปัจจุบัน นั้นมันก็ยังสามารถทำงานได้ดีมาก แม้จะเป็นเพียงในระยะสั้นเท่านั้น ซึ่งการลงทุนจริง ๆ นั้นต้องวัดผลในระยะยาว แต่มันก็สามารถบรรลุเป้าหมายที่กองทุนนี้ต้องการได้ ซึ่งในช่วงแรกนั้น AIEQ ได้ทำกำไรไปประมาณ 0.6% ภายใน 2 วัน ซึ่งทำให้ได้ผลตอบแทนสูงกว่า 1% ในหนึ่งสัปดาห์ ซึ่งสามารถเอาชนะตลาดได้ แต่ก็ยังเป็นแค่ผลงานเพียงระยะสั้นเท่านั้น ซึ่งหากมันทำงานได้ work ในช่วงไตรมาสแรกนั้น เราอาจจะได้เห็นคู่แข่งของกองทุน AI ของบริษัทอื่น ๆ  กว่า 20 บริษัทที่จะเข้ามาแข่งขัน ภายในไม่เกิน 6 เดือน อย่างแน่นอน

ซึ่งโดยหลักแล้วนั้นกองทุนด้าน AI นั้นจะขับเคลื่อนด้วย algorithm ที่มองหาบริษัท ที่มีศักยภาพที่ดีที่สุด ซึ่งให้ผลตอบแทนมากกว่าค่าเฉลี่ยของตลาด ซึ่งถ้ามองในกองทุน ETFs โดยทั่วไปส่วนใหญ่แล้วนั้นจะเน้นไปที่การ follow ตลาด เช่น หาบริษัทขนาดใหญ่ที่มีผลตอบแทนที่ดีใน S&P 500 หรือ ดัชนีอุตสาหกรรมดาวโจนส์ หรือ ภาคอุตสาหกรรมอื่น ๆ แต่ AIEQ ที่เป็นกองทุน AI นั้นจะเลือกบริษัทขนาดเล็กและอยู่ใน list ที่กำลังเจริญเติบโตมากกว่า   ผ่าน computer algorithm โดยผ่านการเรียนรู้จากข้อมูลในตลาด และได้รับการทดสอบมาอย่างดีแล้ว เพื่อบริหารความเสี่ยงได้อย่างดีที่สุด

Wall Street กำลังปั่นป่วน กับการเข้ามาของ Robot

Wall Street กำลังปั่นป่วน กับการเข้ามาของ Robot

ซึ่งเนื่องจากข้อมูลที่มีมากขึ้นในปัจจุบันนั้น ทำให้งานของ Fund Manager นั้นมีความท้าทายมากขึ้น  ซึ่งเทคโนโลยีใหม่  ๆ อย่าง artificial intelligence นั้น มีมาเพื่อช่วยแก้ปัญหาเหล่านี้ ซึ่งการเปิดตลาดของ AIEQ นั้นก็เป็นการแนวทางการลงทุนแบบใหม่โดยใช้ AI ซึ่งจะเปิดโอกาสให้กับทุกคนได้ ซึ่งในขณะนี้กองทุนดังกล่าวนั้นได้มีการลงทุนในหุ้นไปกว่า 70 ตัวแล้ว และกำลังกระจายเงินไปสู่หลาย ๆ sector ซึ่งจะประมวลจากหลาย ๆ กิจกรรมเช่น สภาวะเศรษฐกิจใจปัจจุบัน แนวโน้มที่เกิดขึ้นกับโลกเรา รวมถึง Events ต่าง ๆ ของบริษัท ซึ่งข้อมูลต่าง ๆ เหล่านี้นั้นสามารถนำมา train ให้ computer algorithm เข้าใจและสามารถ predict market trend ที่จะเกิดขึ้นได้

ซึ่งจากข้อมูลใน XTF.com นั้น บริษัทที่ถือครองหลักทรัพย์สูงสุด 5 อันดับแรกนั้นประกอบไปด้วย Penumbra , Genworth Financial , Boyd Gaming , Mednax และ Triumph Group  ซึ่งมีขนาดของส่วนแบ่งจากหลักทรัพย์ทั้งหมด ไล่ตั้งแต่ ส่วนแบ่ง 4.64% ของ Penumbra ไปจนถึงสว่นแบ่ง 3.45% ของ Triumph ซึ่งถือเป็นบริษัทขนาดใหญ่ที่ครองตลาดอยู่ในขณะนี้

ซึ่งอัตราส่วนค่าใช้จ่ายของกองทุนเหล่านี้จะอยู่ที่ 0.75% ซึ่งแพงกว่า ETF แบบ passive โดยทั่วไปที่มีค่าเฉลี่ยอยู่ที่ประมาณ 0.58% แต่ก็ยังถูกกว่า actively managed ETFs ซึ่งค่าเฉลี่ยอยู่ที่ประมาณ 0.85%  ถึงแม้กองทุน AI อย่าง AIEQ นั้นจะมีขนาดเล็กเพียงแค่ 7 ล้านเหรียญ แต่ก็เป็นจุดเริ่มต้นของแนวโน้มด้าน AI ในอนาคตที่จะสำคัญอย่างแน่นอน เพราะ AIEQ นั้นเป็นคนเริ่มกองทุนด้าน AI เป็นกองทุนแรก ซึ่งหากมันประสบความสำเร็จนั้น ก็จะมีคู่แข่งเข้ามาแข่งขันในตลาด AI นี้อย่างรวดเร็วเช่นกัน

Reference : www.cnbc.com,gettyimages.com

 

เมื่อดาราสาวฮอลลีวูด ถูกคุกคามด้วย AI

จากข่าวที่มีภาพหลุดของ Gal Gadot นางเอกดังจากหนัง Wonder Woman เผยแพร่ออกไปทาง internet นั้นปรากฏว่า ใน video ดังกล่าวนั้นเป็นหน้าเธอก็จริง แต่ส่วนของร่างกายนั้นไม่ใช่เธออย่างแน่นอน โดยเป็นการใช้เทคนิคในการเปลี่ยนใบหน้าเธอ ให้เหมือนว่าเธอกำลังแสดงหนังโป๊อยู่ผ่านเทคนิคของ Machine Learning

ซึ่งเทคนิคดังกล่าวนั้นทำโดยใช้ Machine Learning Algorithm ซึ่งสามารถนำมาใช้ได้อย่างง่ายดายในปัจจุบัน เนื่องจากมีโครงการที่เป็น open source ให้เราสามารถ download มาใช้งานได้อยู่ทั่วไปใน internet  ซึ่งต้องบอกว่าบางครั้งสามารถที่จะหลอกคนทั่วไปได้เช่นกัน ในการสวมใบหน้าดารา เข้าไปในฉาก action ของหนังโป๊ ถ้าดูเพียงผ่าน ๆ ไม่ได้ดูอย่างละเอียดถี่ถ้วนก็มีโอกาสทำให้คนเชื่อได้เหมือนกัน

แต่ก็ต้องน่าตกใจไม่ใช่น้อยเมื่อผลงานดังกล่าวมาจากคนทำเพียงแค่คนเดียว ผู้ซึ่งใช้ชื่อว่า ‘deepfakes‘ ใน เว๊บไซต์ชื่อดังอย่าง Reddit.com โดยเค้าใช้เพียง Open Source Machine Learning Tools อย่าง TensorFlow ซึ่ง google นั้นได้แจกฟรี เพื่อให้นักวิจัย หรือ นักเรียน นักศึกษา ผู้ที่สนใจ Machine Learning จากทั่วโลกได้มาลองใช้กัน

Gal Gadot ดาราสาวจาก Wonder Woman ถูกคุกคามด้วย AI

Gal Gadot ดาราสาวจาก Wonder Woman ถูกคุกคามด้วย AI

ซึ่งต้องบอกว่ามีหลาย Tool ที่สามารถที่จะทำอย่างที่ Deepfakes ทำได้ในปัจจุบัน ตัวอย่างเช่นการใช้ Face2Face Tool ของ Adobe ซึ่งสามารถทำได้ในลักษณะเดียวกัน โดยสามารถที่จะทำได้แบบ Realtime ซึ่งรูปแบบ Fake Porn ที่เกิดขึ้นดังกล่าวนี้แสดงให้เห็นว่าเรากำลังอยู่ในโลกที่ง่ายต่อการสร้างวิดีโอทำนองนี้ แม้ว่าพวกเค้าเหล่านั้นไม่เคยกระทำจริง ๆ ในโลกแห่งความจริงเลยก็ตาม ซึ่งถือว่าการพัฒนาของ Machine Learning นั้นทำให้เทคโนโลยีเหล่านี้เป็นเรื่องง่ายในการที่จะนำมาสร้างข่าวหลอกต่าง ๆ ได้ หากเราไม่พิจารณาให้ดีพอ (แต่จากที่ผมได้ทดลองไปส่องดูก็ถือว่าดูเนียนใช้ได้นะ) และมีดาราหลายคนโดนทำไปแล้ว ทั้ง Emma Watson , Scarlett Johansson , Aubrey Plaza หรือ แม้แต่น้อง Maisie Williams  (Arya Stark จาก Game of Thorones)

ต้องบอกว่าการทำ Fake Porn เหล่านี้ที่ใช้หน้าดาราหรือ เซเลป ดัง ๆ มาทำให้เป็นภาพโป๊เปลือยกายนั้น ถือว่าเป็นที่นิยมอยู่เหมือนกัน เพราะถึงขนาดที่ต้องมีการแยกหมวดหมู่ในเรื่องนี้แบบชัดเจนในเว๊บโป๊ชื่อดังหลาย ๆ เว๊บ และที่สำคัญ deepfakes นั้นก็ถือว่ากระแสตอบรับดีไม่ใช้น้อยใน Reddit ขณะนี้ เรียกว่ามีฐานแฟนคลับเพิ่มขึ้นมามากมายจากการ post ของเขา

ใช้เทคโนโลยี opensource อย่าง Tensorflow with Keras

ใช้เทคโนโลยี opensource อย่าง Tensorflow with Keras ที่ทุกคนสามารถนำมาใช้งานได้

ซึ่งจากการ post ของ deepfakes นั้นหลาย ๆ คนอาจจะคิดว่าทำไม่ยาก เหมือนแค่เอาหน้าคนมาแปะใน video อย่างที่เราเคยเห็น ๆ มา แต่ deepfakes นั้นใช้ machine learning algorithm ในการ process ทั้งหมด โดยใช้ opensource library อย่าง Keras และ TensorFlow เป็นระบบ Backend โดยจะใช้ในการ compile เหล่าใบหน้าของ Celebrities ต่าง ๆ โดยข้อมูลที่เค้านำมา train นั้นนำมาจาก google image search , stock photos และใน youtube video โดยจะนำข้อมูลเหล่านี้มาทำการ train เพื่อสามารถจับภาพใบหน้าของเหล่า celebrities กับ หนังโป๊ ที่เค้าต้องการให้เหล่าใบหน้าของ celebrities มาสวมใส่ ซึ่งจะแตกต่างจากการใช้ video แบบตัดต่อที่เราเคยเห็นแบบทั่วไปในอดีต  หลังจากการ train เสร็จสิ้นนั้น เค้าก็สามารถที่จะสร้าง video fake porn ใหม่เหล่านี้ได้อย่างรวดเร็ว

deepfakes นั้นไม่ใช่นักวิจัยที่ทำงานด้าน machine learning หรือเป็น expert ด้าน machine learning แต่อย่างใด แต่เป็นเพียง programmer คนนึงที่สนใจด้าน machine learning เท่านั้น ซึ่งเค้าได้ค้นพบวิธีง่าย ๆ ที่จะสามารทำเทคนิค face-swap ดังกล่าวได้ ซึ่งเค้านั้นได้ใช้ algorithm คล้าย ๆ กับ นักวิจัยจาก nividia ที่ใช้ deep learning ในการเปลี่ยน video ที่มี theme หน้าร้อน ให้กลายเป็น video ที่มี theme เป็นหน้าหนาวได้

ถึงแม้ว่าผลงานที่ post ของ deepfakes นั้นจะยังไม่สมบูรณ์ ซึ่งสามารถที่จะมองออกได้ว่ามีมุมหรือเหลี่ยมปรากฏอยู่บนใบหน้า ซึ่งทำให้คนส่วนใหญ่รู้อยู่แล้วว่าเป็น fake porn video แต่หากมองผ่าน ๆ นั้นก็ทำให้น่าตกใจเหมือนกัน หากคนที่เสพข่าว online โดยไม่มาพิจารณาให้ละเอียด โดยเฉพาะในยุคนี้ที่คนชอบข่าวแนว clickbait ที่เป็นกระแส ซึ่งหากไม่มองให้ถี่ถ้วนนั้น ก็จะไม่รู้ว่าเป็น fake porn ซึ่งส่งผลเสียต่อภาพลักษณ์ของเหล่า celebrities เหล่านี้

ความเห็นที่น่าสนใจจาก Grace Evangeline ดารา Porn Movies รุ่นใหญ่

ความเห็นที่น่าสนใจจาก Grace Evangeline ดารา Porn Movies รุ่นใหญ่

ซึ่งมีความเห็นที่น่าสนใจของนักแสดงหนังโป๊ อย่าง Grace Evangeline ซึ่งให้ความเห็นไว้ว่า สิ่งสำคัญที่สุดคือความยินยอมจากเหล่า celebrities เหล่านี้ที่ถูกนำภาพมาเผยแพร่ ซึ่งการสร้าง fake porn เหล่านี้นั้นโดยไม่ได้รับการยินยอมจากเหล่า celebrities นั้นเธอมองว่าเป็นเรื่องที่ผิด และไม่สมควรทำอย่างยิ่ง และความเห็นที่น่าสนใจจากอดีต ดาราหนังโป๊ อย่าง Alia Janine  ซึ่งเธอให้ความเห็นเกี่ยวกับ fake porn ไว้ว่า การทำ fake porn ลักษณะนี้นั้น แสดงให้เห็นว่าผู้ชายบางคน มองผู้หญิงเป็นเพียงแค่วัตถุที่พวกเขาสามารถที่จะบังคับหรือจัดให้ทำอะไรตามที่เค้าต้องการก็ได้ ซึ่งแสดงให้เห็นว่า คนเหล่านี้นั้นขาดความเคารพในตัวนักแสดงหนังโป๊ หรือ เหล่า celebrities ที่ถูกนำภาพเหล่านี้มาใช้งาน

การสร้าง Paul Walker ขึ้นมาใหม่ โดยใช้เทคนิคเดียวกันเหล่านี้

การสร้าง Paul Walker ขึ้นมาใหม่ ในหนัง Fast & Furious 7 โดยใช้เทคนิคเดียวกันเหล่านี้ เป็นการใช้ในทางสร้างสรรค์

อย่างไรก็ดีถึงแม้ว่าเทคโนโลยีเหล่านี้อาจจะนำไปในสิ่งที่ไม่ถูกต้องอย่างการทำ fake porn แต่การพัฒนาของเทคนิคเหล่านี้นั้น เราก็ได้เห็นผู้ที่นำไปใช้ในทางที่ดีอย่างการสร้าง Paul Walkers ที่ได้เสียชีวิตไปแล้ว เหมือนชุบชีวิตเค้าขึ้นมาใหม่ในหนัง Furious 7 ซึ่งแม้เทคนิคเหล่านี้นั้นจะไม่ยากเกินกว่าที่คนทั่วไปจะเรียนรู้มากนัก ผมก็ยังเชื่อว่าคนส่วนใหญ่นั้นสามารถที่จะนำเอา Machine Learning ไปใช้ในทางที่ดีมากกว่า และสุดท้ายแล้วนั้น ถึงแม้สิ่งแปลกปลอมเหล่านี้จะออกมาทั่ว internet ก็จะมีเหล่านักวิจัยที่จะพัฒนาเทคโนโลยีเพื่อมาตรวจจับเหล่า fake porn เหล่านี้ เพื่อกรองสิ่งที่เป็นของปลอม และช่วยควบคุมไม่ให้ปล่อยเหล่า video ที่มีการละเมิดสิทธิ์ของคนอื่นออกไปได้ใน internet

References : motherboard.vice.com

 

Spotify’s Discover Weekly : Machine Learning ช่วยเลือกเพลงที่โดนใจเราได้อย่างไร

ในทุก ๆ วันนั้น ผู้ใช้กว่า 100 ล้านคนของ Spotify จะได้เจอ playlist ใหม่ ๆ อยู่ตลอดเวลา ซึ่ง อาจจะเป็นการ mix 30 เพลง ที่เราแทบไม่เคยได้ยินมาก่อนเลยก็ว่าได้ แต่คุณจะตกหลุมรักเพลงเหล่านั้น ซึ่ง Features นี้ก็คือ Discover Weekly แล้ว Spotify รู้ใจเราได้อย่างไร?

Spotify นั้นรู้รสนิยมในการฟังเพลงของลูกค้ามากกว่าบริการอื่นใด แต่ระบบเบื้องหลังการทำงานนั้น ทำอย่างไรล่ะ ที่จะคอยหาเพลงที่เราจะชอบมัน ในทุก ๆ สัปดาห์ ผ่าน Features Discover Weekly  ซึ่งเพลงเหล่านั้น เราแทบจะไม่เคยได้ฟังมาก่อน แต่มาโดนกับรสนิยมเราได้ ซึ่ง Spotify ที่มีการเติบโตอย่างรวดเร็วนั้น ปัจจัยสำคัญอย่างนึงก็คือ ระบบ Playlist ที่แนะนำให้เรานี่แหละ ที่ทำให้ใครหลาย  ๆ คนหลังรัก Spotify  ซึ่งเป็นสิ่งที่ Spotify นั้น Focus มาตั้งแต่แรกเริ่มหลังจากปล่อยบริการนี้ออกมา เพราะ Spotify นั้นไม่ใช่บริการแรก ๆ ที่ทำบริการด้าน online music stream แต่ผู้ใช้หลายล้านคนนั้นหลงรักระบบของ Spotify ซึ่ง Spotify นั้นลงทุนไปเป็นจำนวนมากกับการสร้าง algorithm ในการสร้าง Playlist เหล่านี้

A brief history of online music curation

history of online music

history of online music

จุดเริ่มต้นคือในปี 2000 บริการ Songza ได้เริ่มบริการ music online โดยใช้ระบบ manual มีคนช่วยสร้างระบบ Playlist ให้กับ Users โดยใช้ กูรูทางด้าน music มาช่วยจัด Playlist จากเพลงที่คิดว่าน่าสนใจให้ ซึ่งลูกค้าก็แค่คอยเลือก Playlist เหล่านี้มาฟัง ซึ่บริการแบบนี้ก็ work ในช่วงแรก เพราะเราได้ฟังเพลงใหม่ ๆ ผ่านระบบ Playlist จากผู้เชี่ยวชาญคอยเลือกเพลงให้ แต่ไม่สามารถให้ประสบการณ์ในรสนิยมของลูกค้าแต่ละคนได้ ทุกคนก็ต้องมาฟัง Playlist คล้าย ๆ กัน ซึ่งอาจจะไม่ถูกจริตสำหรับบางคน แต่คนส่วนใหญ่ก็ชอบกัน

ซึ่งหลังจากบริการของ Songza ได้รับความนิยมนั้น Pandora ก็ได้สร้างบริการในลักษณะคล้าย ๆ กัน แต่มีการปรับแต่งบางอย่าง เริ่มมีการเพิ่งระบบ Tag ให้กับเพลง ซึ่งผู้ใช้บริการสามารถที่จะ สร้าง tag เพื่อกำหนดคุณสมบัติของแต่ละเพลงได้ เพื่อให้สามารถ filter เพลงได้ง่ายยิ่งขึ้น และสามารถที่จะสร้าง playlist จากเพลงที่แนวทางคล้าย ๆ กันได้ง่ายขึ้น

ในขณะเดียวกันนั้น กลุ่ม MIT Media Lab ได้เริ่มปล่อยบริการ The Echo Nest ซึ่งมีการปรับปรุงระบบให้เข้ากับรสนิยมส่วนบุคคลมากกว่า โดยเริ่มใช้รูปแบบของ computer algorithm ในการวิเคราะห์เสียง รวมถึง content ของเพลง ซึ่งสามารถทำให้ระบุรสนิยมของเพลง รวมถึงเริ่มมีระบบ personalized recommendation การสร้าง playlist ที่เริ่มเป็นแบบระบบอัติโนมัติจาก computer algorithm

และบริการที่อยู่มาจนถึงปัจจุบันอย่าง Last.fm ใช้การมีส่วนร่วมของ user ในระบบ ซึ่งเรียกว่า collaborative filtering ที่ช่วยในการระบุเพลงที่ user น่าจะชอบในขณะนั้นได้

ในขณะที่บริการทั้งหลายเหล่านี้นั้น เน้นในเรื่อง music recommendations แต่ Spotify ที่เปิดบริการหลัง แต่มาพร้อมด้วย engine พิเศษ ที่สามารถที่จะรับรู้รสนิยมการฟังเพลงของ user ได้แบบรายบุคคล และมีความแม่นยำในการจำแนกรสนิยมการฟังเพลงได้มากกว่าบริการอื่น ๆ ที่เปิดมาก่อนได้อย่างไร?

Spotify’s 3 Types of Recommendation Models

Spotify นั้นไม่ได้ใช้เพียงรูปแบบของ Recommendation models เพียงแบบเดียวเท่านั้น แต่เป็นการผสมผสาน หลาย  ๆ เทคนิคเข้าไปและประยุกต์ให้กลายเป็นระบบที่ทรงพลังและมีเอกลักษณ์ในรูปแบบของ Discovey Weekly ซึ่ง Spotify นั้นใช้ 3 models คือ

  1. Collaborative Filtering  ใช้รูปแบบคล้าย ๆ กับ Last.fm โดยการนำเอาพฤติกรรมการฟังของคุณ รวมถึงคนอื่นๆ ในระบบ มาทำการวิเคราะห์
  2. Natural Language Processing (NLP)  ซึ่ง model นี้จะเกี่ยวข้องกับการวิเคราะห์ด้านข้อความ หรือ content จากเพลงที่มีลักษณะเป็นข้อความ
  3. Audio ส่วน model นี้จะนำเอา file เพลงดิบ ๆ มาทำการวิเคราะห์ในส่วนของเสียง
spotify recommendation model

spotify recommendation model

Recommendation Model #1 : Collaborative Filtering

หลาย ๆ หากได้ยินคำว่า “Collaborative Filtering” นั้นอาจจะนึกถึง Netflix  ซึ่งเป็นหนึ่งในบริการแรก ๆ ที่ใช้ collaborative filtering ใสการสร้าง recommendation model โดยจะใช้รูปแบบการให้ดาว ตาม rating ของหนัง ซึ่งเป็นส่วนที่ใช้แนะนำให้กับผู้ใช้คนอื่น ๆ ในระบบ หลังจากความประสบความสำเร็จของ Netflix ในการใช้ collaborative filtering ซึ่งหลาย ๆ บริการก็จะใช้รูปแบบของการให้ดาวในการแนะนำให้กับ user อื่นในระบบ

แต่ Spotify นั้นไม่ได้มีระบบการให้ดาวแบบเดียวกับ Netflix เพื่อให้ user ให้คะแนนกับเพลง เหมือนกับที่ user ให้ดาวกับหนังของ netflix แต่ Spotify นั้นจะใช้รูปแบบของ implicit feedback โดยจะใช้การนับจำนวน stream ที่เรียกฟังเพลง รวมถึงการที่ user ได้ทำการ save เพลงเข้ามายัง playlist ของตน หรือมีการเข้าเยี่ยมชมในส่วนของ Artist page หลังจากได้ฟังเพลง ซึ่งแสดงให้เห็นถึงความสนใจต่อเพลงนั้น ๆ ของ user

How does it work?

Collaborative Filtering ทำงานอย่างไร

Collaborative Filtering ทำงานอย่างไร

จากรูปตัวอย่างแสดงให้เห็นรูปแบบการทำงานอย่างง่าย จากรูปชายทางซ้ายนันชอบเพลงใน tracks P,Q,R และ S  ส่วนชายที่อยู่ด้านขวานั้นชอบ tracks Q,R,S และ T

ซึ่งจากการวิเคราะห์อย่างง่าย ๆ นั้น ก็ต้องแนะนำชายที่อยู่ด้านขวาให้ลองฟังใน track P และ ชายคนที่อยู่ด้านซ้ายให้ลองฟังใน track T เพราะรสนิยมของทั้งสองนั้นใกล้เคียงกัน ซึ่งตรงนี้ดูเหมือนเป็นวิธีง่าย  ๆ แต่ Spotify นั้นต้องคำนวนจากจำนวน user เป็นร้อยล้านคน ซึ่งมาจากร้อยล้านรสนิยมการฟังเพลงของ user แล้ว spotify ทำอย่างไร?

…matrix math , done with Python Libraries!

matrix math

matrix math

จากรูปเป็นตัวอย่างแบบย่อ ๆ ในรูปแบบ matrix  ซึ่ง matrix จริง ๆ นั้นจำนวนแถวของ matrix นั้นจะเท่ากับจำนวน user ในระบบซึ่งจะมีกว่าร้อยล้านแถว ซึ่งแต่ละแถวนั้นให้แทน user แต่ละคนในระบบ ส่วนของ column นั้นจะเป็นจำนวนเพลงทั้งหมดในระบบ ซึ่งหากเป็น matrix ในระบบจริง ๆ ก็จะมีกว่า 30 ล้านเพลง ก็จะมี 30 ล้าน column ตามฐานข้อมูลของ spotify

ซึ่ง Python Library นั้นจะ run matrix ทั้งหมดโดยใช้สมการคือ

สมการ python

สมการ python

ซึ่งเมื่อ run จบนั้น จะได้รูปแบบของ Vectors สองชนิดคือ X จะแทน user vector ซึ่งจะหมายถึง รสนิยมการฟังเพลงของ single นั้น ๆ ของ user  ส่วน Y นั้นจะเป็น song vector จะเป็นตัวแทนของ profile ของเพลงนั้น ๆ

The User/Song matrix produces two types of vectors: User vectors and Song vectors

ซึ่งเราจะได้ User Vectors จำนวน 140 ล้านตามจำนวน user ทั้งหมดในระบบ  และ Song Vectors จำนวน 30 ล้าน ตามจำนวนเพลงทั้งหมดในระบบ  ซึ่งเหล่า Vector ข้อมูลเหล่านี้นั้น เป็นประโยชน์อย่างยิ่งในการเปรียบเทียบรสนิยมการฟังเพลงของ user แต่ละคน ซึ่งการที่จะหาว่า user  คนใด  ๆ มีรสนิยมการฟังเพลงคล้ายกับใครนั้น จะต้องใช้ collaborative filtering ในการเปรียบเทียบ vector ของ user นั้น ๆ กับ vector ของคนอื่น ๆ ในระบบทั้งหมด ซึ่งเมื่อใช้ computer algorithm ทำการเปรียบเทียบทั้งหมด เราก็จะได้เห็นว่าใครมีรสนิยมการฟังเพลงคล้ายกัน  เช่นเดียวกับในส่วนของ Song Vector เราก็ต้องนำ song vector ของเพลงนั้น ๆ ไปเปรียบเทียบหาจาก song vector ของเพลงทั้งหมดในระบบ ก็จะได้เพลงที่มีสไตล์คล้าย ๆ กัน  ถึงแม้ว่าจากตัวอย่างที่ผ่านมานั้น collaborative filtering นั้นสามารถที่จะให้ผลลัพธ์ที่น่าสนใจ แต่ spotify ก็รู้ว่าเค้าต้องทำอะไรได้ดีกว่าการใช้ engine รูปแบบเดียวกับบริการอื่น ๆ เพียงอย่างเดียว

Recommendation Model #2 : Natural Language Processing (NLP)

สำหรับส่วนที่ 2 ใน Recommendation Model ของ Spotify นั้นใช้ เทคนิค ของ Natural Language Processing (NLP)  สำหรับ source ของข้อมูลที่จะนำมา analyse ผ่านเทคนิค NLP นั้นจะใช้ ข้อมูลของ track metadata ของเพลง ,  news articles, blogs รวมถึงข้อมูลที่เป็น text อื่น ๆ ในระบบ internet

Natural Language Processing (NLP)

Natural Language Processing (NLP)

Natural Language Processing นั้น จะเป็นการใช้ความสามารถของ computer ในการวิเคราะห์ข้อความ text โดยส่วนใหญ่นั้นจะใช้วิธีผ่าน sentiment analysis APIs ซึ่งผมได้เคยเขียน blog การวิเคราะห์ Market Trend ของหุ้น โดยใช้ปัจจัยพื้นฐานด้านข่าว  ซึ่งจะใช้เทคนิคคล้าย ๆ กันคือ sentiment analysis เพื่อไปวิเคราะห์ market trend ของหุ้น

โดยรูปแบบการทำงานเบื้องหลังของ NLP ที่ spotify ใช้นั้น spotify จะสร้าง crawls คล้าย ๆ กับที่ google ใช้ในการเก็บ index ข้อมูล data เพื่อมา index ให้ user ทำการค้นหา แต่ spotify นั้นจะ focus ไปที่ blogs หรือ งานเขียน ที่เกี่ยวข้องกับวงการเพลง  และนำมาวิเคราะห์ว่าผู้คน ใน internet กำลังพูดถึง ศิลปิน หรือ เพลงนั้นๆ อย่างไร แต่วิธีการในการ process ข้อมูลเหล่านี้นั้นยังเป็นความลับที่ spotify ยังไม่มีการเผยแพร่ออกมาว่าจัดการกับข้อมูลเหล่านี้อย่างไร  แต่จะขอยกตัวอย่างจาก Echo Nest ที่ใช้วิธีการคล้าย ๆ กัน ซึ่ง Echo Nest นั้้นนำข้อมูลมา process โดยเรียกว่า “cultural vectors” หรือ “top terms”  โดยแต่ละ ศิลปิน รวมถึง แต่ละเพลงนั้น จะมีการเปลี่ยนแปลงของ top-terms อยู่ทุกวันผ่านการ analysis ข้อมูลจากระบบ internet  ซึ่งแต่ละ term นั้นจะมีค่า weight อยู่ ขึ้นอยู่กับความสำคัญของคุณลักษณะของแต่ละ term

“Cultural vectors” , or “top terms” , as used by the Echo Nest.

หลังจากนั้น รูปแบบก็จะคล้าย ๆ กับ collaborative filtering ซึ่ง NLP Model จะใช้ terms และ weights ในการสร้าง vector ของเพลง ซึ่งสามารถที่จะนำมาเปรียบเทียบว่า เพลงใด มีสไตล์ คล้าย ๆ กับเพลงใด ซึ่งจะส่งผลต่อการแนะนำให้กับ user ที่ใช้งานได้ตรงรสนิยมของ user คนนั้น ๆ ได้

Recommendation Model #3: Raw Audio Models

Raw Audio Models

Raw Audio Models

หลาย ๆ ท่านอาจจะคิดว่า แค่ 2 model ข้างต้นนั้นก็สามารถวิเคราะห์ข้อมูล ของเพลงและ user ได้อย่างมีประสิทธิภาพแล้ว แต่ Spotify ได้เพิ่มในส่วนของ Raw Audio Model เพื่อเพิ่มความแม่นยำในส่วนการแนะนำเพลงให้มีความแม่นยำมากที่สุด และ Raw Audio Model นั้นยังสามารถที่จะเปิดประสบการณ์ฟังเพลงใหม่ ๆ ให้กับ user ได้อีกด้วย

ลองนึกถึงตัวอย่างว่า มีเพลง ที่เราคิดว่าเพราะมาก ๆ อยู่ใน spotify แต่อาจจะเพราะเป็นจากศิลปินหน้าใหม่ที่ยังไม่ดัง ซึ่งอาจจะมีคนฟังเพลงนี้แค่ 50 คน ทำให้การใช้ collaboratively filter นั้นอาจจะยังไม่ได้ผลนักเพราะยังมีคนน้อยคนที่ฟังเพลงดังกล่าว รวมถึง ยังไม่มีใครพูดถึงเพลงดังกล่าวใน internet ทำให้ NLP ไม่สามารถที่จะไปวิเคราะห์ได้  แต่ Raw Audio Models นั้นมาปิดจุดอ่อนในส่วนนี้ คือไม่ว่าจะเป็นเพลงใหม่ หรือ เพลงฮิต นั้น ก็สามารถที่จะทำให้เพลงดังกล่าว ขั้นไปอยู่ใน Discovery Weekly ได้เหมือนกัน

ซึ่งเทคนิคของ Raw Audio Model นั้นเป็นสิ่งไม่ง่ายเลย แต่สามารถที่จะทำได้ด้วย convolutional neural networks

convolutional neural networks นั้นเป็นเทคโนโลยีเดียวกันกับที่เราใช้ใน facial recognition ใน case ของ spotify นั้น ได้ทำการดัดแปลงจากการใช้ pixel data ใน facial recognition มาใช้ audio data แทน ซึ่ง ตัวอย่างของ Architecture ที่ใช้ Neural network มีดังนี้

convolutional neural networks

convolutional neural networks

ซึ่งส่วนประกอบของ neural network นั้นจะประกอบด้วย 4 convolutional layers ซึ่งจากรูปคือ บาร์ที่มีขนาดกว้างที่อยู่ด้านซ้าย  และ 3 dense layers ซึ่งจากรูปคือ บาร์ที่มีขนาดแคบที่อยู่ทางด้านขวา  ซึ่ง input ที่เข้ามานั้นจะนำเอา audio data มาแปลงเป็น time-frequency เพื่อแทนส่วนของ audio frames ซึ่งต่อมาจะแปลงไปสู่รูปแบบของ spectrogram

Audio frames นั้นจะเข้าสู่ convolutional layers และหลังจากแท่ง convolutional layers แท่งสุดท้ายนั้นจะเป็นส่วนของ “global temporal pooling” layer  ซึ่งเป็นเทคนิคที่ใช้ Neural Network ในการเรียนรู้คุณลักษณะของเพลง โดย จะส่งเป็นชุด audio frame เพื่อให้ Neural Network ทำการ Learning

หลังจาก process เสร็จนั้น neural network นั้นจะสามารถที่จะเข้าใจคุณลักษณะต่าง ๆ ของเพลง ตัวอย่างเช่น time signature , key , mode , tempo หรือ loudness ซึ่ง output รูปตัวอย่างข้างล่างนั้นจะเป็นการนำเพลง “Around the world” ของศิลปิน Daft Punk มาผ่าน process จากรูปข้างบน และจะได้ output ดังรูป

ใช้เทคโนโลยี Neural Network

ใช้เทคโนโลยี Neural Network

ซึ่งหลังจากเข้าใจคุณลักษณะหลัก ๆ ของเพลงนั้น Spotify ก็สามารถที่จะนำข้อมูลต่าง ๆ เหล่านี้ไปวิเคราะห์เพื่อเปรียบเทียบเพลง ซึ่งสามารถทำให้ user ได้รับเพลงที่มีรสนิยมคล้าย ๆ กันโดยนำข้อมูลจากประวัติการฟังเพลงของ user นั้น ๆ มาเปรียบเทียบกับเพลงใหม่ ๆ ที่ได้ทำการวิเคราะห์ผ่าน Raw Audio Model

ซึ่งการประกอบกับของทั้ง 3 models นั้น ได้สร้างความแตกต่างและประสิทธิภาพให้กับ Features Discover Weekly Playlist ของ Spotify ที่ทำให้แตกต่างจากบริการฟังเพลง online อื่น ๆ และทำให้ user ต่างหลงรัก Spotify

Spotify Recommendation Model

Spotify Recommendation Model

ซึ่งทุก ๆ model นั้นมีการเชื่อมต่อกับ service ของ Spotify ซึ่งเป็น ecosystem ที่มีขนาดใหญ่มากตามจำนวน user และ เพลง ที่มีในระบบ ซึ่งต้องประกอบไปด้วยฝั่ง infrasturcture หลังบ้านที่แข็งแกร่งเพื่อรองรับ data จำนวนมหาศาล และสามารถจะวิเคราะห์ข้อมูลจำนวนมหาศาลเหล่านี้ได้อย่างรวดเร็ว ทำให้ user ที่ใช้งานรู้สึกสะดวกที่สุดและสามารทำงานได้อย่างมีประสิทธิภาพมากที่สุด ซึ่งเราจะเห็นได้ว่าจากตัวอย่างของ Spotify นั้นแม้จะเป็นบริการที่เปิดทีหลัง แต่ก็สามารถต่อกรกับยักษ์ใหญ่ได้อย่างไม่เป็นรอง เพราะระบบหลังบ้านที่มีความแข็งแกร่ง และการใช้ Machine Learning หรือ AI มาช่วยในการพัฒนาบริการนั้นก็ได้เพิ่มความแตกต่างให้กับบริการของ Spotify  รวมถึง Features ที่สามารถตอบโจทย์ให้กับ user ทำให้ user นั้นต่างหลงรักและยอมเปลี่ยนมาใช้ Spotify กว่าร้อยล้านคน และกำลังเติบโตขึ้นเรื่อย ๆ ในขณะนี้

References : 

ติดตาม ด.ดล Blog เพิ่มเติมได้ที่
Fanpage :facebook.com/tharadhol.blog
Blockdit :blockdit.com/tharadhol.blog
Twitter :twitter.com/tharadhol
Instragram :instragram.com/tharadhol

Failed Startup Stories : Beepi Secondary Online Marketplace for cars

Beepi เป็นบริษัที่ให้บริการสำหรับซื้อขายรถมือสองผ่านระบบ online โดยมีที่ตั้งอยู่ใน Mountain View , California ซึ่งสามารถทำ Transaction ในการซื้อขายได้ผ่านทาง smart phone หรือ desktop pc โดยเริ่มให้บริการในเดือนเมษายน ในปี 2014

โดยรูปแบบบริการของ Beepi ผ่าน model การหารายได้แบบง่าย ๆ โดยคิดค่า commission สูงสุดที่ 9%  และหากรถขายไม่ได้ภายใน 30 วันนั้น ทาง Beepi จะเป็นคนซื้อไว้เอง โดยที่ผู้ซื้อนั้นไม่ต้องทำการทดสอบรถใด ๆ ก่อนซื้อ ซึ่ง Beepi ให้เวลา 10 วันในการรับประกันสามารถคืนได้ โดย Beepi เปิดทางเลือกให้ลูกค้าสามารถชำระเงินได้ผ่านบริการใหม่ ๆ เช่น bitcoin รวมถึง credit card โดยในปี 2016 นั้นบริษัทก็ได้ประกาศให้บริการด้านสินเชื่อรถยนต์ของตัวเองเพื่อให้ผู้ซื้อสามารถซื้อได้ง่ายที่สุดผ่านระบบ Beepi

ประวัติของ Beepi

Beepi นั้นก่อตั้งโดย Ale Resnik โดยรับตำแหน่ง CEO และ Owen Savir ที่รับตำแหน่ง COO ของบริษัท โดยก่อตั้งขึ้นในเดือนเมษายนในปี 2014  ในตอนแรกนั้นจะให้บริการเฉพาะพื้นที่ในบริเวณ Sanfrancisco เท่านั้น ซึ่งแรงบรรดาลใจในการสร้าง Beepi นั้นเกิดมาจากประสบการณ์ส่วนตัวของ Resnik ที่ได้รับประสบการณ์ที่แย่มากในการซื้อรถมือสองในขณะเรียนที่ MIT

Beepi นั้นสามารถระดมทุนในรอบ Series A ในเดือนเมษายนปี 2014 ได้ถึง ห้าล้านเหรียญสหรัฐ โดย Jeff Brody จาก Redpoint Ventures รวมถึง angle investors ของอุตสาหกรรมทางด้านเทคโนโลยี และการเติบโตอย่างรวดเร็วทำให้บริษัทได้รับเงินลงทุนใน Series B ถึง 60 ล้านเหรียญสหรัฐในเดือนตุลาคม ปี 2014 ทำให้มูลค่าของบริษัทพุ่งขึ้นไปสูงถึง 200 ล้านเหรียญสหรัฐภายในเวลาเพียง 6 เดือนหลังจากเริ่มปล่อย product version แรกออกสู่ตลาด ซึ่งในตอนนั้นคาดการณ์ว่าจะมีรายได้ถึง 15 ล้านเหรียญสหรัฐ และได้เริ่มทำการขยายบริการไปยังเมือง Los Angeles รวมถึง San Diego

ในเดือนเมษายน ปี 2015 หลังจากบริษัทดำเนินการมาได้ 1 ปีก็ได้ไปเปิด office ที่เมือง Phoenix เป็นเมืองแรกนอกรัฐ California ที่มี office เป็นของตัวเอง ซึ่งในขณะนั้นผู้คนกว่า 200 เมืองสามารถใช้งาน Beepi ได้แล้ว แต่บริการ free delivery นั้นจะให้บริการเฉพาะใน California และ Arizona เท่านั้น

ในเดือน พฤษภาคมปี 2015 นั้น Resnik ได้บอกกับ the wall street journal ว่าเขาคาดหวังจะได้รับการลงทุนมากกว่า 300 ล้านเหรียญสหรัฐ ซึ่งจะทำให้มูลค่าของบริษัทพุ่งสูงไปถึง สองพันล้านเหรียญ หลังจากการดำเนินงานบริษัทมาได้แค่ปีเศษ  และ ในเดือน ตุลาคม ปี 201ุ6 นั้น Beepi ได้รับเงินลงทุนอีกรอบจาก SAIC Motor บริษัทยักษใหญ่ทางด้าน automobile market ของประเทศจีน

แต่บริษัทก็เริ่มมีผลงานต่ำลงโดยในฤดูใบไม้ร่วงของปี 2016 นั้น ยอดขายของ Beepi เหลือเพียง 153 คันต่อเดือน สำหรับเมืองหลักที่เป็นจุดเริ่มต้นอย่าง California ในขณะที่คู่แข่งที่ให้บริการลักษณะเดียวกันนั้นขายได้กว่า 8,500 คันต่อเดือน

หลังจากนั้น Beepi ก็ต้องเร่งปรับเกมสู้ในตลาดรถมือสอง โดยการปิดจุดอ่อนของตัวเองคือไม่มีบริการด้านสินเชื่อเป็นของตัวเอง  โดยการจับมือกับ Ally Financial เพื่อให้บริการด้านสินเชื่อแก่ลูกค้าของ Beepi

สุดท้ายก็ต้องปิดบริการ

หลังจากมีปัญหาเรื่องเงินลงทุนจากจีนในเดือนธันวาคมปี 2016 Beepi ก็เริ่มเข้าสู่ความยากลำบาก จากบริการของตัวเอง ที่ไม่สามารถแบกรับต้นทุนได้ เนื่องจากปัญหาหลาย ๆ อย่าง ทั้งเกิดจากความไม่เต็มใจของทั้งผู้ซื้อและผู้ขายที่จะมาทำการขายผ่าน E-commerce โดยที่ไม่ได้เห็นหน้ากัน รวมถึงภาระในการที่ต้องเก็บรถไว้เองหากขายไม่ได้ภายใน 30 วันนั้น ก็เป็นปัจจัยหลัก เพราะรถเป็นสินทรัพย์ที่มีแต่มูลค่าจะลดลงไม่เหมือนบ้านหรือที่ดิน การเก็บ stock ไว้เองนั้น แม้จะเรียกลูกค้าได้ในตอนแรกเพราะสามารถการันตีว่าถ้าขายไม่ได้ Beepi จะซื้อไว้เอง แต่ไม่สามารถยืนได้ในระยะยาว เนื่องมาจากปัจจัยเรื่องมูลค่าของรถที่มีแต่จะลดลงนั่นเอง การคิด idea แบบ Beepi นั้นไม่ได้คิดถึงผลที่จะตามมาภายหลังอย่างรอบคอบ คิดแค่จะสร้างฐานลูกค้าเพื่อไปรับเงินลงทุนเพิ่มเติม แต่มันไม่สามารถที่จะทำให้กลายเป็นธุรกิจจริง ๆ ได้ เมื่อพ้นช่วงของการระดมทุน ก็เกิดปัญหา เพราะภาระค่าใช้จ่ายที่สูง สุดท้ายก็ได้เริ่มปิดกิจการนอกเขต California และเริ่มหาทางขายกิจการให้กับคู่แข่งอย่าง Shift และทำการปลดพนักงานกว่า 180 คน และเริ่มต้นกระบวนการในการควบรวมกับ Fair.com  แต่ในเดือนกุมภาพันธ์ 2017 การควบรวมกับ Fair.com ก็ต้องล้มลง  และบริษัทก็ต้องเริ่มขายสินทรัพย์เพื่อเข้าสู่กระบวนการปิดกิจการอย่างถาวร

สรุป

ปัญหาของ Beepi เราสามารถวิเคราะห์ได้มาจากปัจจัยหลัก ๆ คือ idea ที่มันคิดได้ง่ายมาก ในการเก็บรถไว้เองหากขายไม่ได้ใน 30 วัน ซึ่งมันเป็นแรงจูงใจง่าย ๆ ให้คนเข้ามาใช้บริการ เพราะคนก็อยากการันตีว่าขายรถได้อย่างแน่นอน ซึ่ง idea นี้นั้นสุดท้ายก็มาทำร้ายบริษัทเอง เพราะต้องแบกรับต้นทุนในการจัดการทั้ง stock รวมถึงมูลค่าของรถ ที่มีแต่จะลดลง ในตอนแรกอาจจะหานักลงทุนมาลงเงินได้ง่าย เพราะ กิจการ เจริญเติบโตอย่างรวดเร็วในแง่ของ ยอดผู้ใช้งาน หรือ ยอดการซื้อขายในระบบ แต่สุดท้ายเมื่อไม่สามารถหาเงินมาต่อยอดได้อีกก็ต้องพบสัจธรรมที่แท้จริงว่า idea ลักษณะนี้ไม่สามารถมาทำให้เป็นกิจการที่สร้างรายได้ รวมถึงกำไรให้กับบริษัทแบบถาวรได้ จึงใช้เวลาเพียงแค่ไม่ถึง 3 ปีก็ต้องปิจกิจการลงไปในที่สุด

References :  en.wikipedia.orgblog.caranddriver.com