
Andrew Ng ปรมาจารย์ AI ยอมรับ จีนเทียบชั้นอเมริกาแล้ว และเป็นความเสี่ยงภูมิรัฐศาสตร์
Andrew Ng ปรมาจารย์ AI ยอมรับ จีนเทียบชั้นอเมริกาแล้ว และเป็นความเสี่ยงภูมิรัฐศาสตร์
คุณ Andrew Ng คือคนที่มีชื่อเสียงอย่างมากในแวดวง AI ซึ่งเขาเป็น
-อดีตผู้ร่วมก่อตั้งและหัวหน้า Google Brain หน่วยงานของ Google ที่วิจัยเรื่อง AI โดยเฉพาะ
-อดีต Chief Scientist ที่ Baidu บริษัท AI ยักษ์ใหญ่ของจีน
-เป็นผู้ร่วมก่อตั้งแพลตฟอร์มการศึกษาออนไลน์ Coursera ที่เน้นเอา AI มาใช้ขับเคลื่อนการสอน
คุณ Andrew Ng คือคนที่มีชื่อเสียงอย่างมากในแวดวง AI ซึ่งเขาเป็น
-อดีตผู้ร่วมก่อตั้งและหัวหน้า Google Brain หน่วยงานของ Google ที่วิจัยเรื่อง AI โดยเฉพาะ
-อดีต Chief Scientist ที่ Baidu บริษัท AI ยักษ์ใหญ่ของจีน
-เป็นผู้ร่วมก่อตั้งแพลตฟอร์มการศึกษาออนไลน์ Coursera ที่เน้นเอา AI มาใช้ขับเคลื่อนการสอน
นอกจากนี้ เขายังเป็นเป็นศาสตราจารย์พิเศษในภาควิชาวิทยาการคอมพิวเตอร์ ที่มหาวิทยาลัยสแตนฟอร์ด
สรุปแล้ว คุณ Andrew Ng เป็นทั้งนักวิชาการ นักธุรกิจ และนักเผยแพร่ความรู้ด้าน AI ที่มีอิทธิพลมากที่สุดคนหนึ่งในโลก โดยผลงานและความเห็นของเขา มักจะมีผลกระทบต่อทั้งอุตสาหกรรม AI
เรื่องของเรื่องคือ เมื่อวันก่อน คุณ Andrew Ng ได้โพสต์ความเห็นเกี่ยวกับการมาของ DeepSeek ของจีน ซึ่งมีประเด็นที่น่าสนใจหลายอย่าง
และนี่คือความเห็นที่เขามีต่อ DeepSeek รวมถึงผลกระทบของมันต่ออุตสาหกรรม AI, ภูมิรัฐศาสตร์ และการเปลี่ยนความคิดในเรื่องความก้าวหน้าด้าน AI ของจีน..
“กระแสความสนใจเกี่ยวกับ DeepSeek ทำให้หลายคนได้เห็นแนวโน้มสำคัญบางอย่างที่เกิดขึ้นอย่างชัดเจน
1. จีนกำลังไล่ตามสหรัฐฯ ในด้าน Generative AI ซึ่งมีผลต่อทั้งซัปพลายเชนของ AI
2. โมเดล AI แบบเปิดสาธารณะ (Open Weight Models) กำลังทำให้เลเยอร์ของโมเดลพื้นฐาน กลายเป็น “สินค้าโภคภัณฑ์” ซึ่งเปิดโอกาสให้กับนักพัฒนาแอปพลิเคชัน
3. การขยายขนาด (Scaling Up) ไม่ใช่หนทางเดียวในการพัฒนา AI แม้จะมีความสนใจและกระแสเกี่ยวกับพลังประมวลผล แต่ความก้าวหน้าทางอัลกอริธึม กำลังลดต้นทุนในการฝึกโมเดลลงอย่างรวดเร็ว
เมื่อประมาณหนึ่งสัปดาห์ก่อน บริษัท DeepSeek จากจีนได้เปิดตัว DeepSeek-R1 ซึ่งเป็นโมเดลที่มีประสิทธิภาพใกล้เคียงกับ o1 ของ OpenAI และยังเปิดเป็นโมเดลแบบ Open Weight ภายใต้ไลเซนส์ของ MIT ที่อนุญาตให้ใช้งานได้อย่างเสรี
ที่งานการประชุมดาวอส สัปดาห์ที่แล้ว ผู้นำธุรกิจที่ไม่มีพื้นฐานด้านเทคนิคจำนวนมาก ได้สอบถามเกี่ยวกับ DeepSeek และในวันจันทร์ ตลาดหุ้นสหรัฐฯ เกิดเหตุการณ์ที่เรียกว่า “DeepSeek Selloff” ซึ่งราคาหุ้นของ Nvidia และบริษัทเทคโนโลยีหลายแห่งในสหรัฐฯ ร่วงลงหนัก (แต่ขณะเขียนนี้ บางบริษัทเริ่มฟื้นตัวบ้างแล้ว)
สิ่งที่ DeepSeek ทำให้หลายคนตระหนักคือ
1. จีนกำลังไล่ตามสหรัฐฯ ในด้าน Generative AI
ตอนที่ ChatGPT เปิดตัวในเดือนพฤศจิกายน 2022 สหรัฐฯ นำหน้าจีนในด้านนี้อย่างชัดเจน และแม้ว่าภาพจำของหลายคนจะยังเชื่อว่าจีนตามหลังอยู่ แต่ในความเป็นจริง ช่องว่างนี้ลดลงอย่างรวดเร็วในช่วง 2 ปีที่ผ่านมา..
โมเดล AI จากจีน เช่น Qwen (ที่ทีมของผมใช้มาหลายเดือน), Kimi, InternVL และ DeepSeek ทำให้จีนขยับเข้าใกล้สหรัฐฯ มากขึ้น และในบางด้าน เช่น การสร้างวิดีโอ (Video Generation) จีนอาจแซงหน้าสหรัฐฯ ไปแล้ว..
2. Open Weight Models กำลังทำให้โมเดลพื้นฐานเป็นสินค้าโภคภัณฑ์
DeepSeek-R1 เป็นโมเดลแบบ Open Weight ที่มาพร้อมกับรายงานเชิงเทคนิคที่ให้รายละเอียดจำนวนมากแก่สาธารณะ ตรงกันข้ามกับบริษัทเทคโนโลยีในสหรัฐฯ บางแห่งที่ผลักดันให้มีกฎระเบียบควบคุม AI Open Source โดยใช้ข้ออ้างเกี่ยวกับ “อันตรายต่อมนุษยชาติ” เช่น ความเสี่ยงการสูญพันธุ์
แต่ตอนนี้เห็นได้ชัดว่า โมเดลแบบ Open Weight จะเป็นส่วนสำคัญของซัปพลายเชน AI และบริษัทจำนวนมากจะนำไปใช้
หากสหรัฐฯ ยังคงขัดขวาง Open Source ต่อไป จีนอาจครองตลาดส่วนนี้ ซึ่งหมายความว่าโมเดล AI ที่ภาคธุรกิจใช้อาจสะท้อน “ค่านิยมของจีน” มากกว่าสหรัฐฯ
หากสหรัฐฯ ยังคงขัดขวาง Open Source ต่อไป จีนอาจครองตลาดส่วนนี้ ซึ่งหมายความว่าโมเดล AI ที่ภาคธุรกิจใช้อาจสะท้อน “ค่านิยมของจีน” มากกว่าสหรัฐฯ
ต้นทุนการใช้งานโมเดลภาษาขนาดใหญ่ (LLM - Large Language Model) กำลังลดลงอย่างมาก ซึ่งส่วนหนึ่งเป็นเพราะ Open Weight Models เช่น OpenAI o1 มีต้นทุน 60 ดอลลาร์สหรัฐต่อ 1 ล้านโทเค็นที่สร้างออกมา
(โทเค็นคือ หน่วยพื้นฐานของข้อความ ที่โมเดลใช้ในการประมวลผลและสร้างคำตอบออกมา)
ขณะที่ DeepSeek-R1 มีต้นทุนเพียง 2.19 ดอลลาร์สหรัฐต่อ 1 ล้านโทเค็น ซึ่งถูกกว่าเกือบ 30 เท่า นี่เป็นสัญญาณที่ชัดเจนว่า ต้นทุนของ AI กำลังลดลง และให้โอกาสนักพัฒนาแอปพลิเคชันมากขึ้น
การทำธุรกิจโดยใช้โมเดลพื้นฐานและขาย API เป็นเรื่องยาก บริษัทจำนวนมากยังพยายามหาวิธีคืนทุน จากการลงทุนมหาศาลในการฝึกโมเดล AI
อย่างไรก็ตาม ธุรกิจที่สร้างแอปพลิเคชันบนโมเดลเหล่านี้กลับมีโอกาสมากมาย ตอนนี้เราสามารถเข้าถึงโมเดลเหล่านี้ได้ในราคาไม่กี่ดอลลาร์ เพื่อนำไปพัฒนา แช็ตบอตสำหรับบริการลูกค้า, เครื่องมือสรุปอีเมล, AI สำหรับการแพทย์, ผู้ช่วยด้านกฎหมาย และอื่น ๆ
3. การขยายขนาด (Scaling Up) ไม่ใช่ทางเดียวในการพัฒนา AI
ที่ผ่านมา มีความเชื่อว่า “การขยายขนาด” (พลังการประมวลผล) เป็นวิธีหลักในการพัฒนา AI ซึ่งเป็นสิ่งที่ผมเองเคยสนับสนุนในช่วงแรก บริษัทหลายแห่งสามารถระดมทุนได้หลายพันล้านดอลลาร์โดยอ้างว่า การใช้ทุนมหาศาลเพื่อขยายขนาดโมเดล จะทำให้ AI ดีขึ้น เก่งขึ้น
นี่ทำให้โฟกัสของอุตสาหกรรมอยู่ที่การขยายขนาด แทนที่จะมองหาวิธีพัฒนา AI ในแนวทางอื่น ๆ
แต่ DeepSeek แสดงให้เห็นว่ามีแนวทางอื่นที่มีประสิทธิภาพ โดยทีมของ DeepSeek ถูกบีบให้ต้องใช้ GPU H800 แทน H100 เนื่องจากการแบนชิป AI ของสหรัฐฯ
ซึ่งทำให้พวกเขาต้องคิดค้นนวัตกรรมในการปรับปรุงประสิทธิภาพหลาย ๆ อย่าง ส่งผลให้สามารถฝึกโมเดลได้ด้วยต้นทุนเพียง 6 ล้านดอลลาร์สหรัฐ (ไม่นับต้นทุนการวิจัย) ซึ่งต่ำกว่ามาตรฐานอุตสาหกรรมอย่างมาก
ทั้งนี้ ยังไม่แน่ชัดว่า ความก้าวหน้านี้จะลดความต้องการพลังประมวลผลหรือไม่
ในบางกรณี การทำให้สินค้าถูกลงอาจกระตุ้นให้มีการใช้งานมากขึ้น จนอาจทำให้ยอดขาย (ชิป) โดยรวมเพิ่มขึ้น
ในบางกรณี การทำให้สินค้าถูกลงอาจกระตุ้นให้มีการใช้งานมากขึ้น จนอาจทำให้ยอดขาย (ชิป) โดยรวมเพิ่มขึ้น
ผมยังเชื่อว่า ความต้องการด้าน AI และพลังประมวลผลไม่มีขีดจำกัดในระยะยาว ดังนั้นจึงมั่นใจว่าแม้ AI จะถูกลง มนุษย์ก็จะยังคงใช้ AI มากขึ้นเรื่อย ๆ
มีหลายมุมมองเกี่ยวกับ DeepSeek ที่ถูกพูดถึงใน X (Twitter) คล้ายกับ แบบทดสอบรอร์ชัค (Rorschach Test) ที่แต่ละคนสามารถตีความได้แตกต่างกัน
ผมเชื่อว่า DeepSeek-R1 มีผลกระทบทางภูมิรัฐศาสตร์ ที่ยังต้องพิจารณากันต่อไป และเป็นโอกาสที่ดีสำหรับนักพัฒนาแอปพลิเคชัน AI
ทีมของผมเอง ก็เริ่มระดมความคิดเกี่ยวกับไอเดียใหม่ ๆ ที่เป็นไปได้ เพราะการเข้าถึงโมเดล AI ขั้นสูง ที่เปิดกว้างนี้
นี่เป็นช่วงเวลาที่ดีมาก สำหรับการสร้างนวัตกรรมใหม่ ๆ ใน AI !”