AI อะไรเนี่ย

Industry

NVIDIA และผู้นำโทรคมนาคมร่วมกันสร้าง AI Grids เพื่อการประมวลผล AI แบบกระจายศูนย์

NVIDIA และผู้นำโทรคมนาคมร่วมกันสร้าง AI Grids เพื่อการประมวลผล AI แบบกระจายศูนย์

ช่วงนี้มีข่าวใหญ่ในวงการ AI กับโทรคมนาคมที่น่าจับตามากเลยครับ! NVIDIA เขาจับมือกับบริษัทโทรคมนาคมยักษ์ใหญ่หลายราย เช่น AT&T, T-Mobile, Comcast, Spectrum และอีกมากมาย เพื่อสร้างสิ่งที่เรียกว่า AI grids ซึ่งเป็นการนำโครงสร้างพื้นฐานเครือข่ายโทรคมนาคมที่มีอยู่แล้วมาปรับใช้ให้เป็นแพลตฟอร์มสำหรับการประมวลผล AI แบบกระจายศูนย์ (distributed AI inference) ได้อย่างมีประสิทธิภาพสูงสุดบนเครือข่ายที่กระจายตัวอยู่ทั่วโลก

เกิดอะไรขึ้นบ้าง?

ลองนึกภาพว่าเครือข่ายโทรคมนาคมที่เราใช้กันอยู่ทุกวันนี้ ไม่ได้เป็นแค่ท่อส่งข้อมูลอีกต่อไป แต่จะกลายเป็นศูนย์กลางการประมวลผล AI ที่ชาญฉลาด! สิ่งนี้คือแก่นของแนวคิด AI grids หรือ "โครงข่าย AI" ที่ NVIDIA กำลังผลักดันอยู่ ทำความรู้จักกับ AI Grid ให้มากขึ้นได้ที่นี่

  • โครงข่ายมหึมา: บริษัทโทรคมนาคมทั่วโลกมีศูนย์ข้อมูลเครือข่ายแบบกระจายศูนย์อยู่ประมาณ 100,000 แห่งทั่วโลก ซึ่งมีศักยภาพในการรองรับการประมวลผล AI ได้มากกว่า 100 กิกะวัตต์เลยทีเดียว นี่คือการเปลี่ยนพื้นที่ อาคาร และการเชื่อมต่อที่มีอยู่แล้ว ให้กลายเป็นแพลตฟอร์มการประมวลผลที่กระจายตัวทางภูมิศาสตร์ เพื่อรันการอนุมาน AI (AI inference) ให้ใกล้กับผู้ใช้งาน, อุปกรณ์ และแหล่งข้อมูลมากที่สุด
  • AT&T กับ IoT: AT&T ผู้นำด้าน IoT กำลังจับมือกับ Cisco และ NVIDIA เพื่อสร้าง AI grid สำหรับงาน IoT โดยเฉพาะ เพื่อสนับสนุนแอปพลิเคชันที่สำคัญแบบเรียลไทม์ เช่น การใช้งานด้านความปลอดภัยสาธารณะร่วมกับ Linker Vision ทำให้ตรวจจับเหตุการณ์, แจ้งเตือน และตอบสนองได้เร็วขึ้นมาก
  • Comcast สร้างประสบการณ์ส่วนบุคคล: Comcast ได้ร่วมกับ NVIDIA, Decart, Personal AI และ HPE เพื่อพัฒนา AI grid ที่รองรับประสบการณ์แบบ hyper-personalized เช่น ตัวแทนสนทนา (conversational agents), สื่อเชิงโต้ตอบ และบริการเกมบนคลาวด์อย่าง NVIDIA GeForce NOW ที่สามารถตอบสนองได้อย่างรวดเร็วและประหยัดต้นทุน แม้ในช่วงที่มีความต้องการสูง อ่านเพิ่มเติมเกี่ยวกับความร่วมมือของ Comcast และ NVIDIA ได้ที่นี่
  • Spectrum ขยายขีดความสามารถ: Spectrum กำลังนำโครงสร้างพื้นฐาน AI grid ของตนไปใช้ในศูนย์ข้อมูลเอดจ์กว่า 1,000 แห่ง ด้วยกำลังการประมวลผลหลายร้อยเมกะวัตต์ สามารถเข้าถึงอุปกรณ์ 500 ล้านเครื่องได้ภายใน 10 มิลลิวินาที โดยเริ่มแรกจะเน้นไปที่การเรนเดอร์กราฟิกความละเอียดสูงโดยใช้ GPU แบบรีโมต
  • Akamai กับ Edge AI ระดับโลก: Akamai กำลังขยาย Akamai Inference Cloud ของตนไปทั่วโลก ครอบคลุมกว่า 4,400 จุดเอดจ์ โดยจะติดตั้ง GPU รุ่น NVIDIA RTX PRO 6000 Blackwell Server Edition จำนวนหลายพันเครื่อง เพื่อมอบประสบการณ์ AI แบบเรียลไทม์ที่มีความหน่วงต่ำ ดูรายละเอียดเพิ่มเติมเกี่ยวกับการเปิดตัว AI Grid ของ Akamai
  • Indosat Ooredoo Hutchison ในอินโดนีเซีย: Indosat Ooredoo Hutchison กำลังสร้าง AI grid ทั่วประเทศอินโดนีเซีย โดยเชื่อมโยงโรงงาน AI หลักเข้ากับเอดจ์แบบกระจายศูนย์และไซต์ AI-RAN เพื่อให้บริการ AI แบบ localized เช่น Sahabat-AI ที่ใช้ภาษาอินโดนีเซีย
  • T-Mobile สำรวจ Edge AI: T-Mobile ก็กำลังทำงานร่วมกับ NVIDIA เพื่อสำรวจแอปพลิเคชัน Edge AI โดยใช้ GPU รุ่น NVIDIA RTX PRO 6000 Blackwell Server Edition เช่นกัน เพื่อแสดงให้เห็นว่าตำแหน่งเครือข่ายแบบกระจายศูนย์สามารถรองรับกรณีการใช้งาน AI-RAN และ Edge Inference ที่เกิดขึ้นใหม่ได้อย่างไร

แอปพลิเคชัน AI หลายตัวก็กำลังถูกนำมาใช้บน AI grids นี้แล้ว เช่น Personal AI สำหรับตัวแทนสนทนา, Linker Vision สำหรับ AI การมองเห็นในเมืองอัจฉริยะ, และ Decart สำหรับการสร้างวิดีโอแบบเรียลไทม์

ทำไมคนในวงการ AI หรือคนใช้ AI ถึงควรสนใจเรื่องนี้?

เรื่องนี้สำคัญมากครับ เพราะมันไม่ใช่แค่การอัปเกรดโครงสร้างพื้นฐานธรรมดา แต่มันคือการเปลี่ยนแปลงโครงสร้างวิธีการส่งมอบ AI อย่างแท้จริง!

  1. AI อยู่ใกล้คุณมากขึ้น: การรัน AI inference ใกล้กับผู้ใช้งาน, อุปกรณ์ และข้อมูลมากขึ้น จะช่วยลดความหน่วง (latency) และลดต้นทุนต่อโทเค็น (cost per token) ทำให้แอปพลิเคชัน AI สามารถตอบสนองได้อย่างเป็นธรรมชาติและรวดเร็วขึ้นมาก เช่น AI สำหรับการสนทนาจะรู้สึกเหมือนคุยกับคนจริงๆ เพราะตอบกลับเร็วทันใจ
  2. ประสิทธิภาพและต้นทุนดีขึ้น: การใช้โครงสร้างพื้นฐานเครือข่ายที่มีอยู่แล้ว ทำให้เกิดประสิทธิภาพและลดต้นทุนในการปรับขนาด AI ไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ทั้งหมด แค่ปรับใช้ที่มีอยู่ให้เกิดประโยชน์สูงสุด
  3. ปลดล็อกแอปพลิเคชันใหม่: AI grids จะเป็นรากฐานสำหรับแอปพลิเคชัน AI ยุคใหม่ ที่ต้องการความเป็นเรียลไทม์, การปรับให้เหมาะกับแต่ละบุคคลอย่างมาก, การทำงานพร้อมกันหลายอย่าง และการประมวลผลโทเค็นจำนวนมาก ตัวอย่างเช่น การตรวจจับอุบัติเหตุจราจรที่เร็วขึ้น 10 เท่า หรือการตอบสนองต่อภัยพิบัติที่เร็วขึ้น 15 เท่า สำหรับเมืองอัจฉริยะ
  4. โทรคมนาคมกลายเป็นศูนย์กลาง: จากเดิมที่เครือข่ายโทรคมนาคมแค่ส่งผ่านข้อมูล ตอนนี้กำลังก้าวมาเป็นแกนหลักในการขับเคลื่อนและสร้างรายได้จากบริการ AI ใหม่ๆ

ต่อไปจะเป็นยังไง?

แนวโน้มนี้แสดงให้เห็นว่า AI กำลังจะฝังรากลึกเข้าไปในทุกส่วนของโครงสร้างพื้นฐานดิจิทัลของเรา โดยเฉพาะในเครือข่ายโทรคมนาคม ไม่ว่าจะเป็นการเพิ่มความสามารถด้าน AI ให้กับ 5G ด้วย AI-RAN หรือการสร้างแพลตฟอร์มสำหรับนักพัฒนาสตาร์ทอัพในท้องถิ่นเพื่อสร้างสรรค์แอปพลิเคชัน AI ที่รวดเร็ว และสอดคล้องกับวัฒนธรรมท้องถิ่น การพัฒนา AI grids เหล่านี้จะทำให้ AI เข้าถึงผู้คนและอุปกรณ์ต่างๆ ได้อย่างกว้างขวางและมีประสิทธิภาพยิ่งขึ้นในอนาคตอันใกล้

อ่านต่อ: NVIDIA, Telecom Leaders Build AI Grids to Optimize Inference on Distributed Networks