NVIDIA เปิดตัว NIM Microservices สำหรับ Generative AI ในญี่ปุ่น ไต้หวัน ด้วยไมโครเซอร์วิสใหม่ 4 รายการที่ช่วยเร่งการปรับใช้แอปพลิเคชัน AI ขั้นสูงที่ให้มีประสิทธิภาพด้านวัฒนธรรมและภาษาขั้นสูง
NVIDIA เปิดตัว NIM Microservices สำหรับ Generative AI ในญี่ปุ่น ไต้หวัน ด้วยไมโครเซอร์วิสใหม่ 4 รายการที่ช่วยเร่งการปรับใช้แอปพลิเคชัน AI ขั้นสูงที่ให้มีประสิทธิภาพด้านวัฒนธรรมและภาษาขั้นสูง
โดย Kari Briski รองประธานฝ่ายซอฟต์แวร์ AI จากทาง Nvidia ประเทศต่างๆ ทั่วโลกกำลังติดตามอธิปไตย AI เพื่อผลิตปัญญาประดิษฐ์โดยใช้โครงสร้างพื้นฐานการประมวลผล ข้อมูล พนักงาน และเครือข่ายธุรกิจของตนเอง เพื่อให้แน่ใจว่าระบบ AI สอดคล้องกับค่านิยม กฎหมาย และผลประโยชน์ในท้องถิ่น เพื่อสนับสนุนความพยายามเหล่านี้ NVIDIA ได้ประกาศในวันนี้ถึงความพร้อมใช้งานของไมโครเซอร์วิส NVIDIA NIM ใหม่ 4 รายการ ซึ่งช่วยให้นักพัฒนาสามารถสร้างและปรับใช้แอปพลิเคชัน AI เจนเนอเรชั่นที่มีประสิทธิภาพสูงได้ง่ายขึ้น ไมโครเซอร์วิสสนับสนุนโมเดลชุมชนยอดนิยมที่ได้รับการปรับแต่งให้ตรงกับความต้องการของภูมิภาค โดยปรับปรุงการโต้ตอบของผู้ใช้ผ่านความเข้าใจที่ถูกต้องและการตอบสนองที่ได้รับการปรับปรุงตามภาษาท้องถิ่นและมรดกทางวัฒนธรรม ในภูมิภาคเอเชียแปซิฟิกเพียงแห่งเดียว คาดว่ารายได้จากซอฟต์แวร์ AI ทั่วไปจะสูงถึง 48 พันล้านดอลลาร์ภายในปี 2573 เพิ่มขึ้นจาก 5 พันล้านดอลลาร์ในปีนี้ ตามการวิจัยของ ABI Llama-3-Swallow-70B ที่ได้รับการฝึกอบรมเกี่ยวกับข้อมูลของญี่ปุ่น และ Llama-3-Taiwan-70B ที่ได้รับการฝึกอบรมเกี่ยวกับข้อมูลภาษาจีนกลาง ถือเป็นโมเดลภาษาระดับภูมิภาคที่ให้ความเข้าใจที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับกฎหมาย กฎระเบียบ และประเพณีอื่นๆ ในท้องถิ่น โมเดลตระกูล RakutenAI 7B ที่สร้างจาก Mistral-7B ได้รับการฝึกฝนเป็นภาษาอังกฤษและชุดข้อมูลภาษาญี่ปุ่นและพร้อมใช้งานเป็นไมโครเซอร์วิส NIM สองรายการสำหรับ Chat และ Instruct โมเดลเหล่านี้ได้รับคะแนนสูงสุดในบรรดาโมเดลภาษาญี่ปุ่นแบบเปิด โดยได้คะแนนเฉลี่ยสูงสุดในเกณฑ์มาตรฐาน LM Evaling Harness ที่ดำเนินการตั้งแต่เดือนมกราคมถึงมีนาคม 2024 การฝึกอบรมโมเดลภาษาขนาดใหญ่ (LLM) ในภาษาระดับภูมิภาคจะเพิ่มประสิทธิภาพของผลลัพธ์โดยรับประกันการสื่อสารที่แม่นยำและเหมาะสมยิ่งขึ้น เนื่องจากเข้าใจและสะท้อนถึงความละเอียดอ่อนทางวัฒนธรรมและภาษาได้ดียิ่งขึ้น แบบจำลองนี้นำเสนอประสิทธิภาพชั้นนำสำหรับการทำความเข้าใจภาษาญี่ปุ่นและภาษาจีนกลาง งานกฎหมายระดับภูมิภาค การตอบคำถาม และการแปลภาษาและการสรุปผล เมื่อเปรียบเทียบกับ LLM พื้นฐาน เช่น Llama 3 ชาติต่างๆ ทั่วโลก ตั้งแต่สิงคโปร์ สหรัฐอาหรับเอมิเรตส์ เกาหลีใต้ และสวีเดนไปจนถึงฝรั่งเศส อิตาลี และอินเดีย — กำลังลงทุนในโครงสร้างพื้นฐานด้าน AI ให้คลอบคลุม ไมโครเซอร์วิส NIM ใหม่ช่วยให้ธุรกิจ หน่วยงานภาครัฐ และมหาวิทยาลัยสามารถโฮสต์ LLM ดั้งเดิมในสภาพแวดล้อมของตนเอง ช่วยให้นักพัฒนาสามารถสร้าง copilots แชทบอท และผู้ช่วย AI ขั้นสูงได้ การพัฒนาแอปพลิเคชันด้วยไมโครเซอร์วิส Sovereign AI NIM นักพัฒนาสามารถปรับใช้โมเดล AI ระดับสูงซึ่งบรรจุเป็นไมโครเซอร์วิส NIM ในการผลิตได้อย่างง่ายดาย พร้อมทั้งได้รับประสิทธิภาพที่ดีขึ้น ไมโครเซอร์วิสที่พร้อมใช้งานกับ NVIDIA AI Enterprise ได้รับการปรับให้เหมาะสมสำหรับการอนุมานด้วยไลบรารีโอเพ่นซอร์ส NVIDIA TensorRT-LLM ไมโครเซอร์วิส NIM สำหรับ Llama 3 70B ซึ่งใช้เป็นโมเดลพื้นฐานสำหรับไมโครเซอร์วิส NIM Llama–3-Swallow-70B และ Llama-3-Taiwan-70B แบบใหม่ สามารถให้ปริมาณงานที่สูงขึ้นถึง 5 เท่า ซึ่งช่วยลดต้นทุนโดยรวมในการทำงาน แบบจำลองในการผลิตและมอบประสบการณ์ผู้ใช้ที่ดีขึ้นโดยการลดเวลาแฝง ไมโครเซอร์วิส NIM ใหม่พร้อมใช้งานแล้ววันนี้ในรูปแบบโฮสต์ Application Programming Interfaces (API) การใช้งาน NVIDIA NIM เพื่อผลลัพธ์ด้าน AI ที่สร้างได้รวดเร็วและแม่นยำมากยิ่งขึ้น ไมโครเซอร์วิสของ NIM จะช่วยเร่งการปรับใช้ เพิ่มประสิทธิภาพโดยรวม และมอบความปลอดภัยที่จำเป็นสำหรับองค์กรในอุตสาหกรรมทั่วโลก รวมถึงการดูแลสุขภาพ การเงิน การผลิต การศึกษา และกฎหมาย สถาบันเทคโนโลยีแห่งโตเกียวได้ปรับแต่ง Llama-3-Swallow 70B โดยใช้ข้อมูลภาษาญี่ปุ่น “LLM ไม่ใช่เครื่องมือกลที่ให้ผลประโยชน์แบบเดียวกันสำหรับทุกคน แต่เป็นเครื่องมือทางปัญญาที่โต้ตอบกับวัฒนธรรมและความคิดสร้างสรรค์ของมนุษย์ ซึ่งไม่เพียงแต่จะเป็นแบบจำลองที่ได้รับผลกระทบจากข้อมูลที่เราฝึกฝนเท่านั้น แต่ยังรวมถึงวัฒนธรรมและความคิดสร้างสรรค์ของเราด้วย ข้อมูลที่เราสร้างขึ้นจะได้รับอิทธิพลจาก LLM” ริโอ โยโกตะ ศาสตราจารย์จาก Global Scientific Information and Computing Center ประจำมหาวิทยาลัยกล่าว สถาบันเทคโนโลยีแห่งโตเกียว “ดังนั้นจึงมีความสำคัญอย่างยิ่งในการพัฒนาโมเดล Sovereign AI ที่เป็นไปตามบรรทัดฐานทางวัฒนธรรมของเรา ความพร้อมใช้งานของ Llama-3-Swallow ในฐานะไมโครเซอร์วิสของ NVIDIA NIM จะช่วยให้นักพัฒนาสามารถเข้าถึงและปรับใช้โมเดลสำหรับชาวญี่ปุ่นได้อย่างง่ายดาย การใช้งานในอุตสาหกรรมต่างๆ” ตัวอย่างเช่น บริษัท AI ของญี่ปุ่นอย่าง Preferred Networks ใช้แบบจำลองนี้เพื่อพัฒนาแบบจำลองเฉพาะด้านการดูแลสุขภาพที่ได้รับการฝึกอบรมจากคลังข้อมูลทางการแพทย์ของญี่ปุ่นที่เรียกว่า Llama3-Preferred-MedSwallow-70B ซึ่งได้คะแนนสูงสุดในการสอบระดับชาติสำหรับแพทย์ของญี่ปุ่น โรงพยาบาล Chang Gung Memorial (CGMH) แห่งหนึ่งในโรงพยาบาลชั้นนำในไต้หวัน กำลังสร้างบริการการอนุมาน AI (AIIS) แบบกำหนดเอง เพื่อรวมศูนย์แอปพลิเคชัน LLM ทั้งหมดภายในระบบโรงพยาบาล การใช้ Llama 3-Taiwan 70B ช่วยปรับปรุงประสิทธิภาพ ของบุคลากรทางการแพทย์ระดับแนวหน้าด้วยภาษาทางการแพทย์ที่ละเอียดยิ่งขึ้นซึ่งผู้ป่วยสามารถเข้าใจได้ “ด้วยการให้คำแนะนำที่เหมาะสมตามบริบททันที แอปพลิเคชัน AI ที่สร้างขึ้นด้วย LLM ในภาษาท้องถิ่น จะช่วยปรับปรุงขั้นตอนการทำงานและทำหน้าที่เป็นเครื่องมือการเรียนรู้อย่างต่อเนื่องเพื่อสนับสนุนการพัฒนาเจ้าหน้าที่และปรับปรุงคุณภาพการดูแลผู้ป่วย” ดร. ฉางฟู่ กัว ผู้อำนวยการศูนย์ กล่าว สำหรับปัญญาประดิษฐ์ในการแพทย์ที่ CGMH สาขา Linko “NVIDIA NIM กำลังทำให้การพัฒนาแอปพลิเคชันเหล่านี้ง่ายขึ้น ช่วยให้เข้าถึงและปรับใช้แบบจำลองที่ได้รับการฝึกอบรมในภาษาภูมิภาคโดยมีความเชี่ยวชาญด้านวิศวกรรมเพียงเล็กน้อย” Pegatron ผู้ผลิตอุปกรณ์อิเล็กทรอนิกส์ในไต้หวันจะนำไมโครเซอร์วิส Llama 3-Taiwan 70B NIM มาใช้สำหรับการใช้งานภายในและภายนอก โดยได้รวมเข้ากับระบบ PEGAAi Agentic AI เพื่อทำให้กระบวนการเป็นอัตโนมัติ ซึ่งช่วยเพิ่มประสิทธิภาพในการผลิตและการดำเนินงาน . Llama-3-Taiwan 70B NIM ยังถูกใช้โดยผู้ผลิตปิโตรเคมีระดับโลกอีกด้วย Chang Chun Group บริษัทแผงวงจรพิมพ์ชั้นนำของโลก Unimicron บริษัทสื่อที่เน้นด้านเทคโนโลยี TechOrange บริษัทผู้ให้บริการตามสัญญาออนไลน์ LegalSign.ai และสตาร์ทอัพด้าน AI อย่าง APMIC บริษัทเหล่านี้กำลังร่วมมือกันในรูปแบบเปิดเช่นกัน การสร้างโมเดลองค์กรแบบกำหนดเองด้วย NVIDIA AI Foundry แม้ว่าโมเดล AI ระดับภูมิภาคสามารถให้การตอบสนองตามวัฒนธรรมที่เหมาะสมและเฉพาะเจาะจงได้ แต่องค์กรต่างๆ ยังคงจำเป็นต้องปรับแต่งโมเดลเหล่านี้ให้เหมาะกับกระบวนการทางธุรกิจและความเชี่ยวชาญในโดเมนของตน NVIDIA AI Foundry เป็นแพลตฟอร์มและบริการที่ประกอบด้วยโมเดลพื้นฐานยอดนิยม, NVIDIA NeMo สำหรับการปรับแต่งอย่างละเอียด และความสามารถเฉพาะบน NVIDIA DGX Cloud เพื่อให้นักพัฒนามีโซลูชันแบบฟูลสแตกสำหรับการสร้างแบบจำลองพื้นฐานแบบกำหนดเองที่บรรจุเป็นไมโครเซอร์วิส NIM นอกจากนี้ นักพัฒนาที่ใช้ NVIDIA AI Foundry ยังสามารถเข้าถึงแพลตฟอร์มซอฟต์แวร์ NVIDIA AI Enterprise ซึ่งมอบความปลอดภัย ความเสถียร และการสนับสนุนสำหรับการใช้งานจริง NVIDIA AI Foundry มอบเครื่องมือที่จำเป็นแก่นักพัฒนาเพื่อสร้างและปรับใช้ไมโครเซอร์วิส NIM ภาษาระดับภูมิภาคที่กำหนดเองของตนเองได้รวดเร็วและง่ายดายยิ่งขึ้น เพื่อขับเคลื่อนแอปพลิเคชัน AI รับประกันผลลัพธ์ที่เหมาะสมทางวัฒนธรรมและภาษาสำหรับผู้ใช้