Article by Nongkoo OverclockTeam On August 27, 2024 164 views
NVIDIA เปิดตัว NIM Microservices สำหรับ Generative AI ในญี่ปุ่น ไต้หวัน ด้วยไมโครเซอร์วิสใหม่ 4 รายการที่ช่วยเร่งการปรับใช้แอปพลิเคชัน AI ขั้นสูงที่ให้มีประสิทธิภาพด้านวัฒนธรรมและภาษาขั้นสูง
NVIDIA เปิดตัว NIM Microservices สำหรับ Generative AI ในญี่ปุ่น ไต้หวัน ด้วยไมโครเซอร์วิสใหม่ 4 รายการที่ช่วยเร่งการปรับใช้แอปพลิเคชัน AI ขั้นสูงที่ให้มีประสิทธิภาพด้านวัฒนธรรมและภาษาขั้นสูง

nvidia-nim-microservices-generative-ai

โดย Kari Briski รองประธานฝ่ายซอฟต์แวร์ AI จากทาง Nvidia ประเทศต่างๆ ทั่วโลกกำลังติดตามอธิปไตย AI เพื่อผลิตปัญญาประดิษฐ์โดยใช้โครงสร้างพื้นฐานการประมวลผล ข้อมูล พนักงาน และเครือข่ายธุรกิจของตนเอง เพื่อให้แน่ใจว่าระบบ AI สอดคล้องกับค่านิยม กฎหมาย และผลประโยชน์ในท้องถิ่น เพื่อสนับสนุนความพยายามเหล่านี้ NVIDIA ได้ประกาศในวันนี้ถึงความพร้อมใช้งานของไมโครเซอร์วิส NVIDIA NIM ใหม่ 4 รายการ ซึ่งช่วยให้นักพัฒนาสามารถสร้างและปรับใช้แอปพลิเคชัน AI เจนเนอเรชั่นที่มีประสิทธิภาพสูงได้ง่ายขึ้น ไมโครเซอร์วิสสนับสนุนโมเดลชุมชนยอดนิยมที่ได้รับการปรับแต่งให้ตรงกับความต้องการของภูมิภาค โดยปรับปรุงการโต้ตอบของผู้ใช้ผ่านความเข้าใจที่ถูกต้องและการตอบสนองที่ได้รับการปรับปรุงตามภาษาท้องถิ่นและมรดกทางวัฒนธรรม ในภูมิภาคเอเชียแปซิฟิกเพียงแห่งเดียว คาดว่ารายได้จากซอฟต์แวร์ AI ทั่วไปจะสูงถึง 48 พันล้านดอลลาร์ภายในปี 2573 เพิ่มขึ้นจาก 5 พันล้านดอลลาร์ในปีนี้ ตามการวิจัยของ ABI Llama-3-Swallow-70B ที่ได้รับการฝึกอบรมเกี่ยวกับข้อมูลของญี่ปุ่น และ Llama-3-Taiwan-70B ที่ได้รับการฝึกอบรมเกี่ยวกับข้อมูลภาษาจีนกลาง ถือเป็นโมเดลภาษาระดับภูมิภาคที่ให้ความเข้าใจที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับกฎหมาย กฎระเบียบ และประเพณีอื่นๆ ในท้องถิ่น sovereign-ai-model-nim-launch-image-1280x680 โมเดลตระกูล RakutenAI 7B ที่สร้างจาก Mistral-7B ได้รับการฝึกฝนเป็นภาษาอังกฤษและชุดข้อมูลภาษาญี่ปุ่นและพร้อมใช้งานเป็นไมโครเซอร์วิส NIM สองรายการสำหรับ Chat และ Instruct โมเดลเหล่านี้ได้รับคะแนนสูงสุดในบรรดาโมเดลภาษาญี่ปุ่นแบบเปิด โดยได้คะแนนเฉลี่ยสูงสุดในเกณฑ์มาตรฐาน LM Evaling Harness ที่ดำเนินการตั้งแต่เดือนมกราคมถึงมีนาคม 2024 การฝึกอบรมโมเดลภาษาขนาดใหญ่ (LLM) ในภาษาระดับภูมิภาคจะเพิ่มประสิทธิภาพของผลลัพธ์โดยรับประกันการสื่อสารที่แม่นยำและเหมาะสมยิ่งขึ้น เนื่องจากเข้าใจและสะท้อนถึงความละเอียดอ่อนทางวัฒนธรรมและภาษาได้ดียิ่งขึ้น แบบจำลองนี้นำเสนอประสิทธิภาพชั้นนำสำหรับการทำความเข้าใจภาษาญี่ปุ่นและภาษาจีนกลาง งานกฎหมายระดับภูมิภาค การตอบคำถาม และการแปลภาษาและการสรุปผล เมื่อเปรียบเทียบกับ LLM พื้นฐาน เช่น Llama 3 ชาติต่างๆ ทั่วโลก ตั้งแต่สิงคโปร์ สหรัฐอาหรับเอมิเรตส์ เกาหลีใต้ และสวีเดนไปจนถึงฝรั่งเศส อิตาลี และอินเดีย — กำลังลงทุนในโครงสร้างพื้นฐานด้าน AI ให้คลอบคลุม ไมโครเซอร์วิส NIM ใหม่ช่วยให้ธุรกิจ หน่วยงานภาครัฐ และมหาวิทยาลัยสามารถโฮสต์ LLM ดั้งเดิมในสภาพแวดล้อมของตนเอง ช่วยให้นักพัฒนาสามารถสร้าง copilots แชทบอท และผู้ช่วย AI ขั้นสูงได้

2024-08-27_11-09-13

การพัฒนาแอปพลิเคชันด้วยไมโครเซอร์วิส Sovereign AI NIM นักพัฒนาสามารถปรับใช้โมเดล AI ระดับสูงซึ่งบรรจุเป็นไมโครเซอร์วิส NIM ในการผลิตได้อย่างง่ายดาย พร้อมทั้งได้รับประสิทธิภาพที่ดีขึ้น ไมโครเซอร์วิสที่พร้อมใช้งานกับ NVIDIA AI Enterprise ได้รับการปรับให้เหมาะสมสำหรับการอนุมานด้วยไลบรารีโอเพ่นซอร์ส NVIDIA TensorRT-LLM ไมโครเซอร์วิส NIM สำหรับ Llama 3 70B ซึ่งใช้เป็นโมเดลพื้นฐานสำหรับไมโครเซอร์วิส NIM Llama–3-Swallow-70B และ Llama-3-Taiwan-70B แบบใหม่ สามารถให้ปริมาณงานที่สูงขึ้นถึง 5 เท่า ซึ่งช่วยลดต้นทุนโดยรวมในการทำงาน แบบจำลองในการผลิตและมอบประสบการณ์ผู้ใช้ที่ดีขึ้นโดยการลดเวลาแฝง ไมโครเซอร์วิส NIM ใหม่พร้อมใช้งานแล้ววันนี้ในรูปแบบโฮสต์ Application Programming Interfaces (API) การใช้งาน NVIDIA NIM เพื่อผลลัพธ์ด้าน AI ที่สร้างได้รวดเร็วและแม่นยำมากยิ่งขึ้น ไมโครเซอร์วิสของ NIM จะช่วยเร่งการปรับใช้ เพิ่มประสิทธิภาพโดยรวม และมอบความปลอดภัยที่จำเป็นสำหรับองค์กรในอุตสาหกรรมทั่วโลก รวมถึงการดูแลสุขภาพ การเงิน การผลิต การศึกษา และกฎหมาย

2024-08-27_11-09-42

สถาบันเทคโนโลยีแห่งโตเกียวได้ปรับแต่ง Llama-3-Swallow 70B โดยใช้ข้อมูลภาษาญี่ปุ่น “LLM ไม่ใช่เครื่องมือกลที่ให้ผลประโยชน์แบบเดียวกันสำหรับทุกคน แต่เป็นเครื่องมือทางปัญญาที่โต้ตอบกับวัฒนธรรมและความคิดสร้างสรรค์ของมนุษย์ ซึ่งไม่เพียงแต่จะเป็นแบบจำลองที่ได้รับผลกระทบจากข้อมูลที่เราฝึกฝนเท่านั้น แต่ยังรวมถึงวัฒนธรรมและความคิดสร้างสรรค์ของเราด้วย ข้อมูลที่เราสร้างขึ้นจะได้รับอิทธิพลจาก LLM” ริโอ โยโกตะ ศาสตราจารย์จาก Global Scientific Information and Computing Center ประจำมหาวิทยาลัยกล่าว สถาบันเทคโนโลยีแห่งโตเกียว “ดังนั้นจึงมีความสำคัญอย่างยิ่งในการพัฒนาโมเดล Sovereign AI ที่เป็นไปตามบรรทัดฐานทางวัฒนธรรมของเรา ความพร้อมใช้งานของ Llama-3-Swallow ในฐานะไมโครเซอร์วิสของ NVIDIA NIM จะช่วยให้นักพัฒนาสามารถเข้าถึงและปรับใช้โมเดลสำหรับชาวญี่ปุ่นได้อย่างง่ายดาย การใช้งานในอุตสาหกรรมต่างๆ” ตัวอย่างเช่น บริษัท AI ของญี่ปุ่นอย่าง Preferred Networks ใช้แบบจำลองนี้เพื่อพัฒนาแบบจำลองเฉพาะด้านการดูแลสุขภาพที่ได้รับการฝึกอบรมจากคลังข้อมูลทางการแพทย์ของญี่ปุ่นที่เรียกว่า Llama3-Preferred-MedSwallow-70B ซึ่งได้คะแนนสูงสุดในการสอบระดับชาติสำหรับแพทย์ของญี่ปุ่น โรงพยาบาล Chang Gung Memorial (CGMH) แห่งหนึ่งในโรงพยาบาลชั้นนำในไต้หวัน กำลังสร้างบริการการอนุมาน AI (AIIS) แบบกำหนดเอง เพื่อรวมศูนย์แอปพลิเคชัน LLM ทั้งหมดภายในระบบโรงพยาบาล การใช้ Llama 3-Taiwan 70B ช่วยปรับปรุงประสิทธิภาพ ของบุคลากรทางการแพทย์ระดับแนวหน้าด้วยภาษาทางการแพทย์ที่ละเอียดยิ่งขึ้นซึ่งผู้ป่วยสามารถเข้าใจได้ “ด้วยการให้คำแนะนำที่เหมาะสมตามบริบททันที แอปพลิเคชัน AI ที่สร้างขึ้นด้วย LLM ในภาษาท้องถิ่น จะช่วยปรับปรุงขั้นตอนการทำงานและทำหน้าที่เป็นเครื่องมือการเรียนรู้อย่างต่อเนื่องเพื่อสนับสนุนการพัฒนาเจ้าหน้าที่และปรับปรุงคุณภาพการดูแลผู้ป่วย” ดร. ฉางฟู่ กัว ผู้อำนวยการศูนย์ กล่าว สำหรับปัญญาประดิษฐ์ในการแพทย์ที่ CGMH สาขา Linko “NVIDIA NIM กำลังทำให้การพัฒนาแอปพลิเคชันเหล่านี้ง่ายขึ้น ช่วยให้เข้าถึงและปรับใช้แบบจำลองที่ได้รับการฝึกอบรมในภาษาภูมิภาคโดยมีความเชี่ยวชาญด้านวิศวกรรมเพียงเล็กน้อย” Pegatron ผู้ผลิตอุปกรณ์อิเล็กทรอนิกส์ในไต้หวันจะนำไมโครเซอร์วิส Llama 3-Taiwan 70B NIM มาใช้สำหรับการใช้งานภายในและภายนอก โดยได้รวมเข้ากับระบบ PEGAAi Agentic AI เพื่อทำให้กระบวนการเป็นอัตโนมัติ ซึ่งช่วยเพิ่มประสิทธิภาพในการผลิตและการดำเนินงาน .

2024-08-27_11-12-25

Llama-3-Taiwan 70B NIM ยังถูกใช้โดยผู้ผลิตปิโตรเคมีระดับโลกอีกด้วย Chang Chun Group บริษัทแผงวงจรพิมพ์ชั้นนำของโลก Unimicron บริษัทสื่อที่เน้นด้านเทคโนโลยี TechOrange บริษัทผู้ให้บริการตามสัญญาออนไลน์ LegalSign.ai และสตาร์ทอัพด้าน AI อย่าง APMIC บริษัทเหล่านี้กำลังร่วมมือกันในรูปแบบเปิดเช่นกัน การสร้างโมเดลองค์กรแบบกำหนดเองด้วย NVIDIA AI Foundry แม้ว่าโมเดล AI ระดับภูมิภาคสามารถให้การตอบสนองตามวัฒนธรรมที่เหมาะสมและเฉพาะเจาะจงได้ แต่องค์กรต่างๆ ยังคงจำเป็นต้องปรับแต่งโมเดลเหล่านี้ให้เหมาะกับกระบวนการทางธุรกิจและความเชี่ยวชาญในโดเมนของตน NVIDIA AI Foundry เป็นแพลตฟอร์มและบริการที่ประกอบด้วยโมเดลพื้นฐานยอดนิยม, NVIDIA NeMo สำหรับการปรับแต่งอย่างละเอียด และความสามารถเฉพาะบน NVIDIA DGX Cloud เพื่อให้นักพัฒนามีโซลูชันแบบฟูลสแตกสำหรับการสร้างแบบจำลองพื้นฐานแบบกำหนดเองที่บรรจุเป็นไมโครเซอร์วิส NIM นอกจากนี้ นักพัฒนาที่ใช้ NVIDIA AI Foundry ยังสามารถเข้าถึงแพลตฟอร์มซอฟต์แวร์ NVIDIA AI Enterprise ซึ่งมอบความปลอดภัย ความเสถียร และการสนับสนุนสำหรับการใช้งานจริง NVIDIA AI Foundry มอบเครื่องมือที่จำเป็นแก่นักพัฒนาเพื่อสร้างและปรับใช้ไมโครเซอร์วิส NIM ภาษาระดับภูมิภาคที่กำหนดเองของตนเองได้รวดเร็วและง่ายดายยิ่งขึ้น เพื่อขับเคลื่อนแอปพลิเคชัน AI รับประกันผลลัพธ์ที่เหมาะสมทางวัฒนธรรมและภาษาสำหรับผู้ใช้