Mới đây, hai “ông lớn” công nghệ AMD và Red Hat vừa công bố mở rộng hợp tác chiến lược nhằm nâng cấp cơ sở hạ tầng Trí tuệ nhân tạo (AI) cho doanh nghiệp, đặc biệt là trong bối cảnh xử lý các tác vụ AI ngày càng đòi hỏi cao và các hệ thống CNTT truyền thống không còn đáp ứng đủ.
Tại sự kiện Red Hat Summit, hai bên nhấn mạnh trọng tâm hợp tác là tối ưu môi trường đám mây lai, hiện đại hóa máy ảo (VM) và tích hợp GPU AMD Instinct vào Red Hat OpenShift AI. Trong đó, GPU AMD đóng vai trò quan trọng trong việc xử lý AI trên các nền tảng điện toán đám mây khác nhau.
Ashesh Badani, Phó Chủ tịch Cấp cao kiêm Giám đốc Sản phẩm tại Red Hat chia sẻ: "Muốn khai thác tối đa giá trị từ AI, các tổ chức cần có sự linh hoạt và chủ động trong việc tối ưu hóa hạ tầng CNTT để đáp ứng nhu cầu tăng trưởng”.
Sự hợp tác này không chỉ hướng đến việc hiện đại hóa hạ tầng hiện có bằng kiến trúc CPU hiệu suất cao và các nền tảng ảo hóa, mà còn đưa công nghệ mã nguồn mở AI vào thực tiễn, giúp doanh nghiệp sẵn sàng triển khai AI ở quy mô lớn.
Hiện tại, phần lớn trung tâm dữ liệu vẫn phục vụ hạ tầng truyền thống, gây cản trở cho việc triển khai các ứng dụng AI.
Sự kết hợp giữa mã nguồn mở của Red Hat và năng lực điện toán hiệu năng cao (high-performance computing - HPC) của AMD được kỳ vọng sẽ tạo ra một môi trường triển khai AI linh hoạt và tiết kiệm chi phí.
Một bước tiến cụ thể là thử nghiệm nền tảng Microsoft Azure ND MI300X v5, cho phép nhiều mô hình ngôn ngữ chạy đồng thời trên nhiều GPU trong cùng một máy ảo, giúp giảm chi phí vận hành và tăng hiệu suất suy luận AI.
Ngoài ra, cả hai đang tích cực tham gia cộng đồng vLLM - một framework tối ưu quá trình suy luận của các mô hình ngôn ngữ lớn (LLM), với mục tiêu cải thiện hiệu năng GPU, hỗ trợ môi trường đa GPU và mở rộng kết nối với các đối tác lớn như IBM.
Tất cả những sáng kiến này đều nhằm mục tiêu tối ưu hóa hiệu suất máy chủ GPU và nâng cao tỷ suất đầu tư (ROI) cho các tác vụ AI cường độ cao.
Thông qua việc tối ưu cơ sở hạ tầng trung tâm dữ liệu hiện tại, các doanh nghiệp sẽ có thêm nguồn lực để thúc đẩy đổi mới trong lĩnh vực AI.
Về mặt hạ tầng, Red Hat OpenShift Virtualization được thiết kế để giảm thiểu phức tạp trong quản lý VM, theo hướng “cloud-native” - tận dụng sự linh hoạt của đám mây. Nền tảng này đã chứng minh tính tương thích với CPU AMD EPYC, giúp tối ưu hiệu năng và hiệu suất năng lượng trong môi trường đám mây lai.
Giải pháp hiện đại hóa hạ tầng này còn giúp tăng mật độ triển khai (consolidation ratio), qua đó giảm chi phí phần cứng, bản quyền phần mềm và điện năng tiêu thụ.
Đối với các nhà lãnh đạo trung tâm dữ liệu, sự hợp tác giữa AMD và Red Hat được xem là lộ trình khả thi để tinh gọn hạ tầng truyền thống và chuẩn bị cho tương lai AI.
Ông Philip Guido, Phó Chủ tịch Điều hành của AMD, khẳng định: “Khi khối lượng công việc ngày càng đa dạng và phức tạp, doanh nghiệp cần những giải pháp có khả năng mở rộng. Việc kết hợp nền tảng mã nguồn mở của Red Hat với GPU AMD Instinct và CPU AMD EPYC mang đến hiệu suất và hiệu quả cần thiết để tăng tốc AI, ảo hóa và sáng tạo trong môi trường đám mây lai.”
Startup của Tây Ban Nha tuyên bố các mô hình ngôn ngữ khổng lồ như Llama-2 có thể chạy mượt ngay trên smartphone mà không cần kỹ thuật rườm rà.