NVIDIA công thêm các containers trên đám mây GPU của hãng

Trong nỗ lực thúc đẩy siêu máy tính và phát triển AI thông qua GPU, Nvidia cho biết họ đang mở rộng số lượng các container có sẵn trên NVIDIA GPU Cloud – đám mây GPU của hãng.

Ngày 25/6/2018, NVIDIA đã đăng một blog mô tả về 9 containers học sâu mới cho HPC và nâng tổng số container lên 35. Trong đó, đáng chú ý là PGI Compiler nhằm giúp các nhà phát triển xây dựng các ứng dụng HPC sử dụng CPU đa lõi và GPU Tesla của Nvidia. Các trình biên dịch và các công cụ khác trong container có thể được sử dụng để phát triển các ứng dụng hiệu năng cao dựa trên tính toán song song các nhân CUDA với ngôn ngữ Fortran và các ngôn ngữ khác.

Chuyên gia về GPU đang hy vọng container sẽ thay thế cách triển khai thông thường hiện nay. Việc loại bỏ các cài đặt thủ công có nghĩa là người dùng có thể tự kéo container và triển khai ứng dụng trong vài phút so với tiêu tốn nhiều thời gian để tư vấn thiết kế và cài đặt từng phần.

Nvidia cho biết họ đã thử nghiệm GPU trên các máy chủ DGX cùng với bộ vi xử lý đồ họa Nvidia trên đám mây của nhiều nhà cung cấp lớn bao gồm Amazon Web Services, Google và Oracle.

Việc phát triển, cung cấp và khai thác container cho AI và HPC đang được nhiều nhà phát triển quan tâm. Trong số đó, công ty khởi nghiệp sylabs đang phát triển nhanh chóng với mục tiêu đưa công nghệ container HPC tới các doanh nghiệp.

Nguồn: hpcwire.com