Các thiết bị công nghệ đang phát triển rất nhanh và kéo theo sự gia tăng nhanh chóng của các ứng dụng AI. Nếu không được tối ưu hóa, các thiết bị, hệ thống sẽ gia tăng hạn chế hiệu suất, lãng phí năng lượng. Tuy nhiên nghiên cứu tối ưu là một công việc phức tạp và đòi hỏi kỹ năng chuyên môn. Startup Studio, người sáng lập bộ công cụ tối ưu hóa hiệu suất Optimizer Studio, đang đặt câu hỏi: quá trình điều chỉnh tối ưu có thể được tự động hóa không?

Sử dụng công cụ tối ưu hóa của Concertio, Intel đã có thể tăng tốc độ triển khai TensorFlow của ba mô hình học tập sâu phổ biến, bao gồm ResNet50 lên tới 1.77 lần so với tốc độ cơ bản. Studio Concertio của Concertio có thể tận dụng các bộ điều khiển của TensorFlow và Bộ xử lý có thể mở rộng của Intel Xeon để tăng tốc độ công việc học tập sâu hơn. Trình tối ưu hóa Studio có thể làm giảm công việc tìm kiếm các tham số tối ưu và biến quá trình bày diễn ra tự động.

Công cụ Studio Optimizer của Concertio điều hướng không gian tham số rộng của cài đặt hệ thống và cài đặt ứng dụng trên thiết bị hiện tại và hoạt động để tối đa hóa hiệu suất bằng cách tìm các cài đặt tốt nhất có thể. ài đặt có thể ở bất cứ đâu trong hệ thống – trong bộ xử lý, phần mềm, hệ điều hành và cũng trong các ứng dụng và khung ứng dụng, như TensorFlow. Trình tối ưu hóa Studio chạy khối lượng công việc lặp đi lặp lại cho đến khi nó tìm thấy cấu hình hoạt động tốt. Hai tham số mà Intel đã có Trình tối ưu hóa Zero ở trên để điều chỉnh tải công việc Tensorflow của nó cho ResNet50 được gọi là intra_op và inter_op, điều khiển song song mức mô hình và song song dữ liệu.

Nhóm kỹ sư của Intel AI, do Tiến sĩ Jayaram Bobba, thực hiện tối ưu hóa bằng cách sử dụng Concertio Optimizer Studio phiên bản 1.12 trên bộ vi xử lý Intel Xeon Platinum 8180 (@ 2.50GHz) với RAM 384GB. Phải mất hai giờ và 8 phút để xác định các giá trị tối ưu cho inter_op và intra_op (lần lượt là 2 và 28). Biểu đồ này hiển thị hiệu suất tương đối của ResNet50 trong quá trình tối ưu hóa:

Mô hình đầu tiên mà Intel đánh giá, ResNet50, là một biến thể của Deep Residual Networks, mạng thần kinh xoắn ốc sâu được tạo ra bởi Microsoft. Nhóm nghiên cứu của Intel đã mở rộng đánh giá của mình để bao gồm GNMT (Hệ thống dịch máy thần kinh của Google) và DeepSpeech, một công cụ phát biểu thành văn bản nguồn mở, được triển khai trong TensorFlow. Trong vòng thử nghiệm này, Intel đang tìm kiếm xem liệu các thiết lập CPU và hệ điều hành được tối ưu hóa có mang lại hiệu suất cao hơn nữa sau khi tối ưu hóa bằng tay các bộ điều chỉnh TensorFlow của họ hay không. Sử dụng Trình tối ưu hóa Studio với cùng nền tảng kiểm tra Xeon đã dẫn đến việc khám phá các cài đặt đã cải thiện hiệu suất thêm 8,3 phần trăm và 8 phần trăm cho GNMT và DeepSpeech.

Nguồn: hpcwire.com