Phần cứng

Nvidia công bố bộ xử lý tesla v100 với lõi 5120 cuda

Mục lục:

Anonim

Trong sự kiện GTC 2017 hiện đang được tổ chức tại San José, California, NVIDIA đã công bố bộ vi xử lý mạnh mẽ nhằm mục đích thúc đẩy một kỷ nguyên mới của điện toán, bao gồm trí thông minh nhân tạo và mạng lưới thần kinh học sâu, như xe hơi tự trị hoặc trợ lý dịch tức thời.

Kiến trúc NVIDIA Volta mới nhắm đến trí tuệ nhân tạo

Tesla V100 có sức mạnh tính toán gấp năm lần bộ xử lý Pascal được giới thiệu năm ngoái. Nó dựa trên kiến ​​trúc Volta mới có khoảng 21 tỷ bóng bán dẫn trên một con chip duy nhất có kích thước của Apple Watch. CEO NVIDIA cũng cho biết công ty đã chi hàng tỷ đô la để phát triển bộ xử lý này.

Tesla V100 được sản xuất dành riêng cho các ứng dụng học sâu, giúp nó nhanh hơn khoảng 12 lần so với chip năm ngoái trong việc thực hiện các hoạt động điểm nổi mỗi giây và có thế hệ NVLink thứ hai với phạm vi rộng Băng thông 300GB / giây sử dụng bộ nhớ HBM2 16GB chạy ở tốc độ 900GB / giây.

Mặt khác, thẻ này được cung cấp bởi GPU Volta mới có 5120 CUDA, làm cho nó trở thành GPU lớn nhất từng được tạo ra với kích thước bảng là 812mm vuông.

Tương tự như vậy, Tesla V100 cũng tự hào có một loại hạt nhân tính toán mới gọi là Tensor, với mục đích là số học để học sâu.

Thông số kỹ thuật chính của chip Tesla V100:

  • Bộ xử lý đa luồng trực tuyến mới được tối ưu hóa để học sâu Bộ nhớ NVLink 16GB HBLink thế hệ thứ hai Dịch vụ đa xử lý Volta Cải thiện bộ nhớ hợp nhất Các nhóm hợp tác và API khởi chạy hợp tác mới Hiệu suất tối đa với các chế độ hiệu quả được tối ưu hóa Phần mềm Volta được tối ưu hóa

Chip Tesla V100 là trung tâm của máy tính DGX-1 và HGX-1 mới, về đó bạn có thể đọc thêm thông tin bằng cách nhấp vào đây.

Phần cứng

Lựa chọn của người biên tập

Back to top button