Bộ vi xử lý

Nnp, dlboost và keem bay, chip intel mới cho ia và mạng lưới thần kinh

Mục lục:

Anonim

Intel đã công bố phần cứng chuyên dụng mới tại sự kiện Hội nghị thượng đỉnh AI vào ngày 12 tháng 11, cách xa thị trường đại chúng, NNP, DLBoost và Keem Bay. Những sản phẩm này chắc chắn là đỉnh cao của hơn ba năm làm việc kể từ khi mua lại Movidius và Nervana vào nửa cuối năm 2016 và thành lập Tập đoàn Sản phẩm AI của họ, do Naveen Rao, đồng sáng lập của Nervana, lãnh đạo.

NNP, DLBoost và Keem Bay, chip Intel mới cho AI và mạng thần kinh

Rao lưu ý rằng Intel đã là một người chơi lớn trong lĩnh vực AI và doanh thu AI của họ trong năm 2019 sẽ vượt 3, 5 tỷ đô la, tăng từ hơn 1 tỷ đô la trong năm 2017. Intel đã có phần cứng khác nhau cho tất cả. Mặt trận OpenVINO cho IOt, Agilex FPGA, Ice Lake trên PC, DLBoost từ Cascade Lake, và thậm chí xa hơn, đồ họa rời trong tương lai của nó.

Bộ xử lý: DLBoost

Intel đã trình diễn khả năng tương thích với bfloat16 tại Cooper Lake 56-core sẽ ra mắt vào năm tới như là một phần của loạt chức năng AI DLBoost trong bộ xử lý của họ. Bfloat16 là một định dạng số đạt được độ chính xác tương tự như điểm nổi chính xác duy nhất (FP32) trong đào tạo AI.

Intel không đưa ra ước tính về sự cải thiện hiệu suất, nhưng họ đã tuyên bố rằng, với mục đích suy luận, Cooper Lake nhanh hơn 30 lần so với Skylake-SP. Về phía PC, Ice Lake kết hợp các hướng dẫn DLBoost AVX-512_VNNI tương tự cũng có trong Cascade Lake.

Movidius: VPU Keem Bay

Là một phần trong chiến lược hướng tới trí tuệ nhân tạo, như máy ảnh thông minh, robot, máy bay không người lái và VR / AR, Intel đã mua lại Movidius vào năm 2016. Movidius gọi các chip năng lượng thấp của mình là "đơn vị xử lý tầm nhìn" (VPU). Chúng có các khả năng xử lý tín hiệu hình ảnh (ISP), bộ tăng tốc phần cứng, bộ xử lý MIPS và bộ xử lý vector lập trình 128 bit (VLIW) mà bạn gọi là lõi SHAVE.

Truy cập hướng dẫn của chúng tôi về các bộ xử lý tốt nhất trên thị trường

Intel hiện đã trình bày chi tiết về cái mà họ gọi là VPU Intel Movidius VPU có tên mã là Keem Bay. Theo Intel, nó có hiệu suất suy luận cao hơn 10 lần so với My Vô số X và tiêu thụ cùng một lượng năng lượng.

Bộ xử lý mạng thần kinh Nervana (NNP)

Intel có NNP cho cả đào tạo và suy luận mạng lưới thần kinh sâu. NNP-I của Intel để suy luận dựa trên hai lõi Ice Lake Sunny Cove và mười hai lõi tăng tốc ICE. Intel tuyên bố họ sẽ cung cấp hiệu suất tuyệt vời trên mỗi watt và mật độ tính toán. Trong hệ số dạng M.2, nó có khả năng 50 TOPS ở mức 12W, tương đương với 4, 8TOPS / W, như đã thông báo trước đó. Intel tiết lộ rằng hệ số hình thức của thẻ PCIe tiêu thụ 75W và tạo ra tới 170 TOPS (với độ chính xác INT8).

Intel nhắc lại hiệu suất mở rộng gần tuyến tính cao 95% cho 32 thẻ, so với 73% cho Nvidia.

Intel đã chuẩn bị rất nhiều loại chip cho tất cả các mặt trận, AI, 5G, mạng lưới thần kinh, lái xe tự trị, v.v., trong một thị trường mà năm nay tạo ra doanh thu ước tính khoảng 10 tỷ đô la. Chúng tôi sẽ thông báo cho bạn.

Phông chữ Tomshardware

Bộ vi xử lý

Lựa chọn của người biên tập

Back to top button