Nnp, dlboost và keem bay, chip intel mới cho ia và mạng lưới thần kinh

Mục lục:
- NNP, DLBoost và Keem Bay, chip Intel mới cho AI và mạng thần kinh
- Bộ xử lý: DLBoost
- Movidius: VPU Keem Bay
- Bộ xử lý mạng thần kinh Nervana (NNP)
Intel đã công bố phần cứng chuyên dụng mới tại sự kiện Hội nghị thượng đỉnh AI vào ngày 12 tháng 11, cách xa thị trường đại chúng, NNP, DLBoost và Keem Bay. Những sản phẩm này chắc chắn là đỉnh cao của hơn ba năm làm việc kể từ khi mua lại Movidius và Nervana vào nửa cuối năm 2016 và thành lập Tập đoàn Sản phẩm AI của họ, do Naveen Rao, đồng sáng lập của Nervana, lãnh đạo.
NNP, DLBoost và Keem Bay, chip Intel mới cho AI và mạng thần kinh
Rao lưu ý rằng Intel đã là một người chơi lớn trong lĩnh vực AI và doanh thu AI của họ trong năm 2019 sẽ vượt 3, 5 tỷ đô la, tăng từ hơn 1 tỷ đô la trong năm 2017. Intel đã có phần cứng khác nhau cho tất cả. Mặt trận OpenVINO cho IOt, Agilex FPGA, Ice Lake trên PC, DLBoost từ Cascade Lake, và thậm chí xa hơn, đồ họa rời trong tương lai của nó.
Bộ xử lý: DLBoost
Intel đã trình diễn khả năng tương thích với bfloat16 tại Cooper Lake 56-core sẽ ra mắt vào năm tới như là một phần của loạt chức năng AI DLBoost trong bộ xử lý của họ. Bfloat16 là một định dạng số đạt được độ chính xác tương tự như điểm nổi chính xác duy nhất (FP32) trong đào tạo AI.
Intel không đưa ra ước tính về sự cải thiện hiệu suất, nhưng họ đã tuyên bố rằng, với mục đích suy luận, Cooper Lake nhanh hơn 30 lần so với Skylake-SP. Về phía PC, Ice Lake kết hợp các hướng dẫn DLBoost AVX-512_VNNI tương tự cũng có trong Cascade Lake.
Movidius: VPU Keem Bay
Là một phần trong chiến lược hướng tới trí tuệ nhân tạo, như máy ảnh thông minh, robot, máy bay không người lái và VR / AR, Intel đã mua lại Movidius vào năm 2016. Movidius gọi các chip năng lượng thấp của mình là "đơn vị xử lý tầm nhìn" (VPU). Chúng có các khả năng xử lý tín hiệu hình ảnh (ISP), bộ tăng tốc phần cứng, bộ xử lý MIPS và bộ xử lý vector lập trình 128 bit (VLIW) mà bạn gọi là lõi SHAVE.
Truy cập hướng dẫn của chúng tôi về các bộ xử lý tốt nhất trên thị trường
Intel hiện đã trình bày chi tiết về cái mà họ gọi là VPU Intel Movidius VPU có tên mã là Keem Bay. Theo Intel, nó có hiệu suất suy luận cao hơn 10 lần so với My Vô số X và tiêu thụ cùng một lượng năng lượng.
Bộ xử lý mạng thần kinh Nervana (NNP)
Intel có NNP cho cả đào tạo và suy luận mạng lưới thần kinh sâu. NNP-I của Intel để suy luận dựa trên hai lõi Ice Lake Sunny Cove và mười hai lõi tăng tốc ICE. Intel tuyên bố họ sẽ cung cấp hiệu suất tuyệt vời trên mỗi watt và mật độ tính toán. Trong hệ số dạng M.2, nó có khả năng 50 TOPS ở mức 12W, tương đương với 4, 8TOPS / W, như đã thông báo trước đó. Intel tiết lộ rằng hệ số hình thức của thẻ PCIe tiêu thụ 75W và tạo ra tới 170 TOPS (với độ chính xác INT8).
Intel nhắc lại hiệu suất mở rộng gần tuyến tính cao 95% cho 32 thẻ, so với 73% cho Nvidia.
Intel đã chuẩn bị rất nhiều loại chip cho tất cả các mặt trận, AI, 5G, mạng lưới thần kinh, lái xe tự trị, v.v., trong một thị trường mà năm nay tạo ra doanh thu ước tính khoảng 10 tỷ đô la. Chúng tôi sẽ thông báo cho bạn.
Phông chữ TomshardwareLưỡi Zte q, lưỡi zte q mini và lưỡi zte q maxi: đặc tính kỹ thuật, tính sẵn có và giá cả

Tất cả mọi thứ về điện thoại thông minh ZTE Blade Q, ZTE Blade Q Mini và ZTE Blade Q Maxi mới: đặc điểm kỹ thuật, hình ảnh, pin, máy ảnh, tính sẵn có và giá cả.
Tản nhiệt mới lưỡi hái kodati và lưỡi hái tối đa

Scythe giới thiệu vào tháng 6 này hai tản nhiệt mới, mô hình Kodati và mô hình Mugen MAX. Ở đây chúng tôi nâng cao một số đặc điểm và hình ảnh chính thức của nó.
Mạng lưới hoặc mạng lưới không dây là gì

Chúng tôi giải thích Mạng lưới là gì và nó dùng để làm gì: các mô hình được đề xuất, ưu điểm, tính năng chính và giá cả ở Tây Ban Nha.