Android

▷ Intel xeon 【tất cả thông tin】

Mục lục:

Anonim

Trong số danh mục khổng lồ của Intel, chúng ta có thể tìm thấy bộ xử lý Intel Xeon, thứ mà người dùng ít biết đến nhất vì không tập trung vào khu vực trong nước. Trong bài viết này, chúng tôi giải thích những bộ xử lý này là gì và sự khác biệt với những bộ xử lý trong nước.

Chỉ số nội dung

Intel Xeon là gì?

Xeon là một thương hiệu của bộ vi xử lý x86 do Intel thiết kế, sản xuất và tiếp thị, nhắm vào thị trường máy trạm, máy chủ và hệ thống nhúng. Bộ xử lý Intel Xeon được giới thiệu vào tháng 6 năm 1998. Bộ xử lý Xeon dựa trên kiến ​​trúc giống như CPU ​​máy tính để bàn thông thường, nhưng có một số tính năng nâng cao như hỗ trợ bộ nhớ ECC, số lượng lõi cao hơn, hỗ trợ lượng RAM lớn., tăng bộ nhớ bộ đệm và cung cấp nhiều hơn cho các tính năng độ tin cậy, tính khả dụng và khả năng phục vụ ở cấp doanh nghiệp chịu trách nhiệm xử lý các ngoại lệ phần cứng thông qua kiến ​​trúc Kiểm tra máy. Họ thường có thể tiếp tục thực thi một cách an toàn khi bộ xử lý bình thường không thể do các đặc điểm RAS bổ sung của họ, tùy thuộc vào loại và mức độ nghiêm trọng của Ngoại lệ Xác minh Máy. Một số cũng tương thích với các hệ thống nhiều ổ cắm với 2, 4 hoặc 8 ổ cắm bằng cách sử dụng bus kết nối đường dẫn nhanh.

Chúng tôi khuyên bạn nên đọc bài viết của mình về AMD Ryzen - Bộ xử lý tốt nhất được sản xuất bởi AMD

Một số thiếu sót khiến bộ xử lý Xeon không phù hợp với hầu hết các PC tiêu dùng bao gồm tần số thấp hơn với cùng mức giá, do máy chủ chạy nhiều tác vụ song song hơn máy tính để bàn, số lượng lõi quan trọng hơn tần số của xem, nói chung là không có hệ thống GPU tích hợp và thiếu hỗ trợ ép xung. Mặc dù có những nhược điểm này, bộ xử lý Xeon vẫn luôn được người dùng máy tính để bàn ưa chuộng, chủ yếu là game thủ và người dùng cực đoan, chủ yếu là do tiềm năng số lõi cao hơn và tỷ lệ giá / hiệu năng hấp dẫn hơn so với Core i7 về mặt tổng sức mạnh tính toán của tất cả các lõi. Hầu hết các CPU Intel Xeon đều thiếu GPU tích hợp, điều đó có nghĩa là các hệ thống được xây dựng với các bộ xử lý đó yêu cầu card đồ họa rời hoặc GPU riêng nếu muốn có đầu ra màn hình.

Intel Xeon là một dòng sản phẩm khác với Intel Xeon Phi, có cùng tên. Xeon Phi thế hệ đầu tiên là một loại thiết bị hoàn toàn khác có thể so sánh với card đồ họa, vì nó được thiết kế cho khe cắm PCI Express và được sử dụng làm bộ đồng xử lý đa lõi, như Nvidia Tesla. Ở thế hệ thứ hai, Xeon Phi trở thành bộ xử lý chính giống với Xeon hơn. Nó phù hợp với cùng một ổ cắm như bộ xử lý Xeon và tương thích với x86; tuy nhiên, so với Xeon, điểm thiết kế của Xeon Phi nhấn mạnh nhiều lõi hơn với băng thông bộ nhớ cao hơn.

Intel Xeon có thể mở rộng là gì?

Những thay đổi lớn đang được tiến hành trong trung tâm dữ liệu của công ty. Nhiều tổ chức đang trải qua quá trình chuyển đổi rộng rãi dựa trên dữ liệu và dịch vụ trực tuyến, tận dụng dữ liệu đó cho các ứng dụng Phân tích và Trí tuệ nhân tạo mạnh mẽ có thể biến nó thành ý tưởng thay đổi doanh nghiệp, sau đó triển khai các công cụ và dịch vụ giúp những ý tưởng đó hoạt động.. Điều này đòi hỏi một loại cơ sở hạ tầng máy chủ và mạng mới, được tối ưu hóa cho trí tuệ nhân tạo, phân tích, bộ dữ liệu khổng lồ và hơn thế nữa, được cung cấp bởi CPU mới mang tính cách mạng. Đó là nơi dòng Xeon có thể mở rộng của Intel xuất hiện.

Intel Xeon Scalable có thể là bước thay đổi lớn nhất trong hai mươi năm của CPU Xeon. Nó không chỉ đơn giản là Xeon hay Xeon nhanh hơn với nhiều lõi hơn, mà là một bộ vi xử lý được thiết kế xoay quanh sự kết hợp giữa khả năng tính toán, mạng và lưu trữ, mang lại các tính năng mới và cải thiện hiệu suất cho cả ba.

Mặc dù Xeon Scalable cung cấp hiệu suất tăng trung bình 1, 6 lần so với CPU Xeon thế hệ trước, nhưng lợi ích vượt xa các tiêu chuẩn để bao gồm tối ưu hóa trong thế giới thực để phân tích, bảo mật, AI và xử lý hình ảnh. Có nhiều sức mạnh hơn để chạy các phức hợp hiệu suất cao. Khi nói đến trung tâm dữ liệu, đó là một chiến thắng theo mọi cách.

Có lẽ thay đổi lớn nhất và rõ ràng nhất là sự thay thế kiến ​​trúc Xeon dựa trên vòng cũ, nơi tất cả các lõi của bộ xử lý được kết nối thông qua một vòng duy nhất, với kiến ​​trúc lưới hoặc lưới mới. Điều này căn chỉnh các lõi cộng với bộ đệm, RAM và I / O liên quan, trong các hàng và cột kết nối tại mỗi giao lộ, cho phép dữ liệu di chuyển hiệu quả hơn từ lõi này sang lõi khác.

Nếu bạn tưởng tượng nó theo hệ thống giao thông đường bộ, kiến ​​trúc Xeon cổ đại giống như một vòng tròn tốc độ cao, nơi dữ liệu di chuyển từ lõi này sang lõi khác sẽ di chuyển xung quanh vòng tròn. Kiến trúc lưới mới giống như lưới đường cao tốc, chỉ là một mạng lưới cho phép lưu lượng truy cập lưu thông ở tốc độ điểm-điểm tối đa mà không bị tắc nghẽn. Điều này tối ưu hóa hiệu suất trên các tác vụ đa luồng trong đó các lõi khác nhau có thể chia sẻ dữ liệu và bộ nhớ, đồng thời tăng hiệu quả sử dụng năng lượng. Theo nghĩa cơ bản nhất, đó là mục đích kiến ​​trúc được tạo ra để di chuyển một lượng lớn dữ liệu xung quanh bộ xử lý có thể có tới 28 lõi. Hơn nữa, nó là một cấu trúc được mở rộng hiệu quả hơn, cho dù chúng ta đang nói về nhiều bộ xử lý hoặc CPU mới với nhiều lõi hơn sau này.

Nếu kiến ​​trúc lưới là về việc di chuyển dữ liệu hiệu quả hơn, thì các hướng dẫn AVX-512 mới sẽ cố gắng tối ưu hóa cách xử lý. Dựa trên công việc Intel bắt đầu với các phần mở rộng SIMD đầu tiên vào năm 1996, AVX-512 cho phép xử lý đồng thời nhiều mục dữ liệu hơn so với AVX2 thế hệ tiếp theo, tăng gấp đôi chiều rộng của mỗi bản ghi và thêm hai mục nữa để cải thiện hiệu suất. AVX-512 cho phép số hoạt động của dấu phẩy động tăng gấp đôi mỗi giây trên mỗi chu kỳ đồng hồ và có thể xử lý gấp đôi số mục dữ liệu mà AVX2 có thể có trong cùng một chu kỳ xung nhịp.

Tốt hơn nữa, những hướng dẫn mới này được thiết kế đặc biệt để tăng tốc hiệu suất trong các khối lượng công việc phức tạp, tốn nhiều dữ liệu như mô phỏng khoa học, phân tích tài chính, học sâu, xử lý hình ảnh, âm thanh và video và mật mã.. Điều này giúp bộ xử lý Xeon có thể mở rộng xử lý các tác vụ HPC nhanh hơn 1, 6 lần so với thế hệ tương đương trước đó, hoặc tăng tốc trí tuệ nhân tạo và các hoạt động học sâu lên gấp 2, 2 lần.

AVX-512 cũng giúp lưu trữ, tăng tốc các tính năng chính như sao chép, mã hóa, nén và giải nén để bạn có thể sử dụng hiệu quả hơn các tài nguyên của mình và tăng cường bảo mật cho các dịch vụ đám mây riêng và tại chỗ.

Theo nghĩa này, AVX-512 hoạt động song song với công nghệ Intel QuickAssist (Intel QAT). QAT cho phép tăng tốc phần cứng để mã hóa dữ liệu, xác thực, nén và giải nén, tăng hiệu suất và hiệu quả của các quy trình đặt ra yêu cầu cao đối với cơ sở hạ tầng mạng ngày nay và điều đó sẽ chỉ tăng khi bạn triển khai nhiều dịch vụ hơn và công cụ kỹ thuật số.

Được sử dụng cùng với Cơ sở hạ tầng được xác định phần mềm (SDI), QAT có thể giúp bạn khôi phục các chu kỳ CPU bị mất dành cho các tác vụ bảo mật, nén và giải nén để chúng có sẵn cho các tác vụ chuyên sâu tính toán mang lại giá trị thực cho công ty. Do CPU hỗ trợ QAT có thể xử lý nén và giải nén tốc độ cao, gần như miễn phí, các ứng dụng có thể hoạt động với dữ liệu nén. Điều này không chỉ có dung lượng lưu trữ nhỏ hơn mà còn cần ít thời gian hơn để chuyển từ ứng dụng hoặc hệ thống này sang ứng dụng khác.

CPU Intel Xeon có thể mở rộng tích hợp với chipset dòng C620 của Intel để tạo ra một nền tảng cho hiệu năng toàn hệ thống cân bằng. Kết nối Ethernet của Intel với iWARP RDMA được tích hợp sẵn, cung cấp liên lạc 4x10GbE có độ trễ thấp. Nền tảng này cung cấp 48 dòng kết nối PCIe 3.0 cho mỗi CPU, với 6 kênh RAM DDR4 cho mỗi CPU với dung lượng hỗ trợ lên tới 768GB với tốc độ 1, 5TB cho mỗi CPU và tốc độ lên tới 2666 MHz.

Lưu trữ nhận được điều trị hào phóng tương tự. Có chỗ cho tối đa 14 ổ đĩa SATA3 và 10 cổng USB3.1, chưa kể đến điều khiển RAID NMMe ảo tích hợp của CPU. Hỗ trợ cho công nghệ Intel Optane thế hệ tiếp theo làm tăng thêm hiệu năng lưu trữ, với các hiệu ứng tích cực đáng kể trên cơ sở dữ liệu trong bộ nhớ và khối lượng công việc phân tích. Và với Intel Xeon có thể mở rộng, hỗ trợ vải Omni-Path của Intel được tích hợp sẵn mà không cần thẻ giao diện riêng. Do đó, Bộ xử lý có thể mở rộng Xeon đã sẵn sàng cho các ứng dụng băng thông cao, độ trễ thấp trong các cụm HPC.

Với Xeon Scalable, Intel đã cung cấp một dòng bộ xử lý đáp ứng nhu cầu của các trung tâm dữ liệu thế hệ tiếp theo, nhưng tất cả công nghệ này có ý nghĩa gì trong thực tế? Đối với người mới bắt đầu, các máy chủ có thể xử lý khối lượng công việc phân tích lớn hơn ở tốc độ cao hơn, nhận được thông tin chi tiết nhanh hơn từ các tập dữ liệu lớn hơn. Intel Xeon Scalable cũng có khả năng lưu trữ và tính toán cho các ứng dụng học máy và học máy tiên tiến, cho phép các hệ thống đào tạo hàng giờ, không phải ngày hoặc "suy luận" ý nghĩa của dữ liệu mới với tốc độ và độ chính xác cao hơn bằng cách xử lý hình ảnh, lời nói hoặc văn bản.

Tiềm năng cho các ứng dụng phân tích và cơ sở dữ liệu trong bộ nhớ, như SAP HANA, là rất lớn, với hiệu suất cao hơn tới 1, 59 lần khi chạy khối lượng công việc trong bộ nhớ trên Xeon thế hệ tiếp theo. Khi doanh nghiệp của bạn phụ thuộc vào việc thu thập thông tin từ các tập dữ liệu lớn với các nguồn thời gian thực, điều đó có thể đủ để mang lại cho bạn lợi thế cạnh tranh.

Xeon Scalable có hiệu năng và bộ nhớ và băng thông hệ thống để lưu trữ các ứng dụng HPC lớn hơn và phức tạp hơn và tìm giải pháp cho các vấn đề kinh doanh, khoa học và kỹ thuật phức tạp hơn. Nó có thể cung cấp chuyển mã video nhanh hơn, chất lượng cao hơn trong khi truyền phát video đến nhiều khách hàng hơn.

Việc tăng khả năng ảo hóa có thể cho phép các tổ chức chạy các máy ảo nhiều gấp bốn lần trên máy chủ Xeon có thể mở rộng so với trên hệ thống thế hệ tiếp theo. Với chi phí gần như bằng không để nén, giải nén và mã hóa dữ liệu khi nghỉ ngơi, các doanh nghiệp có thể sử dụng bộ lưu trữ của họ hiệu quả hơn, đồng thời tăng cường bảo mật. Đây không chỉ là về điểm chuẩn, mà là về công nghệ thay đổi cách thức hoạt động của trung tâm dữ liệu của bạn và cũng làm như vậy cho doanh nghiệp của bạn.

Bộ nhớ ECC là gì?

ECC là một phương pháp phát hiện và sau đó sửa các lỗi bộ nhớ một bit. Một lỗi bộ nhớ bit đơn là lỗi dữ liệu trong quá trình sản xuất hoặc sản xuất máy chủ và sự hiện diện của lỗi có thể ảnh hưởng lớn đến hiệu suất của máy chủ. Có hai loại lỗi bộ nhớ một bit: lỗi cứng và lỗi mềm. Lỗi vật lý được gây ra bởi các yếu tố vật lý, chẳng hạn như sự thay đổi nhiệt độ quá mức, căng thẳng căng thẳng hoặc căng thẳng vật lý xảy ra trên các bit bộ nhớ.

Lỗi mềm xảy ra khi dữ liệu được ghi hoặc đọc khác với dự định ban đầu, chẳng hạn như sự thay đổi điện áp bo mạch chủ, tia vũ trụ hoặc phân rã phóng xạ có thể khiến các bit trong bộ nhớ quay trở lại dễ bay hơi. Do các bit giữ giá trị được lập trình của chúng dưới dạng điện tích, loại nhiễu này có thể làm thay đổi tải trên bit bộ nhớ, gây ra lỗi. Trên các máy chủ, có một số nơi có thể xảy ra lỗi: trong đơn vị lưu trữ, trong lõi CPU, thông qua kết nối mạng và trong các loại bộ nhớ khác nhau.

Đối với các máy trạm và máy chủ có lỗi, hỏng dữ liệu và / hoặc lỗi hệ thống phải được tránh bằng mọi giá, như trong lĩnh vực tài chính, bộ nhớ ECC thường là bộ nhớ được lựa chọn. Đây là cách bộ nhớ ECC hoạt động. Trong điện toán, dữ liệu được nhận và truyền qua các bit, đơn vị dữ liệu nhỏ nhất trong máy tính, được thể hiện bằng mã nhị phân sử dụng một hoặc không.

Khi các bit được nhóm lại với nhau, chúng tạo mã nhị phân hoặc "từ", là các đơn vị dữ liệu được định tuyến và di chuyển giữa bộ nhớ và CPU. Ví dụ, mã nhị phân 8 bit là 10110001. Với bộ nhớ ECC, có một bit ECC bổ sung, được gọi là bit chẵn lẻ. Bit chẵn lẻ thêm này làm cho mã nhị phân đọc 101100010, trong đó số 0 cuối cùng là bit chẵn lẻ và được sử dụng để xác định lỗi bộ nhớ. Nếu tổng của tất cả 1 trong một dòng mã là một số chẵn (không bao gồm bit chẵn lẻ), thì dòng mã được gọi là chẵn lẻ. Mã không có lỗi luôn có tính chẵn lẻ. Tuy nhiên, tính chẵn lẻ có hai hạn chế: nó chỉ có khả năng phát hiện số lỗi lẻ (1, 3, 5, v.v.) và cho phép số lượng lỗi chẵn vượt qua (2, 4, 6, v.v.). Chẵn lẻ cũng không thể sửa lỗi, nó chỉ có thể phát hiện ra chúng. Đó là nơi bộ nhớ ECC xuất hiện.

Bộ nhớ ECC sử dụng các bit chẵn lẻ để lưu trữ mã được mã hóa khi ghi dữ liệu vào bộ nhớ và mã ECC được lưu trữ cùng một lúc. Khi dữ liệu được đọc, mã ECC được lưu trữ được so sánh với mã ECC được tạo khi dữ liệu được đọc. Nếu mã được đọc không khớp với mã được lưu trữ, nó được giải mã bởi các bit chẵn lẻ để xác định bit nào bị lỗi, thì bit này được sửa ngay lập tức. Khi dữ liệu được xử lý, bộ nhớ ECC liên tục quét mã bằng một thuật toán đặc biệt để phát hiện và sửa lỗi bộ nhớ một bit.

Trong các ngành công nghiệp quan trọng như lĩnh vực tài chính, bộ nhớ ECC có thể tạo ra sự khác biệt lớn. Hãy tưởng tượng rằng bạn đang chỉnh sửa thông tin trong tài khoản khách hàng bí mật và sau đó trao đổi thông tin này với các tổ chức tài chính khác. Khi bạn gửi dữ liệu, giả sử một chữ số nhị phân bị lật bởi một loại nhiễu điện. Bộ nhớ máy chủ ECC giúp bảo vệ tính toàn vẹn của dữ liệu của bạn, ngăn ngừa hỏng dữ liệu và ngăn ngừa sự cố và lỗi hệ thống.

Chúng tôi khuyên bạn nên đọc:

Điều này kết thúc bài viết của chúng tôi về Intel Xeon và mọi thứ bạn cần biết về các bộ xử lý mới này, hãy nhớ chia sẻ nó trên phương tiện truyền thông xã hội để nó có thể giúp nhiều người dùng cần nó hơn.

Android

Lựa chọn của người biên tập

Back to top button