Android

Nvidia 【tất cả thông tin】

Mục lục:

Anonim

Tập đoàn Nvidia, thường được gọi là Nvidia, là một công ty công nghệ của Mỹ được thành lập tại Delkn và có trụ sở tại Santa Clara, California. Nvidia thiết kế các đơn vị xử lý đồ họa cho trò chơi video và thị trường chuyên nghiệp, cũng như hệ thống đơn vị chip (SoC) cho thị trường điện toán ô tô và di động. Dòng sản phẩm cốt lõi của hãng, GeForce, đang cạnh tranh trực tiếp với các sản phẩm Radeon của AMD.

Chúng tôi khuyên bạn nên đọc hướng dẫn thành phần và phần cứng PC tốt nhất của chúng tôi:

Ngoài việc sản xuất GPU, Nvidia cung cấp khả năng xử lý song song trên toàn thế giới cho các nhà nghiên cứu và nhà khoa học, cho phép họ chạy các ứng dụng hiệu suất cao một cách hiệu quả. Gần đây, nó đã chuyển sang thị trường điện toán di động, nơi họ sản xuất bộ xử lý di động Tegra cho các máy chơi game video, máy tính bảng, và hệ thống giải trí tự động và hệ thống giải trí phương tiện. Điều này đã dẫn đến việc Nvidia trở thành một công ty tập trung vào bốn thị trường kể từ năm 2014 : chơi game, trực quan hóa chuyên nghiệp, trung tâm dữ liệu và trí tuệ nhân tạo và ô tô.

Chỉ số nội dung

Lịch sử Nvidia

Nvidia được thành lập vào năm 1993 bởi Jen-Hsun Huang, Chris Malachowsky và Curtis Priem. Ba nhà đồng sáng lập của công ty đã đưa ra giả thuyết rằng hướng đi đúng đắn cho điện toán sẽ thông qua xử lý tăng tốc đồ họa, tin rằng mô hình điện toán này có thể giải quyết các vấn đề mà điện toán đa năng không thể giải quyết. Họ cũng lưu ý rằng trò chơi điện tử là một trong những vấn đề thách thức nhất về mặt tính toán và chúng có doanh số cực kỳ cao.

Từ một công ty trò chơi video nhỏ đến một người khổng lồ trí tuệ nhân tạo

Công ty được sinh ra với số vốn ban đầu là 40.000 đô la, ban đầu không có tên và những người đồng sáng lập đã đặt tên cho tất cả các tệp NV của mình, như trong "bản phát hành tiếp theo". Sự cần thiết phải kết hợp công ty khiến những người đồng sáng lập phải xem xét tất cả các từ với hai chữ cái đó, dẫn đến "invidia", từ tiếng Latin có nghĩa là "ghen tị".

Sự ra mắt của RIVA TNT vào năm 1998 đã củng cố danh tiếng của Nvidia để phát triển các bộ điều hợp đồ họa. Vào cuối năm 1999, Nvidia đã phát hành GeForce 256 (NV10), trong đó đáng chú ý nhất là giới thiệu chuyển đổi và chiếu sáng ở cấp độ người tiêu dùng (T & L) trong phần cứng 3D. Hoạt động ở tần số 120 MHz và có bốn dòng pixel, nó đã thực hiện tăng tốc video nâng cao, bù chuyển động và trộn hình ảnh phụ phần cứng. GeForce vượt trội so với các sản phẩm hiện có với biên độ rộng.

Do thành công của các sản phẩm của mình, Nvidia đã giành được hợp đồng phát triển phần cứng đồ họa cho máy chơi trò chơi Xbox của Microsoft, kiếm được cho Nvidia khoản tiền lãi 200 triệu USD. Tuy nhiên, dự án đã lấy nhiều kỹ sư giỏi nhất của nó từ các dự án khác. Trong ngắn hạn, điều này không thành vấn đề và GeForce2 GTS đã được xuất xưởng vào mùa hè năm 2000. Vào tháng 12 năm 2000, Nvidia đã đạt được thỏa thuận mua tài sản trí tuệ của đối thủ 3dfx duy nhất, công ty tiên phong về công nghệ đồ họa 3D cho người tiêu dùng. người đã lãnh đạo lĩnh vực này từ giữa những năm 1990 đến 2000. Quá trình mua lại kết thúc vào tháng 4/2002.

Vào tháng 7 năm 2002, Nvidia đã mua lại Exluna với số tiền không được tiết lộ. Exluna chịu trách nhiệm tạo ra các công cụ kết xuất phần mềm khác nhau. Sau đó, vào tháng 8 năm 2003, Nvidia đã mua MediaQ với giá xấp xỉ 70 triệu đô la. Và nó cũng đã mua lại iReady, một nhà cung cấp các giải pháp giảm tải TCP / IP và iSCSI hiệu suất cao vào ngày 22 tháng 4 năm 2004.

Thành công lớn của Nvidia trong thị trường trò chơi điện tử, vào tháng 12 năm 2004, có thông báo rằng nó sẽ giúp Sony thiết kế bộ xử lý đồ họa RSX của PlayStation 3, bộ điều khiển trò chơi video thế hệ mới của công ty Nhật Bản. nó có nhiệm vụ khó khăn là lặp lại thành công của người tiền nhiệm, bán chạy nhất trong lịch sử.

Vào tháng 12 năm 2006, Nvidia đã nhận được trích dẫn từ Bộ Tư pháp Hoa Kỳ. Đối với các vi phạm chống độc quyền có thể có trong ngành công nghiệp card đồ họa. Vào thời điểm đó, AMD đã trở thành đối thủ lớn của nó, sau khi mua lại ATI. Kể từ đó, AMD và Nvidia là nhà sản xuất card đồ họa trò chơi video duy nhất, không quên chip tích hợp của Intel.

Forbes đã gọi Nvidia là Công ty tốt nhất của năm 2007, với lý do những thành tựu mà họ đạt được trong năm năm qua. Vào ngày 5 tháng 1 năm 2007, Nvidia tuyên bố rằng họ đã hoàn tất việc mua lại PortalPlayer, Inc và vào tháng 2 năm 2008, Nvidia đã mua lại Ageia, nhà phát triển công cụ vật lý PhysX và đơn vị xử lý vật lý chạy công cụ này. Nvidia tuyên bố rằng họ đã lên kế hoạch tích hợp công nghệ PhysX vào các sản phẩm GPU GeForce trong tương lai.

Nvidia đã phải đối mặt với khó khăn lớn vào tháng 7 năm 2008, khi nhận được sự sụt giảm doanh thu khoảng 200 triệu đô la sau khi được báo cáo rằng một số chipset di động và GPU di động do công ty sản xuất có tỷ lệ thất bại bất thường do lỗi sản xuất. Vào tháng 9 năm 2008, Nvidia đã trở thành chủ đề của một vụ kiện tập thể bởi những người bị ảnh hưởng, cho rằng các GPU bị lỗi đã được tích hợp vào một số mẫu máy tính xách tay do Apple, Dell và HP sản xuất. Vở kịch xà phòng kết thúc vào tháng 9 năm 2010, khi Nvidia đạt được thỏa thuận rằng chủ sở hữu của các máy tính xách tay bị ảnh hưởng sẽ được hoàn trả chi phí sửa chữa hoặc trong một số trường hợp, thay thế sản phẩm.

Vào tháng 11 năm 2011, Nvidia đã phát hành hệ thống chip ARG Tegra 3 cho các thiết bị di động sau khi lần đầu tiên trình bày nó tại Đại hội Thế giới Di động. Nvidia tuyên bố rằng con chip này có CPU di động lõi tứ đầu tiên. Vào tháng 1 năm 2013, Nvidia đã giới thiệu Tegra 4, cũng như Nvidia Shield, một máy chơi game cầm tay dựa trên Android được cung cấp bởi bộ vi xử lý mới.

Vào ngày 6 tháng 5 năm 2016, Nvidia đã giới thiệu card đồ họa GeForce GTX 1080 và 1070, lần đầu tiên dựa trên kiến ​​trúc vi mô Pascal mới. Nvidia tuyên bố rằng cả hai mô hình đều vượt trội so với mô hình Titan X dựa trên Maxwell của họ. Các thẻ này kết hợp bộ nhớ GDDR5X và GDDR5 tương ứng và sử dụng quy trình sản xuất 16nm. Kiến trúc Pascal cũng hỗ trợ một tính năng phần cứng mới được gọi là đồng thời nhiều phép chiếu (SMP), được thiết kế để cải thiện chất lượng của đa màn hình và kết xuất thực tế ảo. Pascal đã cho phép sản xuất máy tính xách tay đáp ứng tiêu chuẩn thiết kế Max-Q của Nvidia.

Vào tháng 5 năm 2017, Nvidia đã công bố hợp tác với Toyota Motor Corp, theo đó hãng sau sẽ sử dụng nền tảng trí tuệ nhân tạo Drive X series của Nvidia cho các phương tiện tự trị của mình. Vào tháng 7 năm 2017, Nvidia và gã khổng lồ tìm kiếm Trung Quốc, Baidu, Inc. đã công bố một quan hệ đối tác AI mạnh mẽ bao gồm điện toán đám mây, lái xe tự trị, thiết bị tiêu dùng và khung AI của Baidu, PaddlePbag.

Nvidia GeForce và Nvidia Pascal, thống trị chơi game

GeForce là tên thương hiệu cho card đồ họa dựa trên các đơn vị xử lý đồ họa (GPU) được tạo bởi Nvidia từ năm 1999. Đến nay, loạt GeForce đã biết mười sáu thế hệ kể từ khi thành lập. Các phiên bản tập trung vào người dùng chuyên nghiệp của các thẻ này có tên Quadro và bao gồm một số tính năng khác biệt ở cấp trình điều khiển. Đối thủ cạnh tranh trực tiếp của GeForce là AMD với các thẻ Radeon.

Pascal là tên mã cho vi kiến ​​trúc GPU mới nhất được phát triển bởi Nvidia đã tham gia vào thị trường trò chơi video, với tư cách là người kế thừa kiến ​​trúc Maxwell trước đây. Kiến trúc Pascal được giới thiệu lần đầu tiên vào tháng 4 năm 2016 với sự ra mắt của Tesla P100 cho các máy chủ vào ngày 5 tháng 4 năm 2016. Hiện tại, Pascal chủ yếu được sử dụng trong loạt GeForce 10, với GeForce GTX 1080 và GTX 1070 thẻ trò chơi video đầu tiên được phát hành với kiến ​​trúc này, vào ngày 17 tháng 5 năm 2016 và ngày 10 tháng 6 năm 2016. Pascal được sản xuất bằng quy trình FinFET 16nm của TSMC, cho phép nó mang lại hiệu suất và hiệu suất năng lượng vượt trội hơn nhiều so với Maxwell, được sản xuất ở Finnm 28nm.

Kiến trúc Pascal được tổ chức bên trong theo cách gọi là bộ xử lý đa luồng ( SM), các đơn vị chức năng được tạo thành từ 64 CUDA Cores, lần lượt được chia thành hai khối xử lý gồm 32 lõi CUDA trong số họ và kèm theo một bộ đệm hướng dẫn, một kế hoạch warp, 2 đơn vị ánh xạ kết cấu và 2 đơn vị điều phối. Các ổ SM này tương đương với các CU của AMD.

Kiến trúc Pascal của Nvidia đã được thiết kế để trở nên hiệu quả và tiên tiến nhất trong thế giới trò chơi. Đội ngũ kỹ thuật của Nvidia đã nỗ lực rất nhiều để tạo ra một kiến ​​trúc GPU có khả năng tốc độ xung nhịp rất cao, trong khi vẫn duy trì mức tiêu thụ năng lượng chặt chẽ. Để đạt được điều này, một thiết kế rất cẩn thận và tối ưu đã được chọn trong tất cả các mạch của nó, dẫn đến việc Pascal có thể đạt tần số cao hơn 40% so với Maxwell, một con số cao hơn nhiều so với quy trình cho phép ở 16 nm mà không cần tất cả các tối ưu hóa ở mức thiết kế.

Bộ nhớ là yếu tố chính trong hiệu năng của card đồ họa, công nghệ GDDR5 đã được công bố vào năm 2009, do đó, nó đã trở nên lỗi thời đối với các card đồ họa mạnh nhất hiện nay. Đó là lý do tại sao Pascal hỗ trợ bộ nhớ GDDR5X, đây là tiêu chuẩn giao diện bộ nhớ nhanh nhất và tiên tiến nhất trong lịch sử tại thời điểm ra mắt các card đồ họa này, đạt tốc độ truyền lên tới 10 Gbps hoặc gần 100 picos giây giữa các bit. của dữ liệu. Bộ nhớ GDDR5X cũng cho phép card đồ họa tiêu thụ ít năng lượng hơn so với GDDR5, vì điện áp hoạt động là 1, 35V, so với 1, 5V hoặc thậm chí nhiều hơn mà các chip GDDR5 nhanh hơn cần. Việc giảm điện áp này chuyển thành tần số hoạt động cao hơn 43% với cùng mức tiêu thụ điện năng.

Một cải tiến quan trọng khác của Pascal đến từ các kỹ thuật nén bộ nhớ mà không làm giảm hiệu năng, giúp giảm nhu cầu về băng thông của GPU. Pascal bao gồm thế hệ thứ tư của công nghệ nén màu delta. Với nén màu delta, GPU sẽ phân tích các cảnh để tính toán các pixel có thông tin có thể được nén mà không làm giảm chất lượng của cảnh. Trong khi kiến ​​trúc Maxwell không thể nén dữ liệu liên quan đến một số yếu tố, chẳng hạn như thảm thực vật và các bộ phận của chiếc xe trong trò chơi Project Cars, Pascal có thể nén hầu hết thông tin về các yếu tố này, do đó hiệu quả hơn nhiều so với Maxwell. Kết quả là, Pascal có thể giảm đáng kể số lượng byte phải trích xuất từ ​​bộ nhớ. Việc giảm byte này chuyển thành thêm 20% băng thông hiệu quả, dẫn đến tăng gấp 1, 7 lần băng thông khi sử dụng bộ nhớ GDDR5X so với kiến ​​trúc GDDR5 và Maxwell.

Pascal cũng cung cấp các cải tiến quan trọng liên quan đến Điện toán không đồng bộ, một điều rất quan trọng vì hiện tại khối lượng công việc rất phức tạp. Nhờ những cải tiến này, kiến ​​trúc Pascal hiệu quả hơn trong việc phân phối tải giữa tất cả các đơn vị SM khác nhau, điều đó có nghĩa là hầu như không có lõi CUDA nào không được sử dụng. Điều này cho phép tối ưu hóa GPU lớn hơn nhiều, sử dụng tốt hơn tất cả các tài nguyên mà nó có.

Bảng sau đây tóm tắt các tính năng quan trọng nhất của tất cả các thẻ GeForce dựa trên Pascal.

THẺ GRAPHICS NVIDIA GEFORCE

Lõi CUDA Tần số (MHz) Ký ức Giao diện bộ nhớ Băng thông bộ nhớ (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 bit 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1060 6GB 1280 1506/1708 6 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8GB GDDR5 256 bit 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8GB GDDR5 256 bit 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256 bit 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352 bit 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 GB GDDR5X 384 bit 547 250

Trí tuệ nhân tạo và kiến ​​trúc Volta

GPU của Nvidia được sử dụng rộng rãi trong các lĩnh vực học tập sâu, trí tuệ nhân tạo và phân tích nhanh các lượng lớn dữ liệu. Công ty đã phát triển học tập sâu dựa trên công nghệ GPU, để sử dụng trí thông minh nhân tạo để giải quyết các vấn đề như phát hiện ung thư, dự báo thời tiết và phương tiện tự lái, như Tesla nổi tiếng.

Mục tiêu của Nvidia là giúp các mạng tìm hiểu về cách nghĩ của Keith. GPU của Nvidia hoạt động đặc biệt tốt cho các nhiệm vụ học sâu vì chúng được thiết kế để tính toán song song và chúng hoạt động tốt để xử lý các hoạt động của vectơ và ma trận chiếm ưu thế trong học sâu. GPU của công ty được sử dụng bởi các nhà nghiên cứu, phòng thí nghiệm, công ty công nghệ và doanh nghiệp kinh doanh. Vào năm 2009, Nvidia đã tham gia vào thứ được gọi là vụ nổ lớn để học sâu, vì mạng lưới thần kinh học sâu được kết hợp với các đơn vị xử lý đồ họa của công ty. Cùng năm đó, Google Brain đã sử dụng GPU của Nvidia để tạo ra các mạng thần kinh sâu có khả năng học máy, nơi Andrew Ng xác định rằng họ có thể tăng tốc độ của các hệ thống học sâu lên gấp 100 lần.

Vào tháng 4 năm 2016, Nvidia đã giới thiệu siêu máy tính DGX-1 dựa trên cụm 8 GPU để tăng cường khả năng sử dụng học tập sâu của người dùng bằng cách kết hợp GPU với phần mềm được thiết kế đặc biệt. Nvidia cũng đã phát triển các máy ảo Nvidia Tesla K80 và P100 dựa trên GPU, có sẵn thông qua Google Cloud, được Google cài đặt vào tháng 11 năm 2016. Microsoft đã thêm các máy chủ dựa trên công nghệ GPU của Nvidia trong bản xem trước của dòng N, dựa trên thẻ Tesla K80. Nvidia cũng hợp tác với IBM để tạo ra một bộ phần mềm giúp tăng khả năng AI của GPU. Vào năm 2017, GPU của Nvidia cũng đã được đưa trực tuyến tại Trung tâm RIKEN cho Dự án Trí thông minh tiên tiến cho Fujitsu.

Vào tháng 5 năm 2018, các nhà nghiên cứu tại bộ phận trí tuệ nhân tạo của Nvidi đã nhận ra khả năng robot có thể học cách làm một công việc chỉ bằng cách quan sát người làm cùng một công việc. Để đạt được điều này, họ đã tạo ra một hệ thống, sau khi xem xét và kiểm tra ngắn, giờ đây có thể được sử dụng để điều khiển các robot phổ quát thế hệ tiếp theo.

Volta là tên mã cho vi kiến ​​trúc GPU tiên tiến nhất do Nvidia phát triển, nó là kiến ​​trúc kế thừa của Pascal và được công bố là một phần của tham vọng lộ trình trong tương lai vào tháng 3 năm 2013. Kiến trúc này được đặt theo tên của Alessandro Volta, nhà vật lý, nhà hóa học và nhà phát minh pin điện. Kiến trúc Volta chưa đến được lĩnh vực chơi game, mặc dù nó đã làm được điều đó với card đồ họa Nvidia Titan V, tập trung vào lĩnh vực tiêu dùng và cũng có thể được sử dụng trong thiết bị chơi game.

Nvidia Titan V này là card đồ họa dựa trên lõi GV100 và ba ngăn xếp bộ nhớ HBM2, tất cả trong một gói. Thẻ có tổng cộng 12 GB bộ nhớ HBM2 hoạt động thông qua giao diện bộ nhớ 3072 bit. GPU của nó chứa hơn 21 triệu bóng bán dẫn, 5.120 lõi CUDA và 640 lõi Tenor để mang lại hiệu suất 110 TeraFLOPS khi học sâu. Tần số hoạt động của nó là cơ sở 1200 MHz và 1455 MHz ở chế độ turbo, trong khi bộ nhớ hoạt động ở mức 850 MHz, cung cấp băng thông 652, 8 GB / s. Một phiên bản CEO Edition gần đây đã được công bố giúp tăng bộ nhớ lên tới 32GB.

Card đồ họa đầu tiên được sản xuất bởi Nvidia với kiến ​​trúc Volta là Tesla V100, một phần của hệ thống Nvidia DGX-1. Tesla V100 sử dụng lõi GV100 được phát hành vào ngày 21 tháng 6 năm 2017. GPU Volta GV100 được xây dựng trong quy trình sản xuất FinFET 12nm , với bộ nhớ HBM2 32GB có khả năng cung cấp băng thông lên tới 900GB / giây.

Volta cũng giới thiệu Nvidia Tegra SoC mới nhất, được gọi là Xavier, được công bố vào ngày 28 tháng 9 năm 2016. Xavier Chứa 7 tỷ bóng bán dẫn và 8 lõi ARMv8 tùy chỉnh, cùng với GPU Volta với 512 lõi CUDA và TPU của mã nguồn mở (Đơn vị xử lý tenor) được gọi là DLA (Deep Learning Accelerator). Xavier có thể mã hóa và giải mã video ở độ phân giải 8K Ultra HD (7680 × 4320 pixel) trong thời gian thực, tất cả đều có TDP 20-30 watt và kích thước chết ước tính khoảng 300mm2 nhờ quy trình sản xuất 12. bước sóng Fin Fin.

Kiến trúc Volta được đặc trưng bởi là người đầu tiên bao gồm Lõi kéo, lõi được thiết kế đặc biệt để cung cấp hiệu suất vượt trội hơn nhiều trong các nhiệm vụ học sâu so với lõi CUDA thông thường. Lõi Tenor là một đơn vị nhân hai ma trận FP16 4 × 4 và sau đó thêm ma trận FP16 hoặc FP32 thứ ba vào kết quả, sử dụng các phép toán cộng và nhân được hợp nhất, thu được kết quả FP32 có thể được hạ cấp xuống kết quả FP16. Hạt nhân tenor được dự định để tăng tốc đào tạo mạng lưới thần kinh.

Volta cũng nổi bật trong đó có giao diện NVLink độc quyền tiên tiến, là giao thức truyền thông dựa trên dây cho truyền thông bán dẫn tầm ngắn do Nvidia phát triển, có thể được sử dụng để truyền và kiểm soát mã dữ liệu trong các hệ thống xử lý dựa trên CPU và GPU và những thứ chỉ dựa trên GPU. NVLink chỉ định kết nối điểm-điểm với tốc độ dữ liệu 20 và 25 Gb / s trên mỗi làn dữ liệu và mỗi địa chỉ trong phiên bản thứ nhất và thứ hai. Tổng tốc độ dữ liệu trong các hệ thống trong thế giới thực là 160 và 300 GB / giây cho tổng số luồng dữ liệu đầu vào và đầu ra. Các sản phẩm NVLink được giới thiệu cho đến nay tập trung vào không gian ứng dụng hiệu suất cao. NVLINK được công bố lần đầu tiên vào tháng 3 năm 2014 và sử dụng kết nối tín hiệu tốc độ cao độc quyền được phát triển và phát triển bởi Nvidia.

Bảng sau đây tóm tắt các tính năng quan trọng nhất của thẻ dựa trên Volta:

THẺ GRAPHICS NVIDIA VOLTA

Lõi CUDA Máy kéo lõi Tần số (MHz) Ký ức Giao diện bộ nhớ Băng thông bộ nhớ (GB / s)

TDP (W)

Tesla V100 5120 640 1465 HBM2 32GB 4.096 bit 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3.072 bit 652 250
Phiên bản CEO GeForce Titan V 5120 640 1200/1455 HBM2 32GB 4.096 bit 900 250

Tương lai của Nvidia trải qua Turing và Ampere

Hai kiến ​​trúc Nvidia trong tương lai sẽ là Turing và Ampere theo tất cả các tin đồn đã xuất hiện cho đến nay, có thể khi bạn đọc bài đăng này, một trong số chúng đã được công bố chính thức. Cho đến nay, vẫn chưa có gì chắc chắn về hai kiến ​​trúc này, mặc dù người ta nói rằng Turing sẽ là phiên bản đơn giản hóa của Volta cho thị trường trò chơi, nhưng thực tế nó dự kiến ​​sẽ đến cùng quy trình sản xuất ở bước sóng 12nm.

Âm thanh của Ampe giống như kiến ​​trúc kế nhiệm của Turing, mặc dù nó cũng có thể là sự kế thừa của Volta cho lĩnh vực trí tuệ nhân tạo. Hoàn toàn không có gì được biết về điều này, mặc dù có vẻ hợp lý khi hy vọng nó sẽ được sản xuất ở 7nm. Các tin đồn cho thấy Nvidia sẽ công bố các thẻ GeForce mới của mình tại Gamecom vào tháng 8 tới, chỉ sau đó chúng ta sẽ không còn nghi ngờ gì về việc Turing hay Ampere sẽ ra sao, nếu chúng thực sự tồn tại.

NVIDIA G-Sync, kết thúc sự cố đồng bộ hóa hình ảnh

G-Synccông nghệ đồng bộ hóa thích ứng độc quyền được phát triển bởi Nvidia, mục tiêu chính là loại bỏ hiện tượng rách màn hình và sự cần thiết phải thay thế dưới dạng phần mềm như Vsync. G-Sync loại bỏ việc xé màn hình bằng cách buộc nó phải thích ứng với tốc độ khung hình của thiết bị đầu ra, card đồ họa, thay vì thiết bị đầu ra thích ứng với màn hình, dẫn đến rách hình ảnh màn hình.

Để màn hình tương thích với G-Sync, nó phải chứa mô-đun phần cứng được bán bởi Nvidia. AMD (Advanced Micro Devices) đã phát hành một công nghệ tương tự cho màn hình, được gọi là FreeSync, có chức năng tương tự như G-Sync nhưng không yêu cầu bất kỳ phần cứng cụ thể nào.

Nvidia đã tạo ra một chức năng đặc biệt để tránh khả năng khung hình mới sẵn sàng trong khi vẽ một bản sao trên màn hình, thứ gì đó có thể tạo độ trễ và / hoặc nói lắp, mô-đun dự đoán cập nhật và chờ khung hình tiếp theo hoàn thành. Quá tải pixel cũng trở nên sai lệch trong kịch bản cập nhật không cố định và các giải pháp dự đoán khi nào bản cập nhật tiếp theo sẽ diễn ra, do đó, giá trị vượt mức phải được triển khai và điều chỉnh cho mỗi bảng để tránh hiệu ứng ma.

Mô-đun này dựa trên một GPU gia đình Altera Arria V GX với các yếu tố logic 156K, 396 khối DSP và 67 kênh LVDS. Nó được sản xuất trong quy trình TSMC 28LP và được kết hợp với ba chip cho tổng số 768 MB DRAM DDR3L, để đạt được băng thông nhất định. FPGA được sử dụng cũng có giao diện LVDS để điều khiển bảng điều khiển màn hình. Mô-đun này nhằm thay thế các nhà leo núi thông thường và dễ dàng được tích hợp bởi các nhà sản xuất màn hình, những người chỉ cần chăm sóc bảng mạch cung cấp điện và các kết nối đầu vào.

G-Sync đã phải đối mặt với một số lời chỉ trích do bản chất độc quyền của nó và thực tế là nó vẫn được quảng bá khi có các lựa chọn thay thế miễn phí, như tiêu chuẩn VESA Thích ứng-Đồng bộ hóa, là một tính năng tùy chọn của DisplayPort 1.2a. Mặc dù FreeSync của AMD dựa trên DisplayPort 1.2a, G-Sync yêu cầu mô-đun do Nvidia sản xuất thay vì bộ chia tỷ lệ trên màn hình thông thường để card đồ họa Nvidia GeForce hoạt động chính xác, tương thích với Kepler, Maxwell, Pascal và microarchitect. Volta.

Bước tiếp theo đã được thực hiện với công nghệ G-Sync HDR, đúng như tên gọi của nó, bổ sung các khả năng HDR để cải thiện đáng kể chất lượng hình ảnh của màn hình. Để thực hiện điều này, một bước nhảy vọt đáng kể về phần cứng đã được thực hiện. Phiên bản mới G-Sync HDR này sử dụng Intel Altera Arria 10 GX 480 FPGA, bộ xử lý có tính lập trình cao và có khả năng lập trình cao, có thể được mã hóa cho nhiều ứng dụng, đi kèm với bộ nhớ DDR4 3 GB 2400 MHz do Micron sản xuất. Điều này làm cho giá của những màn hình này đắt hơn.

Ở đây kết thúc bài viết của chúng tôi về mọi thứ bạn phải biết về Nvidia. Hãy nhớ rằng bạn có thể chia sẻ nó trên các mạng xã hội để nó tiếp cận được nhiều người dùng hơn. Bạn cũng có thể để lại một bình luận nếu bạn có bất kỳ đề nghị hoặc một cái gì đó để thêm.

Android

Lựa chọn của người biên tập

Back to top button