Android

Nvidia 【všechny informace】

Obsah:

Anonim

Nvidia Corporation, běžněji známá jako Nvidia, je americká technologická společnost založená v Delaware a sídlící v Santa Claře v Kalifornii. Nvidia navrhuje jednotky pro zpracování grafiky pro videohry a profesionální trhy, jakož i systém čipových jednotek (SoC) pro automobilový průmysl a trh s mobilními počítači. Její hlavní produktová řada, GeForce, je v přímé konkurenci s produkty Radeon společnosti AMD.

Doporučujeme si přečíst naše nejlepší návody k hardwaru a součástkám počítače:

Kromě výroby GPU poskytuje Nvidia vědcům a vědcům na celém světě paralelní možnosti zpracování, což jim umožňuje efektivně provozovat vysoce výkonné aplikace. V poslední době se přesunula na trh mobilních počítačů, kde vyrábí mobilní procesory Tegra pro videoherní konzole, tablety a autonomní navigační systémy a zábavní systémy pro vozidla. Díky tomu se společnost Nvidia od roku 2014 stala společností zaměřenou na čtyři trhy: hry, profesionální vizualizace, datová centra a umělá inteligence a automobily.

Index obsahu

Historie Nvidia

Nvidia založili v roce 1993 Jen-Hsun Huang, Chris Malachowsky a Curtis Priem. Tři spoluzakladatelé společnosti předpokládali, že správný směr pro výpočetní techniku ​​bude probíhat prostřednictvím graficky akcelerovaného zpracování, protože věří, že tento výpočetní model může vyřešit problémy, které univerzální výpočetní technika nedokáže vyřešit. Rovněž poznamenali, že videohry jsou některé z nejvíce výpočetně náročných problémů a že mají neuvěřitelně vysoké objemy prodeje.

Od malé videoherní společnosti po obří umělé inteligence

Společnost se narodila s počátečním kapitálem 40 000 dolarů, původně neměla jméno a spoluzakladatelé pojmenovali všechny své soubory NV, jako v „příštím vydání“. Potřeba začlenit společnost způsobila, že spoluzakladatelé přezkoumali všechna slova s ​​těmito dvěma písmeny, což je vedlo k „invidii“, latinskému slovu, které znamená „závist“.

Uvedení RIVA TNT v roce 1998 upevnilo reputaci společnosti Nvidia v oblasti vývoje grafických adaptérů. Na konci roku 1999 společnost Nvidia vydala GeForce 256 (NV10), který zejména představil transformaci a osvětlení na úrovni spotřebitele v 3D hardwaru. S výkonem 120 MHz a se čtyřmi řádky pixelů implementoval pokročilé zrychlení videa, kompenzaci pohybu a míchání hardwaru pod obrazem. GeForce překonal stávající produkty s velkým rozpětím.

Díky úspěchu svých produktů získala společnost Nvidia zakázku na vývoj grafického hardwaru pro herní konzolu Xbox společnosti Microsoft a vydělala společnosti Nvidia zálohu 200 milionů dolarů. Projekt však vzal mnoho svých nejlepších inženýrů z jiných projektů. Z krátkodobého hlediska na tom nezáleželo a GeForce2 GTS byl dodán v létě roku 2000. V prosinci 2000 dosáhla společnost Nvidia dohody o získání duševního majetku svého jediného rivala 3dfx, průkopníka v oblasti 3D grafické technologie pro spotřebitele. který vedl pole od poloviny 90. let do roku 2000. Proces akvizice byl ukončen v dubnu 2002.

V červenci 2002 Nvidia získala společnost Exluna za nezveřejněné množství peněz. Exluna byla zodpovědná za vytváření různých nástrojů pro vykreslování softwaru. Později, v srpnu 2003, Nvidia získala MediaQ za přibližně 70 milionů dolarů. 22. dubna 2004 také získala společnost iReady, poskytovatele vysoce výkonných řešení pro zátěž TCP / IP a iSCSI.

Úspěch společnosti Nvidia na trhu videoher byl tak velký, že v prosinci 2004 bylo oznámeno, že společnosti Sony pomůže s návrhem grafického procesoru RSX PlayStation 3, herní konzole nové generace od japonské firmy, která mělo obtížný úkol opakovat úspěch svého předchůdce, nejprodávanějšího v historii.

V prosinci 2006 obdržela Nvidia citace od amerického ministerstva spravedlnosti. S ohledem na možná porušení antimonopolních pravidel v odvětví grafických karet. V té době se AMD stala velkým konkurentem poté, co ATI koupila ATI. Od té doby jsou AMD a Nvidia jedinými výrobci grafických karet pro videohry, nezapomínají na integrované čipy Intel.

Forbes jmenoval Nvidia nejlepší společností roku 2007 a citoval úspěchy, kterých dosáhl za posledních pět let. Dne 5. ledna 2007 společnost Nvidia oznámila, že dokončila akvizici společnosti PortalPlayer, Inc, a v únoru 2008 Nvidia získala společnost Ageia, vývojář fyzického motoru a jednotky pro fyzikální zpracování, které tento motor provozují. Společnost Nvidia oznámila, že plánuje integraci technologie PhysX do svých budoucích produktů GPU GeForce.

Nvidia čelila velkým potížím v červenci 2008, kdy obdržela pokles příjmů přibližně o 200 milionů USD poté, co bylo oznámeno, že některé mobilní čipové sady a mobilní GPU vyrobené společností měly neobvyklou míru selhání v důsledku výrobních vad. V září 2008 se společnost Nvidia stala předmětem soudní žaloby dotčených osob a tvrdila, že vadné GPU byly začleněny do některých modelů notebooků vyrobených společnostmi Apple, Dell a HP. Mýdlová opera skončila v září 2010, když společnost Nvidia dosáhla dohody, že majitelům dotčených notebooků bude uhrazena cena za opravy nebo v některých případech výměna produktu.

V listopadu 2011 uvedla společnost Nvidia svůj mobilní čipový systém ARG Tegra 3 pro mobilní zařízení poté, co byla poprvé představena na Mobile World Congress. Nvidia prohlašoval, že čip představoval první čtyřjádrový mobilní procesor. V lednu 2013 společnost Nvidia představila Tegra 4 a Nvidia Shield, přenosnou herní konzoli pro Android, která je poháněna novým procesorem.

Dne 6. května 2016 společnost Nvidia představila grafické karty GeForce GTX 1080 a 1070, první založené na nové mikroarchitektuře Pascal. Nvidia tvrdil, že oba modely překonaly svůj model Titan X založený na Maxwellu. Tyto karty obsahují paměť GDDR5X a GDDR5 a používají výrobní proces 16nm. Architektura Pascalu také podporuje novou hardwarovou funkci známou jako simultánní vícenásobná projekce (SMP), která je navržena ke zlepšení kvality multi-monitoru a vykreslování virtuální reality. Pascal umožnil výrobu notebooků, které splňují návrhový standard Max-Q společnosti Nvidia.

V květnu 2017 společnost Nvidia oznámila partnerství se společností Toyota Motor Corp, v rámci které bude pro své autonomní vozidla používat platformu umělé inteligence řady Nvidia Drive X. V červenci 2017 společnost Nvidia a čínský vyhledávací gigant Baidu, Inc. oznámily silné partnerství v oblasti umělé inteligence, které zahrnuje cloud computing, autonomní řízení, spotřební zařízení a rámec AI společnosti Baidu, PaddlePaddle.

Nvidia GeForce a Nvidia Pascal, dominující hry

GeForce je značka pro grafické karty založené na jednotkách grafického zpracování (GPU) vytvořených společností Nvidia od roku 1999. Řada GeForce dosud zná šestnáct generací od svého vzniku. Verze zaměřené na profesionální uživatele těchto karet spadají pod název Quadro a zahrnují některé rozlišující funkce na úrovni řidiče. Přímou konkurencí GeForce je AMD s kartami Radeon.

Pascal je kódové jméno pro nejnovější mikroarchitekturu GPU vyvinutou společností Nvidia, která vstoupila na trh videoher, jako nástupce předchozí architektury Maxwell. Architektura Pascalu byla poprvé představena v dubnu 2016 spuštěním Tesla P100 pro servery 5. dubna 2016. V současné době je Pascal primárně používán v řadě GeForce 10, přičemž GeForce GTX 1080 a GTX jsou Prvních 1070 karet videoher bylo vydáno s touto architekturou 17. května 2016 a 10. června 2016. Pascal je vyráběn pomocí procesu 16nm FinFET TSMC, což mu umožňuje nabídnout mnohem lepší energetickou účinnost a výkon ve srovnání s Maxwellem, který byl vyroben na 28nm FinFET.

Pascalová architektura je organizována interně v takzvaném streamingovém multiprocesoru ( SM), funkčních jednotkách, které jsou tvořeny 64 CUDA Cores, které jsou zase rozděleny do dvou procesorových bloků po 32 CUDA Cores. z nich a doprovázené vyrovnávací pamětí, plánovačem osnovy, 2 mapovacími jednotkami textury a 2 expedičními jednotkami. Tyto SM disky jsou ekvivalentem CU AMD.

Pascal architektura společnosti Nvidia byla navržena tak, aby byla nejúčinnější a nejpokročilejší v herním světě. Inženýrský tým společnosti Nvidia vynaložil velké úsilí na vytvoření architektury GPU, která je schopna velmi vysokých hodinových rychlostí při zachování nízké spotřeby energie. Aby toho bylo dosaženo, byl ve všech obvodech zvolen velmi pečlivý a optimalizovaný návrh, což vedlo k tomu, že Pascal byl schopen dosáhnout frekvence o 40% vyšší než Maxwell, což je číslo mnohem vyšší, než by tento proces dovolil při 16 nm bez všech optimalizací na úrovni návrhu.

Paměť je klíčovým prvkem výkonu grafické karty. Technologie GDDR5 byla vyhlášena v roce 2009, takže pro dnešní nejsilnější grafické karty již byla zastaralá. To je důvod, proč Pascal podporuje paměť GDDR5X, která byla v době spuštění těchto grafických karet nejrychlejším a nejpokročilejším standardem paměťového rozhraní v historii a dosahovala přenosové rychlosti až 10 Gb / s nebo téměř 100 pikosekund mezi bity. dat. Paměť GDDR5X také umožňuje, aby grafická karta spotřebovala méně energie ve srovnání s GDDR5, protože provozní napětí je 1, 35 V, ve srovnání s 1, 5 V nebo dokonce více, které vyžadují rychlejší čipy GDDR5. Toto snížení napětí se projeví o 43% vyšší provozní frekvenci se stejnou spotřebou energie.

Další důležitá inovace Pascalu vychází z technik komprese paměti bez ztráty výkonu, což snižuje požadavek na šířku pásma pomocí GPU. Pascal zahrnuje čtvrtou generaci technologie komprese barev delta. S kompresí delta barev analyzuje GPU scény a vypočítává pixely, jejichž informace lze komprimovat, aniž by došlo ke snížení kvality scény. Zatímco architektura Maxwell nebyla schopna komprimovat data týkající se některých prvků, jako je vegetace a části vozu ve hře Project Cars, Pascal je schopen komprimovat většinu informací o těchto prvcích, takže je mnohem efektivnější než Maxwell. V důsledku toho je Pascal schopen výrazně snížit počet bajtů, které musí být extrahovány z paměti. Toto snížení bajtů se promítá do dalších 20% efektivní šířky pásma, což vede ke zvýšení 1, 7násobku šířky pásma s využitím paměti GDDR5X ve srovnání s architekturou GDDR5 a Maxwell.

Pascal také nabízí důležitá vylepšení ve vztahu k Asynchronous Computing, něco velmi důležitého, protože v současné době jsou pracovní zátěž velmi komplexní. Díky těmto vylepšením je architektura Pascalu efektivnější při rozložení zátěže mezi všechny její různé SM jednotky, což znamená, že téměř neexistují žádná nevyužitá jádra CUDA. To umožňuje mnohem větší optimalizaci GPU a lepší využití všech zdrojů, které má.

Následující tabulka shrnuje nejdůležitější vlastnosti všech karet GeForce založených na Pascalu.

KARTY NVIDIA GEFORCE PASCAL GRAPHICS

CUDA Cores Frekvence (MHz) Paměť Rozhraní paměti Šířka pásma paměti (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 bitů 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 bitů 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 bitů 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3 GB GDDR5 192 bitů 192 120
NVIDIA GeForce GTX1060 6 GB 1280 1506/1708 6 GB GDDR5 192 bitů 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8 GB GDDR5 256 bitů 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 GB GDDR5 256 bitů 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256 bitů 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352 bitů 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 GB GDDR5X 384 bitů 547 250

Umělá inteligence a Volta architektura

GPU společnosti Nvidia se široce používají v oblastech hlubokého učení, umělé inteligence a zrychlené analýzy velkého množství dat. Společnost vyvinula hluboké učení založené na technologii GPU, aby mohla používat umělou inteligenci k řešení problémů, jako je detekce rakoviny, předpovědi počasí a autonomní vozidla, jako je slavná Tesla.

Cílem společnosti Nvidia je pomoci sítím naučit se „myslet “. GPU společnosti Nvidia pracují mimořádně dobře pro úkoly hlubokého učení, protože jsou navrženy pro paralelní práci s počítačem a dobře zvládají operace vektorů a matic, které převládají v hlubokém učení. GPU společnosti používají výzkumní pracovníci, laboratoře, technologické společnosti a obchodní podniky. V roce 2009 se společnost Nvidia účastnila tzv. Velkého třesku pro hluboké učení, protože hluboké učení neuronových sítí bylo kombinováno s grafickými jednotkami společnosti pro zpracování grafiky. Ve stejném roce použil Google Brain GPU Nvidia k vytvoření hlubokých neuronových sítí schopných strojového učení, kde Andrew Ng rozhodl, že mohou zvýšit rychlost systémů hlubokého učení 100krát.

V dubnu 2016 společnost Nvidia představila superpočítač DGX-1 založený na klastrech na bázi 8 GPU, který zvyšuje schopnost uživatelů používat hluboké učení kombinací GPU se speciálně navrženým softwarem. Nvidia také vyvinula virtuální počítače Nvidia Tesla K80 a P100 založené na GPU, dostupné prostřednictvím Google Cloud, který Google nainstaloval v listopadu 2016. Microsoft přidal servery založené na technologii GPU Nvidia v náhledu své řady N, na základě karty Tesla K80. Nvidia také spolupracovala s IBM na vytvoření softwarové sady, která zvyšuje AI schopnosti GPU. V roce 2017 byly GPU společnosti Nvidia uvedeny na trh také v centru RIKEN pro projekt Advanced Intelligence Project pro Fujitsu.

V květnu 2018 si vědci z oddělení umělé inteligence společnosti Nvidi a uvědomili, že se robot může naučit dělat práci jednoduše tím, že pozoruje osobu vykonávající stejnou práci. Aby toho dosáhli, vytvořili systém, který lze po krátkém přezkoumání a testování nyní použít k řízení univerzálních robotů nové generace.

Volta je kódové jméno pro nejpokrokovější microarchitekturu GPU vyvinutou společností Nvidia, je to Pascalova nástupnická architektura a byla vyhlášena jako součást budoucích ambicí plánu v březnu 2013. Architektura je pojmenována po Alessandro Voltě, fyzik, chemik a vynálezce elektrické baterie. Architektura Volta nedosáhla herního sektoru, i když tak učinila s grafickou kartou Nvidia Titan V, zaměřenou na spotřebitelský sektor a která může být také použita v herním zařízení.

Tato Nvidia Titan V je grafická karta založená na jádru GV100 a tři hromady paměti HBM2, vše v jednom balíčku. Karta má celkem 12 GB paměti HBM2, která pracuje přes 3072bitové paměťové rozhraní. Jeho GPU obsahuje více než 21 milionů tranzistorů, 5 120 jader CUDA a 640 tenzorových jader, které poskytují výkon 110 TeraFLOPS v hlubokém učení. Její provozní frekvence jsou 1200 MHz a 1455 MHz v turbo režimu, zatímco paměť pracuje na 850 MHz a nabízí šířku pásma 652, 8 GB / s. Nedávno byla oznámena verze CEO Edition, která zvyšuje paměť až na 32 GB.

První grafickou kartou vyrobenou společností Nvidia s architekturou Volta byl Tesla V100, který je součástí systému Nvidia DGX-1. Tesla V100 využívá jádro GV100, které bylo vydáno 21. června 2017. GPU Volta GV100 je zabudován do 12nm výrobního procesu FinFET s 32 GB paměti HBM2, která je schopna poskytnout až 900 GB / s šířky pásma.

Volta ožívá také nejnovější Nvidia Tegra SoC, nazvaný Xavier, který byl vyhlášen 28. září 2016. Xavier Obsahuje 7 miliard tranzistorů a 8 vlastních jader ARMv8, spolu s GPU Volta s 512 jádry CUDA a TPU open source (Tensor Processing Unit) zvaná DLA (Deep Learning Accelerator). Xavier dokáže kódovat a dekódovat video v rozlišení 8K Ultra HD (7680 × 4320 pixelů) v reálném čase, to vše s TDP 20-30 wattů a velikostí trysky odhadovanou na přibližně 300 mm2 díky 12 výrobním procesům. nm FinFET.

Architektura Volta se vyznačuje tím, že jako první zahrnovala jádra Tensor Core, jádra speciálně navržená tak, aby ve srovnání s běžnými jádry CUDA nabídla mnohem lepší výkon při hlubokém učení. Tenzorové jádro je jednotka, která znásobuje dvě matice FP16 4 × 4 a poté k výsledku přidá třetí matici FP16 nebo FP32, pomocí sloučených operací sčítání a násobení, čímž se získá výsledek FP32, který by mohl být volitelně snížen na výsledek FP16. Tenzorová jádra jsou určena k urychlení tréninku neuronových sítí.

Volta také vyniká zahrnutím pokročilého proprietárního rozhraní NVLink, což je kabelový komunikační protokol pro polovodičovou komunikaci s krátkým dosahem vyvinutý společností Nvidia, který lze použít pro přenos a řízení datového kódu v procesorových systémech založených na CPU a GPU a procesor založený výhradně na GPU. NVLink specifikuje spojení point-to-point s datovými rychlostmi 20 a 25 Gb / s na datový pruh a na adresu ve své první a druhé verzi. Celkové přenosové rychlosti v systémech reálného světa jsou 160 a 300 GB / s pro celkový součet vstupních a výstupních datových toků. Produkty NVLink, které byly dosud představeny, se zaměřují na vysoce výkonný aplikační prostor. NVLINK byl poprvé oznámen v březnu 2014 a používá proprietární vysokorychlostní signální propojení vyvinuté a vyvinuté společností Nvidia.

Následující tabulka shrnuje nejdůležitější vlastnosti karet na bázi Volty:

Grafické karty NVIDIA VOLTA

CUDA Cores Tenzor jádra Frekvence (MHz) Paměť Rozhraní paměti Šířka pásma paměti (GB / s)

TDP (W)

Tesla V100 5120 640 1465 32 GB HBM2 4 096 bitů 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3 072 bitů 652 250
Edice GeForce Titan V CEO 5120 640 1200/1455 32 GB HBM2 4 096 bitů 900 250

Budoucnost Nvidie prochází Turingem a Ampérem

Budoucí dvě architektury Nvidia budou Turing a Ampere podle všech pověstí, které se doposud objevily, je možné, že když čtete tento příspěvek, jedna z nich již byla oficiálně vyhlášena. Prozatím není nic o těchto dvou architekturách jisté, ačkoli se říká, že Turing by pro herní trh byl zjednodušenou verzí Volty, ve skutečnosti se očekává, že dorazí se stejným výrobním procesem při 12 nm.

Zesilovač zní jako Turingova nástupnická architektura, i když by to mohl být také Voltův nástupce v sektoru umělé inteligence. Absolutně o tom není nic známo, ačkoliv se zdá logické očekávat, že dojde k výrobě při 7 nm. Zvěsti naznačují, že Nvidia oznámí své nové karty GeForce na Gamecomu v příštím srpnu, teprve potom zůstaneme pochybnosti o tom, co bude Turing nebo Ampere, pokud skutečně vzniknou.

NVIDIA G-Sync, ukončení problémů se synchronizací obrazu

G-Sync je patentovaná adaptivní synchronizační technologie vyvinutá společností Nvidia, jejímž primárním cílem je eliminovat trhání obrazovky a potřebu alternativ ve formě softwaru, jako je Vsync. G-Sync eliminuje roztržení obrazovky tím, že ho nutí přizpůsobit se snímkové rychlosti výstupního zařízení, grafické karty, spíše než výstupnímu adaptéru na obrazovku, což má za následek roztržení obrazu na obrazovce.

Aby byl monitor kompatibilní s G-Sync, musí obsahovat hardwarový modul prodávaný společností Nvidia. AMD (Advanced Micro Devices) vydala podobnou technologii pro displeje nazvanou FreeSync, která má stejnou funkci jako G-Sync, ale nevyžaduje žádný konkrétní hardware.

Nvidia vytvořil speciální funkci, aby se vyhnul možnosti, že nový rám je připraven při kreslení duplikátu na obrazovce, něco, co může generovat zpoždění a / nebo koktání, modul očekává aktualizaci a čeká na dokončení dalšího snímku. Přetížení pixelů se také stane zavádějícím ve scénáři neopravené aktualizace a řešení předpovídají, kdy bude provedena další aktualizace, proto musí být pro každý panel implementována hodnota overdrive a upravena, aby se zabránilo efektu duchů.

Modul je založen na FPGA rodiny Altera Arria V GX s 156K logickými prvky, 396 DSP bloků a 67 LVDS kanály. Vyrábí se v procesu TSMC 28LP a je kombinován se třemi čipy pro celkem 768 MB DDR3L DRAM, aby se dosáhlo určité šířky pásma. Použitý FPGA také obsahuje rozhraní LVDS pro ovládání panelu monitoru. Tento modul je určen jako náhrada běžných horolezců a má být snadno integrován výrobci monitorů, kteří se musí starat pouze o desku napájení a vstupní připojení.

G-Sync čelil určité kritice kvůli své vlastní povaze a skutečnosti, že je stále propagována, když existují volné alternativy, jako je například standard VESA Adaptive-Sync, což je volitelná funkce DisplayPort 1.2a. Zatímco FreeSync společnosti AMD je založen na DisplayPort 1.2a, G-Sync vyžaduje místo obvyklého škálovače na obrazovce, aby grafické karty Nvidia GeForce fungovaly správně, a to kompatibilním s Keplerem, Maxwellem, Pascalem a mikroarchitekturami, vyžaduje G-Sync modul vytvořený společností Nvidia . Volta.

Další krok byl učiněn s technologií G-Sync HDR, která, jak již název napovídá, přidává funkce HDR k výraznému zlepšení kvality obrazu monitoru. Aby to bylo možné, bylo nutné provést významný skok v hardwaru. Tato nová verze G-Sync HDR používá procesor Intel Altera Arria 10 GX 480 FPGA, vysoce pokročilý a vysoce programovatelný procesor, který lze kódovat pro širokou škálu aplikací, který je doprovázen 3 GB paměti DDR4 s kapacitou 2 400 MHz vyráběné společností Micron.. Proto je cena těchto monitorů dražší.

Zde končí náš příspěvek na vše, co potřebujete vědět o Nvidii. Nezapomeňte, že jej můžete sdílet na sociálních sítích, aby oslovil více uživatelů. Můžete také zanechat komentář, pokud máte nějaký návrh nebo něco, co chcete přidat.

Android

Výběr redakce

Back to top button