Hardware

Qnap představuje karty akcelerátoru kalkulačky Mustang Range

Obsah:

Anonim

QNAP dnes představil dvě karty akcelerátoru výpočtu navržené pro hluboké učení inferencí AI. V této nové řadě jsou Mustang-V100 (založené na VPU) a Mustang-F100 (založené na FPGA). Uživatelé mohou nainstalovat tyto karty akcelerátoru založené na PCIe na server / PC založené na Intelo na značkové NAS.

QNAP představuje karty akcelerátoru kalkulačky Mustang Range

Tyto karty akcelerátorů Mustang-V100 a Mustang-F100 jsou optimalizovány pro architekturu OpenVINO a mohou maximalizovat výkon na hardwaru Intel. Mohou být také použity s OpenVINO Workflow Consolidation Tool.

Nové karty akcelerátoru

Oba modely Mustang-V100 a Mustang-F100 nabízejí levná řešení zrychlení pro odvozování AI. Pracují také s sadou nástrojů OpenVINO pro optimalizaci inferenčního pracovního zatížení pro klasifikaci obrázků a úlohy počítačového vidění. Sada nástrojů OpenVINO pomáhá urychlit vývoj vysoce výkonného počítačového vidění a hluboké učení v aplikacích vize. Zahrnuje Model Optimizer a Inference Engine.

Jak se QNAP NAS vyvíjí, aby podporoval širší škálu aplikací, je pro použití v AI výhodná kombinace velkého úložiště a rozšiřitelnosti PCIe. Byl vyvinut nástroj pro konsolidaci pracovního postupu OpenVINO (OWCT). Používá technologii společných nástrojů OpenVINO od společnosti Intel. Při použití s ​​OWCT nabízí NAS na bázi Intel ideální řešení dedukčního serveru, které pomáhá organizacím při rychlé tvorbě inferenčních systémů. Vývojáři AI mohou nasazovat formované modely na NAS pro inference a instalovat buď kartu Mustang-V100, nebo kartu Mustang-F100.

QNAP NAS nyní podporuje karty Mustang-V100 a Mustang-F100 s nejnovější verzí operačního systému QTS 4.4.0. Chcete-li vidět modely NAS, které podporují QTS 4.4.0, můžete přejít na www.qnap.com. Chcete-li stáhnout a nainstalovat aplikaci OWCT pro QNAP NAS, musíte vstoupit do App Center.

Hardware

Výběr redakce

Back to top button