Společnost QNAP představuje karty výpočetního akcelerátoru řady Mustang s akceleračním řešením Intel VPU/FPGA Vision pro posílení inference hlubokého učení

Tchaj-pej, Tchaj-wan, 18. června 2019 – Společnost QNAP® Systems, Inc. (QNAP), přední inovátor v oblasti úložných, síťových a výpočetních řešení, dnes představila dvě karty výpočetního akcelerátoru určené pro inferenci hlubokého učení s využitím AI, a to Mustang-V100 (na bázi VPU) a Mustang-F100 (na bázi FPGA). Uživatelé mohou tyto karty akcelerátoru na bázi PCIe nainstalovat do serveru/počítače nebo zařízení QNAP NAS s procesorem Intel® pro zvládání náročné pracovní zátěže moderního počítačového vidění a aplikací AI při výrobě, zdravotní péči, chytrém maloobchodu, video dozorování atd.

„Výpočetní rychlost je zásadním aspektem účinnosti zavádění aplikací AI,“ uvedl Dan Lin, produktový manažer společnosti QNAP, a dodal: „I když jsou karty akcelerátoru QNAP Mustang-V100 a Mustang-F100 optimalizovány pro architekturu OpenVINO™ a mohou rozšířit pracovní zátěž na hardware Intel s maximálním výkonem, lze je také používat s nástrojem OpenVINO pro konsolidaci pracovních postupů společnosti QNAP, což povede k výpočetní akceleraci pro inferenci hlubokého učení v nejkratším čase.“

Jak karta Mustang-V100, tak karta Mustang-F100 představují ekonomické akcelerační řešení pro inferenci AI a mohou také spolupracovat se sadou nástrojů OpenVINO pro optimalizaci pracovních zátěží s inferencí pro klasifikaci obrázků a počítačové vidění. Sada nástrojů OpenVINO, kterou vyvinula společnost Intel, napomáhá s rychlým převodem vysoce výkonného počítačového vidění a hlubokého učení na vizuální aplikace. Obsahuje modelový optimizátor a inferenční modul a může optimalizovat předem vycvičené modely hlubokého učení (jako Caffe a TensorFlow) na přechodné zastoupení (intermediate representation, IR) a potom provést inferenční modul na heterogenním hardwaru Intel (jako je CPU, GPU, FPGA a VPU).

Jak se zařízení QNAP NAS vyvíjejí tak, aby podporovala širší škálu aplikací (včetně dozorování, virtualizace a AI), kombinace velkého úložiště a rozšířitelnosti PCIe je výhodná pro potenciál při používání v rámci AI. Společnost QNAP vytvořila nástroj OpenVINO pro konsolidaci pracovních postupů (OWCT), který využívá technologii sady nástrojů Intel OpenVINO. Pokud QNAP NAS na bázi Intel použijete s OWCT, může sloužit jako ideální inferenční server, který organizacím pomáhá rychle vybudovat inferenční systémy. Vývojáři AI mohou do zařízení QNAP NAS zavádět vycvičené modely za účelem inference a instalovat akcelerační karty Mustang-V100 nebo Mustang-F100 pro dosažení optimálního výkonu pro běžící inferenci.

QNAP NAS nyní podporuje karty Mustang-V100 a Mustang-F100 s nejnovější verzí operačního systému QTS 4.4.0. Pokud chcete zjistit, které modely QNAP NAS podporují QTS 4.4.0, navštivte www.qnap.com. Pokud si chcete stáhnout a nainstalovat aplikaci OWCT pro QNAP NAS, navštivte App Center.

Klíčové specifikace

  • Mustang-V100-MX8-R10
    Poloviční výška, osm Intel® Movidius™ Myriad™ X MA2485 VPU, rozhraní PCI Express Gen2 x4, příkon nižší než 30 W
  • Mustang-F100-A10-R10
    Poloviční výška, Intel® Arria® 10 GX1150 FPGA, rozhraní PCI Express Gen3 x8, příkon nižší než 60 W

 

Označeno tagem