A QNAP bemutatja a Mustang sorozatú számítási gyorsítókártyákat

A QNAP® Systems, Inc. (QNAP), a vezető számítástechnikai, hálózati és tároló megoldások innovátora, az AI mély tanulás következtetéseire tervezett, két számítási gyorsítókártyát mutatott be, a Mustang-V100(VPU alapú) és a Mustang-F100 (FPGA alapú) gyorsítókártyákat. A PCIe alapú gyorsítókártyákat behelyezhetjük Intel® alapú szerverbe, PC-be, vagy QNAP NAS rendszerbe, amely biztosítja a modern számítógépes víziót és az AI alkalmazások gyártási, állapot-ellenőrzési, intelligens kiskereskedelmi, videómegfigyelési és más magas munkaterhelésű rendszerekbe.

„A számítási sebesség az AI-alkalmazások telepítésének hatékonyságának egyik fő eleme” – mondta Dan Lin, a QNAP termékmenedzsere. „Miközben a QNAP Mustang-V100 és Mustang-F100 gyorsítókártyák az OpenVINO™ architektúrára optimalizálták és a folyamatos nagy terhelés kiegészíthető a maximális teljesítményt nyújtó Intel hardverekkel, a QNAP OpenVINO munkafolyamat-konszolidációs eszközével a számítási gyorsítás tovább növelhető, hogy a lehető legrövidebb idő alatt teljesítsék a munkamenetet.

Mind a Mustang-V100, mind a Mustang-F100 gazdaságos gyorsítási megoldásokat kínál az AI következtetésre, amely az OpenVINO eszköztárral is együttműködhet, hogy optimalizálja a képosztályozás és a számítógépes vízió következtetéseinek terhelését. Az Intel által kifejlesztett OpenVINO eszköztár segíti a nagyteljesítményű számítógépes vízió és mély tanulás fejlesztését a vizuális alkalmazásokban. Tartalmazza a modelloptimalizálót és a következtetési motort, így optimalizálható az előre kiképzett mélytanulási modell, például a Caffe, a Tensorflow az IR bináris fájlba, majd az Intel® hardverben heterogén módon hajtja végre a következtetést, mint például a CPU, GPU, PGA és VPU.

Mivel a QNAP NAS az alkalmazások szélesebb körének (beleértve a felügyeletet, a virtualizációt és az AI-t) támogatása köré épült, a nagy tároló és a PCIe bővíthetőség kombinációja előnyös az AI potenciális használatához. A QNAP kifejlesztette az OpenVINO munkafolyamat-konszolidációs eszközt (OWCT), amely kihasználja az Intel OpenVINO eszköztár technológiáját. A QWCT használatakor az Intel-alapú QNAP NAS ideális inferencia szerver megoldást kínál a szervezetek számára a következtetési rendszerek gyors építése érdekében. Az AI fejlesztők képzett modelleket telepíthetnek a QNAP NAS-ra, továbbá a Mustang-V100 vagy a Mustang-F100 gyorsító kártya segítségével elérhetik az optimális teljesítményt.

A QNAP NAS támogatja a Mustang-V100 és a Mustang-F100 gyorsító kártyákat a QTS 4.4.0 operációs rendszer legújabb verziójával. A QTS 4.4.0-át támogató QNAP NAS modellek megtekintéséhez látogass el a www.qnap.com weboldalra. Az OWCT alkalmazás QNAP NAS-hoz való letöltéséhez és telepítéséhez látogass el az App Centerweboldalra.

Főbb tulajdonságok

Mustang-V100-MX8-R10:
Félmagas, nyolc Intel® Movidius™ Myriad™ X MA2485 VPU, PCI Express Gen2 x4 interfész, 30W-nál alacsonyabb energiafogyasztás

Mustang-F100-A10-R10:
Félmagas, Intel® Arria® 10 GX1150 FPGA, PCI Express Gen3 x8 interfész, 60W-nál alacsonyabb energiafogyasztás