10 724,00 

CHCĘ KUPIĆ

SKU: Mustang-F100-A10-R10 Kategoria:

Opis

Opis na stronie producenta

Konstrukcja akceleratora Intel® Vision z kartą Intel® Arria® 10 FPGA

Serwer QNAP NAS ewoluuje aby umożliwiać realizację coraz szerszej gamy zastosowań (m.in. monitoringu, wirtualizacji oraz sztucznej inteligencji), co oznacza, że użytkownik nie tylko potrzebuje coraz więcej miejsca do magazynowania na urządzeniu NAS, ale także większej mocy NAS w celu optymalizacji zaplanowanej pracy. Model Mustang-F100 to karta akceleratora oparta na PCIe, korzystająca z programowalnej karty Intel® Arria® 10 FPGA, która zapewnia wydajność i wszechstronność akceleracji FPGA. Może być instalowana w komputerze lub na kompatybilnym serwerze QNAP NAS, zwiększając ich wydajność, dzięki czemu stanowi idealny wybór w przypadku zadań w zakresie inferencji głębokiego uczenia AI. >> Czym się różni model Mustang-F100 od modelu Mustang-V100.

  • Dwukrotnie niższy, dwukrotnie krótszy, z dwukrotnie większą liczbą gniazd.
  • Większa wydajność energetyczna, niewielkie opóźnienia.
  • Obsługa zestawu narzędzi OpenVINO™, urządzenie gotowe do obsługi przetwarzania brzegowego AI.
  • Karty FPGA można zoptymalizować na potrzeby różnych zadań z zakresu głębokiego uczenia.
  • Karty Intel® FPGA obsługują wiele koprocesorów arytmetycznych i zadań inferencji.

Zestaw narzędzi OpenVINO™

Zestaw narzędzi OpenVINO™ jest oparty na sieci CNN (ang. Convolutional Neural Networks) i pozwala zwiększyć liczbę zadań na całym sprzęcie Intel®, maksymalizując wydajność.

Zestaw pozwala na optymalizację modelu głębokiego uczenia z wcześniejszych szkoleń, np. konwertując format Caffe, MXNET, Tensorflow w plik binarny IR, a następnie może uruchomić silnik inferencji niejednorodnie na całym sprzęcie Intel®, np. na procesorze, karcie graficznej, Intel® Movidius™ Neural Compute Stick i FPGA.

Uzyskaj akcelerację głębokiego uczenia na serwerze/komputerze z architekturą Intel

Model Mustang-F100 można zainstalować na komputerze/na stacji roboczej z systemem Linux® (Ubuntu®), aby uzyskać akcelerację obliczeniową, zapewniającą optymalną wydajność takich zastosowań, jak inferencja głębokiego uczenia, strumieniowanie wideo i centrum danych. Stanowiąc idealne rozwiązanie do akceleracji dla inferencji AI w czasie rzeczywistym, model Mustang-F100 może także współdziałać z zestawem narzędzi Intel® OpenVINO™, optymalizując liczbę zadań w zakresie inferencji w przypadku klasyfikacji obrazów i widzenia komputerowego.

  • Systemy operacyjne
    Ubuntu 16.04.3 LTS 64-bitowy, CentOS 7.4 64-bitowy, Windows 10 (wkrótce więcej systemów operacyjnych)
  • Zestaw narzędzi OpenVINO™
    • Intel® Zestaw narzędzi do wdrażania głębokiego uczenia
      • – Optymalizator modelu
      • – Silnik inferencji
    • Zoptymalizowane biblioteki widzenia komputerowego
    • Intel® Media SDK
      *Sterowniki graficzne OpenCL™ i czas pracy.
    • Aktualnie obsługiwane topologie: AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (wkrótce więcej opcji)
    • Intel® Zestaw do akceleracji głębokiego uczenia FPGA
  • Wysokiej elastyczności model Mustang-F100-A10 pozwala na rozbudowę w strukturze zestawu narzędzi OpenVINO™, co umożliwia danym szkolenia, np. formatom Caffe, TensorFlow i MXNet, uruchomienie po skonwertowaniu do zoptymalizowanego formatu IR.

*OpenCL™ to znak handlowy firmy Apple Inc., używany na mocy zezwolenia firmy Khronos

QNAP NAS jako serwer inferencji

Zestaw narzędzi OpenVINO™ umożliwia dystrybucję obciążenia pracą na osprzęt Intel® (w tym akceleratory), zwiększając maksymalnie wydajność. W przypadku korzystania z narzędzia OpenVINO™ Workflow Consolidation Tool firmy QNAP, urządzenie QNAP NAS oparte na architekturze Intel® służy jako idealny serwer inferencji, pozwalając organizacjom na szybkie tworzenie systemu inferencji. Zestaw narzędzi OpenVINO™ zawiera narzędzie do optymalizacji modelu i silnik inferencji, dzięki czemu jest łatwy w obsłudze i zapewnia elastyczność umożliwiającą uzyskanie wysokiej wydajności, niewielkie opóźnienia widzenia komputerowego, ulepszając inferencje głębokiego uczenia. Projektanci sztucznej inteligencji (AI) mogą wdrażać w urządzeniach QNAP NAS modele szkoleniowe w celu uzyskania inferencji i instalować modele Mustang-F100, aby uzyskać optymalną wydajność potrzebną do aktywowania inferencji.

Uwaga:
1. Serwer QNAP NAS wymaga systemu QTS 4.4.0 (lub nowszej wersji) oraz OWCT v1.1.0.
2. Aby korzystać z funkcji obliczeniowej karty FPGA na serwerze QNAP NAS, zostanie wyłączona funkcja pass-through maszyny wirtualnej. Aby nie dopuścić do potencjalnej utraty danych, przed ponownym uruchomieniem upewnij się, że wszystkie bieżące zadania na serwerze NAS zostały zakończone.

Łatwy w zarządzaniu silnik inferencji z QNAP OWCT

  • Prześlij plik wideo

  • Pobierz wynik inferencji

Sprawdź, które modele NAS są kompatybilne

28-wnękowe TS-2888X
24-wnękowe TVS-2472XU-RP
16-wnękowe TVS-1672XU-RP
12-wnękowe TVS-1272XU-RP
8-wnękowe TVS-872XU, TVS-872XU-RP

Uwaga:
1. Zainstaluj model Mustang-F100 w gnieździe PCIe Gen3 x8 w urządzeniu NAS. Zapoznaj się z Listą zgodności, aby sprawdzić, jakie inne modele są obsługiwane.
2. Wymagana jest instalacja „Sterownika użytkownika karty Mustang” w QTS App Center.

Aplikacje

  • Widzenie maszynowe

  • Inteligentna sprzedaż detaliczna

  • Monitoring

  • Wymiary

Wymiary

(Jednostka: mm)

Uwaga:
Systemy operacyjne inne niż QTS obsługują do 8 kart; QNAP TS-2888X NAS obsługuje do 4 kart. Przydziel ręcznie numer ID karty (od 0 do 7) do modelu Mustang-F100 przy użyciu pokrętła. Przydzielony w ten sposób numer ID karty będzie widoczny na wyświetlaczu LED karty po uruchomieniu.

Często zadawane pytania

Problem Rozwiązanie Pliki
1 Niezgodny strumień bitowy wersji OpenVINO Korzystając z kabla FPGA*, a następnie wykonaj opisane czynności w celu aktualizacji strumienia bitowego FPGA Mustang-F100-A10_Download_cable_User_guide
2 Nie można rozpoznać sprzętu poprzez polecenie „lspci” Pobierz poprawkę w celu rozwiązania problemu z wykrywaniem urządzenia Mustang na niektórych płytach głównych Mustang-F100_patch

Opinie

Na razie nie ma opinii o produkcie.

Tylko zalogowani klienci, którzy kupili ten produkt mogą napisać opinię.