Opinie o Nas

Ta strona używa plików Cookie. Aby z niej korzystać zaakceptuj ten fakt. Więcej informacji tutaj.

      QNAP Mustang-V100
      QNAP Mustang-V100
      QNAP Mustang-V100
      QNAP Mustang-V100
      QNAP Mustang-V100
      QNAP Mustang-V100

      QNAP Mustang-V100

      4 999,00 zł
      Brutto
      Zapytaj o dostępność

      Karta akceleratora obliczania z 8 x Movidius Myriad X MA2485 VPU, z interfejsem PCIe Gen2 x4, RoHS

      ILOŚĆ

      Zadaj pytanie o produkt opiekunowi marki:

      • Salon Kraśnik: +48 600 101 768 sklep@beiks.pl

      • Salon Warszawa: 22 891 13 73 wawa@beiks.pl

      Write your review

      Salon
      Kraśnik:

      (81) 825-97-22

      sklep@beiks.pl


      Salon
      Warszawa:

      (22) 891-13-73

      wawa@beiks.pl

        QNAP Mustang-V100

        Konstrukcja akceleratora Intel® Vision z kartą Intel® Movidius™ VPU

        QNAP TS-677-1600-8G

        Serwer QNAP NAS ewoluuje aby umożliwiać realizację coraz szerszej gamy zastosowań (m.in. monitoringu, wirtualizacji oraz sztucznej inteligencji), co oznacza, że użytkownik nie tylko potrzebuje coraz więcej miejsca do magazynowania na urządzeniu NAS, ale także większej mocy NAS w celu optymalizacji zaplanowanej pracy. Model Mustang-V100 to oparta na PCIe karta akceleratora, korzystająca z Intel® Movidius™ VPU, która napędza wymagające zadania w zakresie nowoczesnego widzenia komputerowego i zastosowań sztucznej inteligencji. Może być instalowana w komputerze lub na kompatybilnym serwerze QNAP NAS, zwiększając ich wydajność, dzięki czemu stanowi idealny wybór w przypadku zadań w zakresie inferencji głębokiego uczenia AI.

        Dwukrotnie niższy, dwukrotnie krótszy, z jednym gniazdem, w kompaktowym rozmiarze.

        Mniejsze zużycie energii, około 2,5 W na każdy procesor wirtualny Intel® Movidius™ Myriad™ X.

        Obsługiwany zestaw narzędzi OpenVINO™, urządzenie gotowe do obsługi przetwarzania brzegowego AI.

        Osiem procesorów wirtualnych Intel® Movidius™ Myriad™ X pozwala uruchomić osiem topologii jednocześnie.



        Zestaw narzędzi OpenVINO™

        Zestaw narzędzi OpenVINO™ jest oparty na sieci CNN (ang. Convolutional Neural Networks) i pozwala zwiększyć liczbę zadań na całym sprzęcie Intel®, maksymalizując wydajność.

        Zestaw pozwala na optymalizację modelu głębokiego uczenia z wcześniejszych szkoleń, np. konwertując format Caffe, MXNET, Tensorflow w plik binarny IR, a następnie może uruchomić silnik inferencji niejednorodnie na całym sprzęcie Intel®, np. na procesorze, karcie graficznej, Intel® Movidius™ Neural Compute Stick i FPGA.

        OpenVINO



        Uzyskaj akcelerację głębokiego uczenia na serwerze/komputerze z architekturą Intel

        Systemy operacyjne: Ubuntu 16.04.3 LTS 64-bitowy, CentOS 7.4 64-bitowy, Windows 10 (wkrótce więcej systemów operacyjnych)

        Zestaw narzędzi OpenVINO™: Intel® Zestaw narzędzi do wdrażania głębokiego uczenia ;Optymalizator modelu ;Silnik inferencji

        Zoptymalizowane biblioteki widzenia komputerowego

        Intel® Media SDK; *Sterowniki graficzne OpenCL™ i czas pracy.

        Aktualnie obsługiwane topologie: AlexNet, GoogleNet V1, Yolo Tiny V1 & V2, Yolo V2, SSD300, ResNet-18, Faster-RCNN. (wkrótce więcej opcji)

        Model Mustang-V100-MX8 pozwala na rozbudowę w strukturze zestawu narzędzi OpenVINO™, co umożliwia danym szkolenia, np. formatom Caffe, TensorFlow i MXNet, uruchomienie po skonwertowaniu do zoptymalizowanego formatu IR.

        *OpenCL™ to znak handlowy firmy Apple Inc., używany na mocy zezwolenia firmy Khronos

        QNAP



        QNAP NAS jako serwer inferencji

        Zestaw narzędzi OpenVINO™ umożliwia dystrybucję obciążenia pracą na osprzęt Intel® (w tym akceleratory), zwiększając maksymalnie wydajność. W przypadku korzystania z narzędzia OpenVINO™ Workflow Consolidation Tool firmy QNAP, urządzenie QNAP NAS oparte na architekturze Intel® służy jako idealny serwer inferencji, pozwalające organizacjom na szybkie tworzenie systemu inferencji. Zestaw narzędzi OpenVINO™ zawiera narzędzie do optymalizacji modelu i silnik inferencji, dzięki czemu jest łatwy w obsłudze i zapewnia elastyczność umożliwiającą uzyskanie wysokiej wydajności, niewielkie opóźnienia widzenia komputerowego, ulepszając inferencje głębokiego uczenia. Projektanci sztucznej inteligencji (AI) mogą wdrażać w urządzeniach QNAP NAS modele szkoleniowe w celu uzyskania inferencji, i instalować modele Mustang-V100, aby uzyskać optymalną wydajność potrzebną do aktywowania inferencji.

        Uwaga: Serwer QNAP NAS wymaga systemu QTS 4.4.0 (lub nowszej wersji) oraz OWCT v1.1.0.

        QNAP NAS



        Łatwy w zarządzaniu silnik inferencji z QNAP OWCT



        Prześlij plik wideo


        Pobierz wynik inferencji



        Sprawdź, które modele NAS są kompatybilne

        28-wnękowe

        24-wnękowe

        16-wnękowe

        12-wnękowe

        9-wnękowe

        8-wnękowe

        6-wnękowe

        4-wnękowe

        TS-2888X

        TVS-2472XU-RP

        TVS-1672XU-RP

        TVS-1272XU-RP

        TVS-972XU, TVS-972XU-RP

        TVS-872XT, TVS-872XU, TVS-872XU-RP

        TVS-672XT

        TVS-472XT


        1. Zapoznaj się z Listą zgodności, aby sprawdzić, jakie inne modele są obsługiwane.

        2. Wymagana jest instalacja „Sterownika użytkownika karty Mustang” w QTS App Center.


        Aplikacje

        Widzenie maszynowe

        Widzenie maszynowe

        Inteligentna sprzedaż detaliczna

        Inteligentna sprzedaż detaliczna


        Monitoring

        Monitoring

        Wymiary

        Wymiary

        Szczegółowe odniesienia