Verkaufsberatung & Technischer Support: europe@inspur.com
Home > Lösungen > Heißes Thema > AI

Führender Gesamtlösungsanbieter der künstlichen Intelligenz

Inspur bietet die weltführende Gesamtlösung der künstlichen Intelligenz, Spitzenhardware, umfangreiches System der künstlichen Intelligenz, kraftvolle Optimierungsfähigkeiten für Anwendungen der künstlichen Intelligenz

Lösungen

Inspur bietet die weltführende GPU / MIC FPGA-Informatikplattform, umfangreiche Systemsoftware für künstliche Intelligenz, kraftvolle Optimierungsanwendungen der künstlichen Intelligenz und durchgehende vertikale Lösungen an

Was es Neues gibt

Innovationen in der Informatik treiben ein starkes Momentum in der Entwicklung der künstlichen Intelligenz an. Wir sind der einzige Hersteller mit der Fähigkeit einen kompletten Satz an schlüsselfertigen Lösungen der künstlichen Intelligenz anzubieten. Inspur ist ein wichtiger Partner und Lieferant von weltführenden CSP, wie etwa Baidu, Tencent und Alibaba. Die künstlichen Intelligenzplattformen von Inspur sind weitgehend an autonome Kfz-Technologien, Darstellungen und Stimmerkennungen angepasst.

Eigenschaften

Zusätzlich zu Datenmustern mit einer großen Anzahl an Tags, tiefen Lernmodellen und Algorithmen ist eine Hochleistungssystemplattform auch für den Erfolg des tiefen Lernens kritisch. Tiefes Lernen involviert Offlineausbildung und Onlineerkennung.

Bei Ersterem kann eine Hochleistungs-Bündelarchitektur verwendet werden, die auf der Kombination der Hochgeschwindigkeitsnetzwerke von GPU/KNM+IB/10GE/25GE aufbaut und verteilte parallele Speicherung anwenden kann.

Aufgrund der stets zunehmenden Muster die eine Ausbildung benötigen, wird zur Speicherung und einem schnellen Zugang solcher Musterdaten eine Parallelspeicherung mit hoher Leistung und großer Kapazität sowie Bandbreite benötigt, wie etwa Darstellungen auf einer Ebene von 100 Millionen Pixel und die Aussagekraft von 100 000 Stunden, mit einem Volumen der Daten auf PB-Ebene.

Der lange Ausbildungszeitraum benötigt nicht nur GPU-Beschleunigung, sondern auch Parallelbearbeitung von großflächigen Bündelsystemen.

Bei einigen der Module erreichen die Parameter den Milliardenbereich und benötigen deshalb ein schnelles Netzwerk und eine niedrige Latenz sowie die Konvergenz der Modelle, um schnelle Aktualisierungen der Parameter zwischen Knotenpunkten sicherzustellen.

Soweit es die Onlinekennung angeht, werden Tausende von Knotenpunkten für die Versorgung von externen Dienstleistungen benötigt, was eine ernsthafte Herausforderung beim Stromverbrauch darstellt.

Die Verwendung einer FPGA-Struktur für den Aufbau einer Onlineidentifikationsplattform kann dabei helfen, dieses Problem zu lösen.

Systemarchitekturplattform von Inspur für tiefes Lernen

  

Inspur hat wie unten dargestellt eine holistische Systemlösung mit einem Fokus auf tiefes Lernen erschaffen, die Parallelspeicher mit Hochgeschwindigkeit an Beschleunigungsknotenpunkte der Informatik mittels Netzwerken mit Hochleistung verbindet und Datendienstleistungen bereitstellt.

Für Offlineausbildung geeignete Knotenpunkte der Informatikbeschleunigung verwenden hochleistende GPUs mit starker Rechnerkapazität an Schwebepunkten mit Einzelpräzision oder benutzen KNM-Beschleunigungskarten, wenn diese verfügbar sind.

Anderseits verwenden zur Onlineidentifizierung verwendete Beschleunigungsknotenpunkte der Informatik GPUs mit niedrigem Stromverbrauch und starker INT8-Informatikfähigkeiten oder FPGA mit niedrigem Stromverbrauch und kundenspezifischen Erkennungsprogrammen.

Zum Betreiben von Rahmenwerken des tiefen Lernens wie etwa TensorFlow, Caffe oder CNTK auf Informatikknotenpunkten, bietet AIStation Aufgabenverwaltung, Anmeldeschnittstellen, Parameterfeineinstellung sowie andere Dienstleistungen an.

AIStation führt auch Zustandsüberwachung und Zeitplanung für Knotenpunkte und Komponenten der Informatikbeschleunigung aus.

Dieser gesamte Plattformsatz bietet Unterstützung für Anwendungen, basierend auf spitzenmäßiger künstlicher Intelligenz.

4

In Zukunft wird bei tiefem Lernen einbezogene Offlineausbildung und Onlineidentifizierung integriert, wodurch Onlinedaten direkt im Offlinemodus gelernt werden und offline gelernte Modelle dazu verwendet werden, jene Daten und Modelle offline zu aktualisieren.

Ein möglicher Trend zur Realisierung der Online-Offlinevereinigung für tiefes Lernen ist möglicherweise eine hochleistende Systemstruktur mit niedrigem Stromverbrauch, die einheitliche Netzwerke mit Hochgeschwindigkeit mittels GPU+FPGA+IB und verteilter Parallelspeicherung darstellt.

    

    

Ressourcenverkapselung des Rahmenwerks des tiefen Lernens

   

Die gegenwärtigen Rahmenwerke mit Open-Source des tiefen Lernens, die eher Büchereien der Drittparteien abhängen und die Versionen unterscheiden, sind gegenüber Rahmenwerkeinsatz und der Entwicklung von Anwendungen der künstlichen Intelligenz eher unfreundlich. Dies ist insbesondere der Fall, wenn schnelle Wiederholungen von Versionen benötigt werden. Häufige Aktualisierungen von Betriebssystem und Büchereien der Drittparteien hat Entwicklern eine Menge an unnötiger zusätzlicher Arbeit beschert.
Inspur führt einheitliche Ressourcenverkapselungen der Büchereien und der von ihnen abhängigen Rahmenwerke für tiefes Lernen aus, wonach die Darstellung jederzeit auf jeglicher Plattform von Inspur die Ressourcenverkapselung unterstützt geladen werden kann. Benutzer können sofort effektiv damit anfangen, ihre Produktivität zu verbessern, da ihre Arbeitsumgebung absolut der originalen Umgebung entspricht. Durch Unterstützung der verteilten Auslegungsspeichern bei Darstellung und Speicherung, Zeitplanung, Verwaltung und Überwachung von Spiegeln, verwendet die Systemlösungen des tiefen Lernens von Inspur Ressourcenverkapselung, um die Effizienz des Rahmenwerkeinsatzes und -produktivität der Anwendungsentwicklung für tiefes Lernen zu verbessern. Gleichzeitig bietet sie eine optimierte Integration der Technologie für Ressourcenverkapselung und Systemlösungen.

5

   

Durchgängige Systemlieferdienste

   

Die Systemlösungen für tiefes Lernen von Inspur bieten nicht nur einen umfangreichen Hardwaresatz, sondern auch durchgängige Lieferdienstleistungen für Systemlösungen.

●Die Lösungsexperten und Endverbraucher der künstlichen Intelligenz von Inspur diskutieren

Anwendungsszenarien des tiefen Lernens und analysieren gemeinsam die Problempunkte und Engpässe der Informatik, um Systemlösungen zu entwerfen, die für Anwendungsszenarios geeignet sind.

●Transport- und Optimierungsexperten des Anwendungscodes

Die heterogenen Anwendungsexperten von Inspur können Klienten dabei helfen, Eigenschaften des CPU-Codes zu analysieren und festzustellen, ob deren Migration zu heterogenen Beschleunigungskomponenten angebracht ist sowie zusammenzuarbeiten, um Codeproblemstellen zwecks Informatikeffizienz der Anwendungen und reduzierter Zeitdauer zu transportieren und zu opitimieren.

●Holistische Lösungen, die Soft- und Hardware integrieren

Inspur verfügt nicht nur über eine umfangreiche Produktlinie, Hochgeschwindigkeitsnetzwerk und parallele Speicherprodukte für tiefes Lernen, sondern auch über eine Softwareverwaltungsplattform für AIStation und Analysewerkzeuge für Eigenschaften von Teye für tiefes Lernen. Die holistischen Lösungen, die Soft- und Hardware integrieren, können Leistungen des Rahmenwerks für tiefes Lernen zum vollen Einsatz bringen.

●Horizontale Einschätzung der Leistung von Komponenten der Informatikbeschleunigung

Die gut entwickelte Entwicklung der horizontalen Einschätzung auf GPU/FPGA/KNM und anderen heterogenen Mainstream-Rahmenwerken des tiefen Lernens bieten Auswahlmöglichkeiten.

●Implementierung und -entwicklung des Mainstream-Rahmenwerks des tiefen Lernens

Fokussierend auf Mainstream-Rahmenwerke des tiefen Lernens wie etwa Caffe, TensorFlow oder CNTK, einschließlich Codeverkapselung und Dateien von benötigten Büchereien der Drittparteien und Darstellungserschaffung, die schnell auf Plattformen eingesetzt werden kann. Einfach zu implementieren und lernen, ohne komplexes Einsatzvorgänge meistern zu müssen.