Intel GNA: Der Low Power Coprozessor für Intel Inference

Intel GNA: Der Low Power Coprozessor

Wenn Sie die vollständigen Spezifikationen einiger der neuesten gelesen haben Intel CPUs werden Sie habe einige mysteriöse Akronyme gesehen: GNA. In Wirklichkeit ist es ein kleiner Prozessor oder vielmehr ein Coprozessor, der für die Beschleunigung bestimmter verantwortlich ist Tiefes Lernen Algorithmen und das hängt daher stark mit der Implementierung künstlicher Intelligenz zusammen. Wir erklären, woraus dieser Coprozessor besteht und welche Funktionalität er hat.

Prozessoren, die bestimmte alltägliche Aufgaben beschleunigen und Modelle verwenden, die über künstliche Intelligenz entwickelt wurden, sind in den letzten Jahren in allen Konfigurationen und Größen aufgetaucht, und es ist nicht verwunderlich, dass Intel nicht zurückgelassen werden wollte.

Was ist der Intel GNA?

Intel GNA-1

Der Intel GNA ist der Coprozessor, den einige Intel-CPUs integriert haben und der dazu dient, die Ausführung einiger Inferenzalgorithmen zu beschleunigen. Viele von Ihnen werden jedoch bereits wissen, dass es sich daher um einen neuronalen Prozessor handelt, der in diesem Fall erstmals im Intel Ice Lake eingeführt wurde und dessen Akronym bedeutet Gaußscher neuronaler Beschleuniger ( GNA ) und die Integration in den eigenen Prozessor funktioniert bei sehr geringem Verbrauch.

Es ist für Aufgaben wie Echtzeit-Audiotranskription oder Fotorauschentfernung vorgesehen, die für KI typisch sind, jedoch keinen Hochleistungsbeschleuniger erfordern.

Es wurde kürzlich am Tiger Lake verbessert, wo die Version 2.0 des GNA implementiert wurde, die auch zur Unterdrückung von Umgebungsgeräuschen und zur Reduzierung von Geräuschen in Fotos verwendet werden soll. Daraus können wir schließen, dass die GNA für kollaborative Geschäftsumgebungen konzipiert ist, insbesondere für solche, die auf Telearbeit basieren, in denen die Transkription von Text und die Kommunikation ohne Lärm jeglicher Art sehr wichtig sind.

Wie funktioniert es?

Intel GNA-2

Der Intel GNA ist keine Ausführungseinheit des CPU Wir haben es also mit einem Prozessor in einem anderen zu tun, der dazu dient, bestimmte Aufgaben für seinen Gast zu beschleunigen. Dies bedeutet, dass es im Code explizit über eine API aufgerufen werden muss, in diesem Fall die dedizierte Intel-API.

Die Implementierung eines Deep-Learning-Algorithmus oder -Modells, das von Intel GNA während der Inferenzphase ausgeführt werden soll, erfolgt in drei Schritten:

  1. Wir beginnen mit dem Training des Algorithmus unter Verwendung eines Gleitkomma-Neuronalen Netzwerks mit einem freien Auswahlrahmen.
  2. Das aus dem Training resultierende Modell wird mit dem Intel Deep Learning SDK-Bereitstellungstool importiert, mit dem jedes Modell importiert werden kann, das mit den bekanntesten und am häufigsten verwendeten Deep Learning-Frameworks generiert wurde.
  3. Es ist mit der Intel Deep Learning SDK Inference Engine oder den nativen GNA-Bibliotheken verknüpft, von denen es zwei gibt: eine für Intel Quark und eine für Intel Atom und Intel Core.

Intel GNA-3

Um den GNA aufzurufen, belässt die CPU das Inferenzmodell im Speicher, und der GNA wird aufgerufen, um diesen Algorithmus zu übernehmen und parallel zur Arbeit des Prozessors auszuführen, dessen Host er ist. Es muss auch berücksichtigt werden, dass es sich um ein Gerät mit geringem Stromverbrauch handelt, sodass wir nicht die gleichen Ergebnisse erwarten können wie bei Verwendung eines leistungsstarken neuronalen Netzwerks oder eines als solches konfigurierten FPGA, aber es ist gut genug für Aufgaben, die von Tag zu Tag einfach sind .

Intel GNA außerhalb von Intel-CPUs

Intel GNA-4

Obwohl der GNA selbst ein Prozessor ist, der als Teil von x86-CPUs integriert ist, kann er auf Wunsch auch außerhalb der CPU bereitgestellt werden. Der bekannteste Fall ist der Intel Speech Enabling Dev Kit , die insbesondere zur Inferenz von Sprachbefehlen für Anwendungen für verwendet wird Amazon Alexa Geräte.