Werbung

Intel stellt auf der Hot Chips-Konferenz zwei neue AI-fokussierte Chips vor

Mit seinen neuen Prozessoren kann Intel jetzt die Leiter für künstliche Intelligenz erklimmen.

Um das Training und die Schlussfolgerungen aus Modellen der künstlichen Intelligenz KI zu beschleunigen, hat Intel seine beiden neuen Prozessoren vorgestellt. Diese beiden Chips sind Teil seiner Nervana Neural Network Processor NNP Auswahl.

Die AI-fokussierte Chips wird Spring Crest und Spring Hill genannt, wie sie am Dienstag im bekannt gegeben wurden Hot Chips Konferenz in Palo Alto, Kalifornien.

Die Hot Chips Conference ist ein jährliches Tech-Symposium, das jährlich im August stattfindet.

VERBINDUNG: INTEL ENTWICKLUNG EINES AI-CHIPS, DER WIE EIN MENSCHLICHES GEHIRN WIRKT

Warum sind diese Chips wichtig?

KI-fokussierte Arbeit wächst von Jahr zu Jahr. Vor diesem Hintergrund erfordert die Fähigkeit, Daten in Informationen und dann in Wissen umzuwandeln, spezifische Hardware und Gehäuse, Speicher, Speicher und Technologien, die neue und neue Funktionen miteinander verbinden, weiterentwickeln und unterstützen könnenkomplexe Nutzung und KI-Techniken .

Diese zwei neue Chips und Beschleuniger als Teil von Intels Nervana-NNPs werden von Grund auf neu entwickelt und konzentrieren sich auf KI, um Kunden im richtigen Moment die richtige Intelligenz zu bieten.

"In einer Welt mit KI müssen wir Hardwarelösungen an eine Kombination von Prozessoren anpassen, die auf bestimmte Anwendungsfälle zugeschnitten sind." sagte Naveen Rao , Intel VP für Artificial Intelligence Products Group.

Rao fuhr fort: "Dies bedeutet, die spezifischen Anwendungsanforderungen zu berücksichtigen und die Latenz zu verringern, indem die besten Ergebnisse so nah wie möglich an den Daten erzielt werden."

Was machen die Chips?

Die Nervana Neural Network Processor für das Training wurde entwickelt, um Daten für mehrere verschiedene Deep-Learning-Modelle innerhalb eines Strombudgets zu verwalten. Darüber hinaus bietet es gleichzeitig eine hohe Leistung und verbessert die Speichereffizienz.

Sie sind auf Flexibilität ausgelegt und arbeiten mit einem Gleichgewicht zwischen Computer, Kommunikation und Speicher.

Werbung

Sie wurden speziell für Inferenzen und zur Beschleunigung der Bereitstellung von Deep Learning in großem Maßstab entwickelt. Diese Chips sind einfach zu programmieren, haben kurze Latenzen, eine schnelle Code-Portierung und unterstützen alle wichtigen Deep Learning-Frameworks. Sie decken ein breites Spektrum an Funktionen ab.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.