GENERATING AND GLOBALLY TUNING APPLICATION-SPECIFIC MACHINE LEARNING ACCELERATORS
Methods, systems, and apparatus, including computer-readable media, are described for globally tuning and generating ML hardware accelerators. A design system selects an architecture representing a baseline processor configuration. An ML cost model of the system generates performance data about the...
Gespeichert in:
Hauptverfasser: | , , , |
---|---|
Format: | Patent |
Sprache: | eng ; fre |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | Methods, systems, and apparatus, including computer-readable media, are described for globally tuning and generating ML hardware accelerators. A design system selects an architecture representing a baseline processor configuration. An ML cost model of the system generates performance data about the architecture at least by modeling how the architecture executes computations of a neural network that includes multiple layers. Based on the performance data, the architecture is dynamically tuned to satisfy a performance objective when the architecture implements the neural network and executes machine-learning computations for a target application. In response to dynamically tuning the architecture, the system generates a configuration of an ML accelerator that specifies customized hardware configurations for implementing each of the multiple layers of the neural network.
Sont décrits des procédés, des systèmes et un appareil, incluant des supports lisibles par ordinateur, pour accorder globalement et générer des accélérateurs matériels d'apprentissage automatique. Un système de conception sélectionne une architecture représentant une configuration de processeur de ligne de base. Un modèle de coût d'apprentissage automatique du système génère des données de performance concernant l'architecture au moins en modélisant la manière dont l'architecture exécute des calculs d'un réseau neuronal qui comprend de multiples couches. Sur la base des données de performance, l'architecture est accordée dynamiquement pour satisfaire à un objectif de performance lorsque l'architecture met en œuvre le réseau neuronal et exécute des calculs d'apprentissage automatique pour une application cible. En réponse à l'accord dynamique de l'architecture, le système génère une configuration d'un accélérateur d'apprentissage automatique qui spécifie des configurations matérielles personnalisées pour mettre en œuvre chacune des multiples couches du réseau neuronal. |
---|