j'ai compris

Le modèle de circuit intégré ASIC redéfinit les puces AI

publié il y a  2020-5-31 18:32:53 8 0 0 0

Bonjour, membres de la communauté. 


Depuis que l'intelligence artificielle est progressivement entrée dans la vie des gens, des puces AI ont été développées ces dernières années.

Après que Huawei ait publié l'architecture de la puce AI Da Vinci, je suis perplexe à propos de la puce AI. J'ai noté ma compréhension de la puce AI en lisant des articles professionnels, dans l'espoir de vous aider. 


Cette série comprend principalement:

Parler de l'Alpha Go gagner l'Association chinoise Weiqi

Le modèle de circuit intégré ASIC redéfinit les puces AI

Les puces IA dépendent de l'innovation en architecture

Architecture de la puce AI de Huawei Da Vinci

Les puces AI ont évolué du CPU au GPU en FPGA puis en AI. 

La première victoire d'AlphaGo sur les êtres humains, on peut dire que le coût de la «force de la famine», essentiellement basée sur Feng. Elle est déterminée par l'architecture informatique de Neumann. Par conséquent, les GPU dotés de puissantes capacités de calcul parallèle et de calcul en virgule flottante sont devenus la configuration standard pour la formation et l'inférence de modèles d'apprentissage en profondeur. Par rapport aux processeurs, les GPU sont devenus le mode principal de formation en apprentissage profond ces dernières années en raison de leur vitesse de traitement plus rapide, de leur investissement sur le serveur et de leur consommation d'énergie.


Cependant, les machines virtuelles accélérées par GPU ne peuvent pas répondre aux exigences informatiques du deep learning dans tous les scénarios. Par exemple, la conduite automatique L4 doit identifier les routes, les piétons et les feux de circulation. Si la latence ne peut pas répondre aux exigences basées sur le calcul du processeur, le véhicule peut basculer dans la rivière et la rivière ne peut pas être trouvée à l'avant. Si le GPU est utilisé pour le calcul, bien que la latence puisse répondre à l'exigence, la consommation d'énergie est élevée et la batterie du véhicule ne peut pas fonctionner pendant longtemps. De plus, les GPU sont chers et ne peuvent pas répondre à la demande populaire.


Essentiellement, le GPU n'est pas spécifiquement développé pour les algorithmes d'IA. Les gens ont un besoin urgent d'une puce qui peut résoudre à la fois la formation en profondeur et l'inférence ainsi que les problèmes de consommation d'énergie et de coût. Dans ce contexte, la puce FPGA est née. 

Le réseau de portes programmables FPGA (FPGA) est un circuit semi-personnalisé dans le domaine ASIC. Il s'agit essentiellement d'une innovation d'architecture basée sur une architecture sans instruction et sans mémoire partagée et qui répond aux exigences de scénarios spécifiques. 

Le FPGA améliore les performances et réduit la latence en utilisant les méthodes suivantes: Consommation d'énergie et coût réduits: 

1. Définissez un grand nombre de connexions entre les circuits de porte et les mémoires en gravant un fichier de configuration FPGA configurable et réutilisable. 

2. Le FPGA est converti en différents processeurs via le fichier de configuration pour prendre en charge diverses tâches informatiques d'apprentissage en profondeur. 

3. Le registre et la mémoire sur puce du FPGA appartiennent à leur logique de contrôle respective et n'en ont pas besoin.

On constate que la capacité de calcul du GPU est beaucoup plus élevée que celle du FPGA pour un grand nombre d'opérations matricielles. Cependant, en raison des caractéristiques de l'architecture FPGA, le GPU convient aux tâches gourmandes en informatique à faible latence et en streaming. Dans les scénarios de cloud similaires à des devises massives, telles que la reconnaissance du cloud vocal, le FPGA a une latence informatique plus faible que le GPU et peut offrir une meilleure expérience client.


Cependant, la puce FPGA améliore essentiellement les performances grâce à la pré-programmation. L'IA doit traiter une grande quantité de données non structurées, telles que des vidéos et des images. Il est difficile d'obtenir un résultat satisfaisant pour de telles données en utilisant la méthode de pré-programmation. Au contraire, les puces IA sont nécessaires pour effectuer un grand nombre d'échantillons d'apprentissage et d'interaction de raisonnement pour former un modèle d'algorithme. Une fois le modèle formé, les appareils intelligents qui intègrent des puces et des algorithmes d'IA peuvent avoir une capacité de raisonnement intelligent. 

Les GPU et les FPGA peuvent exécuter des algorithmes d'IA, mais ils ne sont pas parfaits. 

  • Les GPU ne sont pas des ASIC développés pour les algorithmes d'IA, ce qui entraîne une consommation d'énergie élevée et des coûts élevés. 

  • Bien que l'architecture FPGA soit innovante, la pré-programmation est complexe. À strictement parler, aucun d'entre eux n'est une puce AI. 


Qu'est-ce qu'une puce AI?

Comme nous le savons tous, la fonction de calcul de données d'algorithme d'apprentissage profond de l'intelligence artificielle nécessite qu'une puce ait deux ou trois ordres de grandeur supérieurs aux performances informatiques traditionnelles.

Sur la base de l'analyse précédente, les définitions suivantes sont fournies:  Basé sur ASIC (Application Specific Integrated Circuit), il peut être défini de manière flexible sur la base d'un logiciel et d'une puce dédiée hautement personnalisée. 

D'une part, il peut effectuer un fonctionnement en réseau neuronal d'apprentissage en profondeur;

D'un autre côté, seules les puces qui améliorent l'efficacité de l'informatique d'apprentissage en profondeur à la plus haute efficacité Canon (TOPS / W) basée sur l'innovation de l'architecture informatique matérielle peuvent être appelées puces AI. 

À notre crédit, FPGA est la première étape dans l'innovation de l'architecture matérielle de la puce AI, c'est-à-dire ASIC.


C'est tout pour aujourd'hui. J'espère que cela vous sera utile à tous! 


Si vous avez d'autres commentaires ou souhaitez en savoir plus, veuillez laisser un message ci-dessous pour me le faire savoir.

 ASIC     AI


  • x
  • Standard:

Commentaire

envoyer
Connectez-vous pour répondre. Se connecter | Enregistrer

Remarque Remarque : Afin de protéger vos droits et intérêts légitimes, ceux de la communauté et des tiers, ne divulguez aucun contenu qui pourrait présenter des risques juridiques pour toutes les parties. Le contenu interdit comprend, sans toutefois s'y limiter, le contenu politiquement sensible, le contenu lié à la pornographie, aux jeux d'argent, à l'abus et au trafic de drogues, le contenu qui peut divulguer ou enfreindre la propriété intellectuelle d'autrui, y compris les secrets professionnels, les marques commerciales, les droits d'auteur et les brevets, ainsi que la vie privée personnelle. Ne partagez pas votre nom d'utilisateur ou votre mot de passe avec d'autres personnes. Toutes les opérations effectuées à partir de votre compte seront considérées comme vos propres actions, et toutes les conséquences en découlant vous seront imputées. Pour plus de détails, voir « Politique de confidentialité ».
Si le bouton de la pièce-jointe n'est pas disponible, mettez à jour Adobe Flash Player à la dernière version.

My Followers

Connectez-vous pour participer à la communication et au partage

S'identifier

Communauté de Support de Huawei Entreprise
Communauté de Support de Huawei Entreprise
Bloquer
Êtes-vous sûr de bloquer cet utilisateur?
Les utilisateurs de votre liste noire ne peuvent ni commenter votre publication,ni vous mentionner, ni vous envoyer de messages privés.