j'ai compris

Les puces IA dépendent de l'innovation en architecture

publié il y a  2020-5-31 18:29:54 10 0 0 0


Bonjour, membres de la communauté. 


Depuis que l'intelligence artificielle est progressivement entrée dans la vie des gens, des puces AI ont été développées ces dernières années.

Après que Huawei ait publié l'architecture de la puce AI Da Vinci, je suis perplexe à propos de la puce AI. J'ai noté ma compréhension de la puce AI en lisant des articles professionnels, dans l'espoir de vous aider. 


Cette série comprend principalement:

Parler de l'Alpha Go gagner l'Association chinoise Weiqi

Le modèle de circuit intégré ASIC redéfinit les puces AI

Les puces IA dépendent de l'innovation en architecture

Architecture de la puce AI de Huawei Da Vinci

Dans le numéro précédent, nous avons analysé pourquoi le FPGA consomme moins d'énergie que le CPU et le GPU car le FPGA n'a pas de commandes. Autrement dit, les avantages apportés par la structure qui ne nécessite pas de mémoire partagée. 

Avant de discuter de l'innovation en architecture, analysons pourquoi le CPU / GPU ne peut pas répondre aux exigences de l'IA.  

Actuellement, la plupart des puces IA du marché utilisent une architecture de type CPU. L'architecture de Von Neumann est optimisée localement. Essentiellement, le mode "calcul d'abord" est utilisé. Par exemple, les unités de calcul parallèles sont étendues pour améliorer les performances de traitement des puces. Cependant, pendant la formation de l'algorithme de réseau neuronal d'apprentissage profond de l'intelligence artificielle, plusieurs unités de calcul doivent généralement lire et écrire fréquemment la mémoire. Cependant, l'architecture de type CPU est essentiellement un mode de stockage partagé et ne peut pas résoudre fondamentalement un problème de goulot d'étranglement des performances de stockage provoqué par un modèle de mémoire partagée dans l'architecture informatique de Von Neumann, et est également appelé "mur de mémoire".

mur de mémoire


L'informatique en réseau de neurones d'apprentissage en profondeur présente une concurrence élevée, un couplage élevé et une «concurrence élevée + couplage élevé». Le traitement de l'algorithme comprend une grande quantité de calcul, une grande quantité de traitement parallèle et des exigences de fonctionnement à faible latence.

En prenant la formation comme exemple, le processus de formation implique une grande quantité de stockage de données et a une exigence très élevée sur une quantité de mémoire, une bande passante pour accéder à la mémoire et une méthode de gestion de la mémoire. Il est nécessaire que la puce ait une capacité arithmétique à virgule flottante avec une certaine précision, et supporte à la fois les processus de calcul direct et inverse et les itérations multiples. Deuxièmement, dans un processus de formation, un paramètre (poids) dans un réseau neuronal doit être ajusté en continu, y compris plusieurs fois d'entrée de paramètre et plusieurs fois de lecture de paramètre, et une exigence de synchronisation de données complexe. Les opérations fréquentes sur les paramètres dans tout un processus de formation en ligne posent un très grand défi à la mémoire. 

Essentiellement, Von Neumann Computing Architecture est la cause première de l'échec de la loi de Moore dans les scénarios d'IA. Comment surmonter le goulot d'étranglement du mur de stockage et atteindre l'efficacité optimale de l'algorithme d'apprentissage en profondeur grâce à l'innovation de l'architecture matérielle est devenue la direction de l'innovation et du développement de l'architecture de puce AI.


La conception de l'architecture de la puce AI doit répondre aux exigences suivantes:  

  1. Conforme aux exigences de base de l'informatique en réseau neuronal d'apprentissage en profondeur.

    y compris la formation, l'inférence et la collaboration. La précision, l'évolutivité, l'évolutivité et l'efficacité de la consommation d'énergie des données doivent répondre aux exigences des scénarios commerciaux réels.  

  2. Prend en charge l'informatique proche des données.

    La conception de l'architecture matérielle raccourcit la distance entre l'informatique et le stockage, réduit le nombre de temps de migration des données et réduit la consommation d'énergie. Par exemple, des opérations de réseau neuronal peuvent être effectuées sur la mémoire sur puce. 

  3. Prend en charge la mise à l'échelle et le clustering flexibles et la formation à l'IA parallèle à grande échelle.

    Par exemple, les unités de calcul parallèles sont interconnectées à l'aide d'un réseau à ultra-bande passante.  

  4. Puces AI définies par logiciel

    Les puces AI définies par logiciel sont prises en charge pour répondre aux exigences de personnalisation et de combinaison des algorithmes d'IA les plus complexes, ce qui permet d'obtenir des avantages marginaux et de réduire le coût des puces AI.

C'est tout pour aujourd'hui. J'espère que cela vous sera utile à tous! 


Si vous avez d'autres commentaires ou souhaitez en savoir plus, veuillez laisser un message ci-dessous pour me le faire savoir.

  • x
  • Standard:

Commentaire

envoyer
Connectez-vous pour répondre. Se connecter | Enregistrer

Remarque Remarque : Afin de protéger vos droits et intérêts légitimes, ceux de la communauté et des tiers, ne divulguez aucun contenu qui pourrait présenter des risques juridiques pour toutes les parties. Le contenu interdit comprend, sans toutefois s'y limiter, le contenu politiquement sensible, le contenu lié à la pornographie, aux jeux d'argent, à l'abus et au trafic de drogues, le contenu qui peut divulguer ou enfreindre la propriété intellectuelle d'autrui, y compris les secrets professionnels, les marques commerciales, les droits d'auteur et les brevets, ainsi que la vie privée personnelle. Ne partagez pas votre nom d'utilisateur ou votre mot de passe avec d'autres personnes. Toutes les opérations effectuées à partir de votre compte seront considérées comme vos propres actions, et toutes les conséquences en découlant vous seront imputées. Pour plus de détails, voir « Politique de confidentialité ».
Si le bouton de la pièce-jointe n'est pas disponible, mettez à jour Adobe Flash Player à la dernière version.

My Followers

Connectez-vous pour participer à la communication et au partage

S'identifier

Communauté de Support de Huawei Entreprise
Communauté de Support de Huawei Entreprise
Bloquer
Êtes-vous sûr de bloquer cet utilisateur?
Les utilisateurs de votre liste noire ne peuvent ni commenter votre publication,ni vous mentionner, ni vous envoyer de messages privés.