1.VAR et les puces intelligentes ont dévoilé le stade de la Coupe du Monde, l'équipe française a remporté le plus grand prix.
BEIJING, Beijing, 16 juin La FIFA World Cup, FIFA a lancé une réforme importante: La première introduction de VAR (arbitre assistant vidéo), et l'implantation de puces intelligentes dans la balle de jeu. Dans la 16ème partie au troisième jeu Le jour, l'équipe française est redevenue bénéficiaire du duel avec l'équipe australienne et tous deux ont remporté la première pénalité favorable.
Après communication avec l'assistant de l'arbitre vidéo, Cunha a donné l'équipe française une peine commuée. Gelieziman la balle facilement dans le but, ce qui rend l'équipe française de compter sur la VAR commuée, avant la prochaine ville. Ceci est la première fois commuée VAR Le coup de pied de réparation qui en résulte.
Cette pénalité a suscité beaucoup de controverses: lors de la conférence de presse qui a suivi le match, l'entraîneur français Deschamps a déclaré que cette balle était exactement comme le penalty marqué par le Portugal en Espagne la veille. la décision de l'arbitre mon entraîneur néerlandais de l'équipe australienne Van Marwijk estime qu'il était une erreur judiciaire: « Bien que je ne l'ai pas vu la reprise vidéo, mais je vais bien, voir clairement dans la position sur le terrain, il ne doit pas être Un coup de pied de pénalité: la position de l'arbitre est plus proche, mais il a d'abord dit qu'il n'y avait pas de pénalité et a signalé le jeu. Nous sommes les victimes de VAR, mais nous ne remettrons pas en cause cette décision.
équipe française à la Coupe du monde consécutive des VAR et des bénéfices puce, ont également poursuivi leur chance auparavant. En 1998, la FIFA a lancé officiellement la « mort subite but en or » et plus tard, la technologie de balle d'argent dans la Coupe du Monde en 1998 huitièmes de finale de la Coupe du Monde avec le Paraguay, le défenseur français Laurent Blanc a marqué le premier but en or dans les tablettes de l'histoire de la Coupe du monde pour aider la France se qualifier. avec ce grain de but en or n'a pas de prix, l'équipe française après la coupe Tout au long de la course, la Coupe du monde de Dieu a finalement été remportée par la section locale, car cette règle était accidentelle et trop cruelle, après deux ans de mise en œuvre, la FIFA a annulé en 2004 le système de balle en or.
Afin de promouvoir le développement du football, afin de protéger les joueurs et garantir la continuité du jeu, la FIFA a essayé de modifier certaines des règles. Cependant, certaines personnes sont d'autres heureux sont tristes. En 1970, la première utilisation de cartons jaunes et rouges 9e Coupe du Monde tenue au Mexique, la première carte jaune a été remportée par l'ancien match de Coupe Gorbatchev Roper Union soviétique. en 1974, le dixième mondial contre le Chili, la République fédérale d'Allemagne en Allemagne de l'Ouest, la Turquie Baba Kan a publié un arbitre Coupe du monde dans l'histoire des joueurs chiliens Fidel Zeljko Le premier carton rouge sera sanctionné. (Fin)
2. GPU, puce FPGA est devenu un bras «droitier» pour améliorer l'apprentissage de la machine;
Smart Netease Nouvelles 17 Juin nouvelles »dans les logiciels commerciaux, puces informatiques ont été oubliés. Pour les applications commerciales, il est un produit de base en raison de la robotique personnelle et de matériel plus étroitement liés, et par conséquent les applications de fabrication Encore plus concentré sur la partie hardware.
Depuis les années 1970, dans l'ensemble, le statu quo de l'intelligence artificielle (IA) et la relation spécifique à la profondeur de l'apprentissage (DL), le matériel et les logiciels sont des liens vers plus étroitement que jamais. Et je récemment plusieurs « gestion articles de l'intelligence artificielle (gestion AI) « avec ajustement sur et préjugés, deux risques majeurs existent dans le système d'apprentissage machine (ML). cette colonne examinera un certain nombre de gestionnaires, en particulier les gestionnaires des secteurs d'activité du matériel peuvent être traitées problème d'abréviations, ces sigles sont constamment dans un système d'apprentissage automatique mentionné: une unité de traitement graphique (unité de traitement graphique, GPU), et sur le terrain des réseaux de portes programmables (domaine de réseau de portes programmable, FPGA).
Cela aide à comprendre la valeur du GPU, comme le traitement des applications d'apprentissage de la profondeur désirée du tenseur accélération GPU (tenseur) du point de FPGA d'intérêt est de trouver de nouvelles façons d'étudier les algorithmes AI, ces systèmes de formation, et commencent maintenant à déployer Beaucoup de systèmes personnalisés à faible volume étudiés dans les applications industrielles de l'IA Bien que ce soit une discussion sur les capacités des FPGA pour la formation, je crois que l'utilisation précoce était due à l'utilisation de F, le domaine.
Par exemple, un moteur d'inférence de formation ( « machine » d'apprentissage de base la machine) peut avoir besoin de giga-octets, et même des téraoctets de données dans le centre de données en cours d'exécution le raisonnement, l'ordinateur doit gérer un potentiel croissant de demandes d'utilisateurs simultanés numéro dans le bord de l'application, que ce soit ou d'un smartphone, les appareils doivent être petits et toujours efficace, mais aussi adaptable dans des véhicules aériens sans pilote pour l'inspection des tuyaux dans. il suffit de mettre un CPU et un GPU les deux appareils, et FPGA peuvent avoir un autre bloc pour faire des choses différentes, et il est possible de fournir un système de puce robuste. Compte tenu de tous ces différents besoins, il est préférable de comprendre l'état actuel de l'architecture du système peut prendre en charge des besoins différents.
Il existe deux types principaux de conception de puces peuvent conduire le système actuel ML, GPU et FPGA. Dans l'avenir à moyen terme (au moins quelques années), il peut y avoir une nouvelle technologie implicite jeu de la conversion. Voyons voir.
Unité de traitement graphique (GPU)
L'apprentissage de la machine est le plus grand GPU unité de traitement graphique puce du monde. Ceci est principalement utilisé dans les jeux d'ordinateur, laissez-le sur l'écran d'ordinateur ressemble mieux à l'apprentissage automatique comment devenir CRITIQUE? Comprendre, nous Doit retourner à la couche logicielle.
Le champion de l'apprentissage automatique est le système Deep Learning (DL), basé sur divers algorithmes, notamment les réseaux neuronaux profonds (DNN), les réseaux neuronaux convolutifs (CNN), les réseaux neuronaux récurrents (RNN) et de nombreuses autres variantes. Le mot clé vu dans ces trois termes est «réseau» L'algorithme est une variation du thème Le sujet est constitué de quelques couches de nœuds Il existe différents types de communication entre les nœuds et les couches.
Vous avez affaire à plusieurs matrices ou matrices.Un autre terme plus précis pour les matrices est le tenseur, il est donc utilisé dans toute l'industrie de l'apprentissage machine, comme TensorFlow.
Maintenant, revenez à l'écran de votre ordinateur, vous pouvez le voir comme une matrice de pixels ou de points par lignes et colonnes, c'est une matrice ou un tenseur bidimensionnel Lorsque vous ajoutez des couleurs, ajoutez la taille de chaque pixel, pensez Pour une image cohérente qui change rapidement, les calculs peuvent rapidement devenir compliqués et prendre des cycles dans une CPU pas à pas.Le GPU a sa propre mémoire et peut enregistrer toute l'image graphique comme une matrice.Il peut alors utiliser des maths tensorielles. Les modifications de l'image ne modifient que les pixels affectés à l'écran, ce qui est beaucoup plus rapide que de redessiner l'intégralité de l'écran à chaque fois que l'image est modifiée.
En 1983, NVIDIA visait à créer une puce pour résoudre les problèmes de matrice qui ne peuvent être résolus par des ordinateurs à usage général tels que les processeurs: c'est la naissance du GPU.
Les opérations matricielles ne se soucient pas du produit final, mais traitent uniquement les éléments: une légère simplification, car les différentes opérations sont matricées (lorsqu'il y a beaucoup de zéros) et la matrice dense est différente et fonctionne différemment. Mais le fait que le contenu ne change pas les opérations existe toujours.Lorsque les théoriciens de l'apprentissage profond ont vu le développement des GPU, ils l'ont rapidement adopté pour accélérer les opérations de tenseurs.
GPU est essentiel pour le développement de l'apprentissage machine, centre de données pour promouvoir la formation et le raisonnement. Par exemple, Volta NVIDIA V100 Tensor de base a continué d'accélérer dans son architecture de base et la capacité de fonctionner à une précision plus faible en termes de raisonnement (ce sera un autre sujet , signifie moins de bits, ce qui signifie un traitement plus rapide, mais il existe d'autres problèmes à prendre en compte en ce qui concerne l'Internet des objets.
FPGA (Field Programmable Gate Array)
Sur le terrain, tous les types d'applications ont des exigences différentes: il existe de nombreux domaines d'application, véhicules, pipelines, robots, etc. Différentes industries peuvent concevoir des puces différentes pour chaque type d'application, mais cela peut serait très coûteux et saperait le retour sur investissement de la société. peut également reporter la mise sur le marché, des occasions importantes d'affaires pour répondre aux besoins très différents de ceux qui ne peuvent pas fournir suffisamment d'économies d'échelle du marché est particulièrement le cas.
entreprises FPGA et des chercheurs pour aider à résoudre le problème de la puce. FPGA est un circuit intégré qui peut être programmé pour des fins diverses. Il a une programmation et des relations entre les blocs et les blocs d'une série de «bloc logique programmable. Il est Un outil universel qui peut être personnalisé pour une variété d'utilisations.Les principaux fournisseurs sont Xilinx et National Instruments.
Notamment, la conception de puces à faible coût ne fait pas le problème de FPGA à faible coût sélectionné. Ils sont généralement mieux adaptés pour la recherche ou les applications industrielles. Circuits programmables de complexité et de la conception, il ne convient pas à faible coût Applications grand public
Étant donné que le FPGA peut être reprogrammé, ce qui le rend précieux pour le nouveau domaine de l'apprentissage machine augmente l'algorithme d'élévation, et à différents algorithmes par bloc de reprogrammation réglage fin. De plus, à faible précision, FPGA à faible puissance inférée pour le capteur à distance Bien que l'inventeur qualifie de «client» le «champ», le véritable avantage du FPGA dans la réalisation d'applications IA est dans le monde réel. Les infrastructures telles que les routes et les pipelines, les inspections à distance des drones et les FPGA permettent aux concepteurs de systèmes d'utiliser une seule pièce de matériel à des fins multiples, permettant des conceptions physiques plus simples pouvant être appliquées plus facilement sur le terrain.
La nouvelle architecture arrive bientôt
GPU et FPGA aident actuellement à résoudre les moyens d'étendre les techniques d'apprentissage machine pour remettre en question beaucoup de l'impact sur le marché qu'ils ont fait est de laisser plus de gens préoccupés par le développement de cette industrie, et d'essayer de créer un nouveau cadre pour l'application en temps opportun.
D'une part, de nombreuses entreprises tentent de tirer les leçons des opérations de tenseurs sur le GPU. Hewlett-Packard, IBM et Intel ont développé un projet spécial pour la prochaine génération de dispositifs informatiques profondeur de tenseur de l'apprentissage. En même temps, comme Cambricon, Graphcore et Informatique Vague De telles startups s'efforcent également de faire la même chose.
D'autre part, le bras, Intel et d'autres entreprises conçoivent l'architecture pour tirer parti des GPU et CPU, et le dispositif vise également à apprendre le marché de la machine, a déclaré être en mesure de faire plus que se concentrer uniquement le calcul du tenseur pour d'autres processus autour du noyau AI Le traitement est également plus puissant.
Bien que certaines de ces organisations se concentrent sur les centres de données et autres Internet of Things, il est trop tôt pour en parler.
De start-up aux sociétés mondiales, une mise en garde est que, en plus de la première information, pas d'autres informations apparaissent. Si nous voyons les premiers échantillons de l'appareil au plus tard en 2020, il serait alors une surprise, ils sont au moins cinq ans Non listé
(Sélectionnée de: forbes Auteur: David A. compilation Teich: NEW YORK participation intelligente: nariiy)
les envois d'exposition de processeur 3.Intel de 10nm petit volume
rendement du procédé Intel 10nm en raison de la non-conformité, la production de masse a été reportée à 2019, maintenant seulement une petite livraisons en volume, un produit connu seulement 15W puissance de conception thermique version basse tension du Core i3-8121U (famille le nom de code Cannon Lac ), et seulement Lenovo l'utilise.
Spécifications pour double cœur i3-8121U quatre fils, cadencés à 2.2-3.2GHz, trois cache de 4 Mo, la mémoire prend en charge DDR4 / LPDDR4-2400 32GB double de canal, puissance de conception thermique de 15W.
Nucléaire ne faisait pas partie des informations publiées, doivent être protégés handicapés en raison de problèmes de rendement, donc penser ajoute une carte graphique AMD.
médias allemand matériel ComputeBase décrit dans le premier i3-8121U « comme si » on peut voir le dispositif d'emballage en accord avec le produit précédent, est encore un noyau de processeur, un ensemble de jeu de puces de noyau ensemble, BGA intégré paquets Soudé sur la carte mère.
Nous avons trouvé une version basse tension du Core Duo huit génération Intel a officiellement donné une photo, vous pouvez trouver un processeur, des noyaux de jeu de puces sont plus petits, les joints de soudure de l'emballage et des éléments capacitifs également beaucoup changé, il devrait être plus compatible.
Après la mesure ComputeBase trouvé i3-8121U taille globale de l'ensemble de 45 × 24 mm (et même indice officiel), dans lequel la zone de section de traitement d'environ 71 mm2, une partie de jeu de puces d'environ 47 mm2.
Bien que, selon l'étude a révélé que la densité des transistors processus Intel 10nm plus de 100 millions par millimètre carré, équivalent ou même supérieur au niveau de Samsung, TSMC, 7 nm GlobalFoundries, mais le contraste de leurs propres produits 14nm, le changement ne semble pas grande.
Vous savez, Intel première génération partie de processeur 14nm de la zone Broadwell-U, mais aussi les 82 mm2, 10nm rétrécir seulement 13% de celui-ci, et nous sommes tous dual core quatre fils, 4 Mo de cache sont, mais nucléaire a été unités de 24 à 40, AVX512 et prend en charge le jeu d'instructions.
En outre, l'ensemble global de 45 x 24 mm est légèrement plus grand que la version basse tension actuelle de 14 nm de 42 x 24 mm.