Question Pourquoi ne pas "ajouter plus de cœurs" font-ils face aux mêmes limitations physiques que "rendre le processeur plus rapide"?


En 2014, j'ai entendu beaucoup de langages de programmation vantés pour leur concurrence fonctionnalités. La concurrence est considérée comme cruciale pour les gains de performance.

En faisant cette déclaration, beaucoup de personnes font référence à un article de 2005 intitulé le Le déjeuner gratuit est terminé: un tournant fondamental vers la concurrence dans Logiciel. Les bases L'argument est qu'il devient plus difficile d'augmenter la vitesse d'horloge de processeurs, mais nous pouvons toujours mettre plus de cœurs sur une puce, et cela pour obtenir gains de performance, les logiciels devront être écrits pour tirer parti de plusieurs noyaux.

Quelques citations clés:

Nous avons l'habitude de voir les processeurs à 500 MHz céder la place aux processeurs à 1 GHz   Processeurs 2 GHz, etc. Aujourd'hui, nous sommes dans la gamme 3GHz sur le grand public   des ordinateurs.

La question clé est la suivante: quand se terminera-t-il? Après tout, la loi de Moore prédit   croissance exponentielle, et clairement croissance exponentielle ne peut pas continuer   pour toujours avant que nous atteignions des limites physiques difficiles; la lumière ne reçoit pas   plus rapide. La croissance doit éventuellement ralentir et même cesser.

... Il est devenu de plus en plus difficile d’exploiter des fréquences d’horloge plus élevées   pas seulement un, mais plusieurs problèmes physiques, notamment la chaleur (trop de   et trop difficile à dissiper), la consommation électrique (trop élevée), et   problèmes de fuite actuels.

... L'avenir d'Intel et de la plupart des fournisseurs de processeurs est ailleurs   les entreprises poursuivent de manière agressive les mêmes nouvelles directions multicœurs.

... Multicore consiste à exécuter deux CPU ou plus sur une seule puce.

Les prédictions de cet article semblent avoir résisté, mais je ne comprends pas pourquoi. je avoir des idées très vagues sur le fonctionnement du matériel.

Mon point de vue simplifié est qu’il est de plus en plus difficile d’emballer davantage de puissance de traitement. dans le même espace "(en raison de problèmes de chaleur, de consommation électrique, etc.). I s'attendrait à ce que la conclusion soit "par conséquent, nous devrons avoir plus grand ordinateurs ou exécuter nos programmes sur plusieurs ordinateurs. "(Et en effet, distribué Le cloud computing est une chose dont nous entendons parler.)

Mais une partie de la solution semble être l’architecture multi-core. À moins d'ordinateurs grandir (ce qu'ils n'ont pas), cela semble être une autre façon de dire "emballer plus de puissance de traitement dans le même espace".

Pourquoi ne pas "ajouter plus de cœurs" font face aux mêmes limitations physiques que "faire le CPU plus rapide "?

Veuillez expliquer dans les termes les plus simples possibles. :)


108
2017-08-15 14:22


origine


Il y a quelques questions connexes à Ingénierie électrique: electronics.stackexchange.com/q/122050/34550  electronics.stackexchange.com/q/76580/34550 - Bob
en.wikipedia.org/wiki/Moore%27s_law vaut une lecture - puisque nous parlons de deux choses différentes. La loi de Moore ne concerne pas la vitesse comptage des transistors - Journeyman Geek♦
Imaginons qu'il y a 30 ans, les processeurs fonctionnaient à 4,77 MHz. Pourquoi pourriez-vous mettre 1000 ordinateurs avec des processeurs de 4 MHz dans la même pièce, même s'il était impossible d'obtenir un processeur à 4 GHz? - user20574
@NathanLong mais il est toujours beaucoup plus facile d'obtenir plus d'espace (pour plus d'ordinateurs) que d'obtenir un ordinateur plus rapide. - user20574
Analogie: un moteur de voiture ne peut être fait qu'à un nombre de tours par minute, mais vous pouvez facilement le verrouiller ensemble. - OJFord


Réponses:


Résumé

  • Économie. Il est moins coûteux et plus facile de concevoir un processeur qui a plus de cœurs qu'une vitesse d'horloge plus élevée, car:

  • Augmentation significative de la consommation d'énergie. La consommation d'énergie du processeur augmente rapidement lorsque vous augmentez la vitesse d'horloge - vous pouvez doubler le nombre de cœurs fonctionnant à une vitesse inférieure dans l'espace thermique nécessaire pour augmenter la vitesse d'horloge de 25%. Quadruple pour 50%.

  • Il existe d'autres moyens d'augmenter la vitesse de traitement séquentiel, et les fabricants de processeurs en font bon usage.


Je vais miser beaucoup sur les excellentes réponses à cette question sur l'un de nos sites soeur SE. Alors, montez-les!


Limites de vitesse d'horloge

Il existe quelques limitations physiques connues à la vitesse d'horloge:

  • Temps de transmission

    Le temps nécessaire à un signal électrique pour traverser un circuit est limité par la vitesse de la lumière. C'est une limite difficile et il n'y a pas de moyen connu1. Aux horloges gigahertz, nous approchons de cette limite.

    Cependant, nous n'y sommes pas encore. 1 GHz signifie une nanoseconde par coup d'horloge. Pendant ce temps, la lumière peut parcourir 30 cm. À 10 GHz, la lumière peut parcourir 3 cm. Un seul cœur de processeur fait environ 5 mm de large, donc nous allons rencontrer ces problèmes quelque part après 10 GHz.2

  • Délai de commutation

    Il ne suffit pas de considérer simplement le temps nécessaire pour qu'un signal se déplace d'un bout à l'autre. Nous devons également prendre en compte le temps nécessaire à une porte logique dans la CPU pour passer d'un état à un autre! Comme nous augmentons la vitesse d'horloge, cela peut devenir un problème.

    Malheureusement, je ne suis pas sûr des détails et je ne peux pas fournir de chiffres.

    Apparemment, le fait de pomper plus d’énergie peut accélérer la commutation, mais cela entraîne des problèmes de consommation d’énergie et de dissipation thermique. En outre, plus de puissance signifie que vous avez besoin de conduits plus volumineux capables de le manipuler sans dommage.

  • Dissipation de chaleur / consommation d'énergie

    C'est le grand. Citant de La réponse de fuzzyhair2:

    Les processeurs récents sont fabriqués en utilisant la technologie CMOS. Chaque fois qu'il y a un cycle d'horloge, le courant est dissipé. Par conséquent, une vitesse de processeur plus élevée signifie plus de dissipation thermique.

    Il y a quelques belles mesures à ce fil de forum AnandTech, et ils ont même élaboré une formule pour la consommation d'énergie (qui va de pair avec la chaleur générée):

    Formula
    Crédit à Idontcare

    Nous pouvons le visualiser dans le graphique suivant:

    Graph
    Crédit à Idontcare

    Comme vous pouvez le constater, la consommation d'énergie (et la chaleur générée) augmente très rapidement lorsque la vitesse d'horloge augmente après un certain point. Cela rend impossible d'augmenter sans limite la vitesse d'horloge.

    La raison de l'augmentation rapide de la consommation d'énergie est probablement liée au délai de commutation - il ne suffit pas d'augmenter simplement la puissance proportionnelle à la fréquence d'horloge; la tension doit également être augmentée pour maintenir la stabilité aux horloges supérieures. Cela peut ne pas être complètement correct. N'hésitez pas à signaler des corrections dans un commentaire ou à modifier cette réponse.


Plus de noyaux?

Alors pourquoi plus de cœurs? Eh bien, je ne peux pas répondre à cela de manière définitive. Vous devriez demander aux gens d'Intel et d'AMD. Mais vous pouvez voir ci-dessus que, avec les processeurs modernes, il devient impossible d'augmenter la vitesse d'horloge.

Oui, le multicœur augmente également la puissance requise et la dissipation thermique. Mais cela évite parfaitement les problèmes de temps de transmission et de délai de commutation. Et, comme vous pouvez le voir sur le graphique, vous pouvez facilement doubler le nombre de cœurs dans un processeur moderne avec la même charge thermique qu'une augmentation de 25% de la vitesse d'horloge.

Certaines personnes l’ont fait - le courant record du monde d'overclocking est juste timide de 9 GHz. Mais faire de la consommation d’énergie dans des limites acceptables constitue un défi technique important. Les concepteurs à un moment donné ont décidé d'ajouter plus de cœurs pour effectuer plus de travail en parallèle donnerait une impulsion plus efficace à la performance dans la plupart des cas.

C'est là qu'intervient l'économie - il était probablement moins coûteux (moins de temps de conception, moins compliqué à fabriquer) pour emprunter la route multicœur. Et c'est facile à commercialiser - qui n'aime pas le tout nouveau octa-core puce? (Bien sûr, nous savons que le multicore est plutôt inutile lorsque le logiciel ne l'utilise pas ...)

est Un inconvénient du multicœur: vous avez besoin de plus d'espace physique pour placer le noyau supplémentaire. Cependant, la taille des processeurs diminue constamment, il y a donc beaucoup d'espace pour placer deux copies d'une conception précédente - le vrai compromis est de ne pas pouvoir créer des cœurs simples plus grands et plus complexes. Là encore, la complexité croissante du noyau est un mauvaise chose du point de vue de la conception - plus de complexité = plus d'erreurs / de bogues et d'erreurs de fabrication. Il semble que nous ayons trouvé un juste milieu avec des noyaux efficaces suffisamment simples pour ne pas prendre trop de place.

Nous avons déjà atteint une limite avec le nombre de cœurs que nous pouvons installer sur un seul dé à la taille actuelle des processus. Nous pourrions atteindre une limite à la vitesse à laquelle nous pouvons réduire les choses. Alors, quelle est la prochaine? Avons-nous besoin de plus? C'est difficile à répondre, malheureusement. Quelqu'un ici est un clairvoyant?


Autres moyens d'améliorer les performances

Donc, nous ne pouvons pas augmenter la vitesse d'horloge. Et un plus grand nombre de cœurs ont un inconvénient supplémentaire, à savoir qu'ils ne sont utiles que lorsque les logiciels exécutés peuvent les utiliser.

Alors, que pouvons-nous faire d'autre? Comment les processeurs modernes sont-ils tellement plus rapides que les anciens à la même vitesse d'horloge?

La vitesse d'horloge n'est en réalité qu'une approximation très approximative du fonctionnement interne d'une CPU. Tous les composants d'un processeur ne fonctionnent pas à cette vitesse - certains peuvent fonctionner une fois tous les deux temps, etc.

Ce qui est plus significatif est le nombre de instructions vous pouvez exécuter par unité de temps. C'est une mesure bien meilleure de ce que peut accomplir un seul cœur de processeur. Quelques instructions; certains prendront un cycle, d'autres en prendront trois. La division, par exemple, est considérablement plus lente que l'addition.

Ainsi, nous pourrions améliorer les performances d'un processeur en augmentant le nombre d'instructions qu'il peut exécuter par seconde. Comment? Eh bien, vous pourriez rendre une instruction plus efficace - peut-être que la division ne prend désormais que deux cycles. Puis il y a instruction en pipeline. En décomposant chaque instruction en plusieurs étapes, il est possible d'exécuter des instructions "en parallèle" - mais chaque instruction a toujours un ordre séquentiel, bien défini, respectant les instructions avant et après, de sorte qu'il ne nécessite pas de support logiciel tel que multicœur Est-ce que.

Il y a un autre façon: des instructions plus spécialisées. Nous avons vu des choses comme SSE, qui fournissent des instructions pour traiter de grandes quantités de données à la fois. De nouveaux jeux d'instructions sont constamment introduits avec des objectifs similaires. Encore une fois, ceux-ci nécessitent un support logiciel et augmentent la complexité du matériel, mais ils offrent un bon gain de performances. Récemment, il y a eu AES-NI, qui fournit un cryptage et un décryptage AES avec accélération matérielle, beaucoup plus rapide qu'un ensemble d'arithmétique implémenté dans un logiciel.


1 De toute façon, non sans approfondir la physique quantique théorique.

2 Il pourrait en fait être inférieur, car la propagation du champ électrique n'est pas aussi rapide que la vitesse de la lumière dans le vide. En outre, cela ne concerne que la distance en ligne droite - il est probable qu’il y ait au moins un chemin beaucoup plus long qu’une ligne droite.


142
2017-08-15 15:13



En outre, dans de nombreuses applications, le goulot d’étranglement n’est pas le temps de calcul, mais le temps nécessaire pour récupérer des données à partir de la mémoire vive (ou, dieu l'interdit, du disque); ainsi, un autre accélérateur majeur vient des caches de processeur plus grands et plus rapides. - Matteo Italia
@ MatteoItalia Yup. Et il y a aussi des améliorations de prédiction de branche, et probablement beaucoup plus que je ne connais pas. En dehors du processeur, nous avons également des bus plus rapides, une mémoire plus rapide, des disques plus rapides et des protocoles associés, etc. - Bob
Vous avez mentionné que les problèmes liés à la "limite stricte" de la vitesse de la lumière se produiraient à "quelque 20 GHz". Vos calculs ne sont pas corrects Les signaux électriques circulent à des vitesses inférieures à la vitesse de la lumière, en fonction de la géométrie du fil. - Giulio Muscarello
S'il vous plaît ne pas utiliser "exponentielle" quand il ya des mots plus corrects pour cette relation (quadratique, cubique, etc.) ... - Oliver Charlesworth
@OliCharlesworth Veuillez lire la note de bas de page. C'est précisément pourquoi la note de bas de page est là et pourquoi j'ai des références partout exponential est utilisé. Ceci est une utilisation parfaitement valide du mot, et il serait tangent au point de cette réponse de s'enliser dans les détails mathématiques. Si vous voulez vraiment essayer de le "corriger", n'hésitez pas à suggérer une modification. Ce ne sera pas à moi si elle est acceptée ou non, tant que vous ne changez pas de manière significative la signification. - Bob


La physique est la physique. Nous ne pouvons pas continuer à emballer plus de transistors dans des espaces toujours plus petits pour toujours. À un moment donné, il devient si petit que vous faites face à des conneries quantiques étranges. À un moment donné, nous ne pouvons pas emballer deux fois autant de transistors dans une année que nous en avions l'habitude (ce qui est la loi de moore).

Les vitesses d'horloge brutes ne veulent rien dire. Mon ancien Pentium M était environ deux fois moins rapide qu'un processeur de bureau contemporain (et pourtant à bien des égards plus rapide) - et les systèmes modernes sont à peine approcher les vitesses des systèmes il y a 10 ans (et sont clairement plus rapides). Fondamentalement, «juste» augmenter la vitesse d'horloge ne donne pas de réels gains de performance dans de nombreux cas. Cela peut aider certains opérations simples, mais il vaut mieux dépenser le budget de conception sur une meilleure efficacité en termes de tout le reste.

Plusieurs noyaux vous permettent de faire deux  ou plusieurs choses à la fois, vous n'avez donc pas besoin d'attendre une chose pour la suivante. À court terme, vous pouvez simplement insérer deux cœurs existants dans le même package (par exemple, avec le même Pentium Ds, et leur MCM, qui était une conception de transition) et vous avez un système deux fois plus rapide. La plupart des implémentations modernes partagent bien sûr des choses comme un contrôleur de mémoire.

Vous pouvez également construire plus intelligemment de différentes manières. ARM fait Big-Little - avec 4 cœurs «faibles» de faible puissance travaillant avec 4 cœurs plus puissants, vous avez le meilleur des deux mondes. Intel vous permet d'accélérer (pour une meilleure efficacité énergétique) ou d'overclocker spécifique cores (pour une meilleure performance du thread unique). Je me souviens que AMD fait quelque chose avec des modules.

Vous pouvez également déplacer des éléments tels que des contrôleurs de mémoire (vous avez donc une latence plus faible) et des fonctions liées aux IO (le processeur moderne ne possède pas de pont nord) ainsi que la vidéo (ce qui est plus important avec les ordinateurs portables et la conception AIW). Il est plus judicieux de faire ces choses que de «simplement» augmenter la vitesse d'horloge.

À un moment donné, il est possible que plus de cœurs ne fonctionnent pas - même si les GPU ont des centaines des noyaux.

Les multicores en tant que tels permettent aux ordinateurs de fonctionner plus intelligent de toutes ces manières.


14
2017-08-15 14:36



Il convient de noter que les cœurs de GPU sont conçus dans un but très spécifique, par opposition aux cœurs de processeur qui sont plus polyvalents. Il convient également de noter que les cartes vidéo sont nettement plus grandes que les processeurs (ce qui signifie que même si les cœurs n’utilisent pas toute la pièce sur la carte, ils ont encore beaucoup plus de place pour dissiper la chaleur). - user2366842
C'est vrai, mais c'est un exemple où vous augmentez considérablement le nombre de cœurs. Je vais probablement revoir cette réponse le matin - Journeyman Geek♦
"Vous pouvez simplement insérer deux cœurs existants dans le même paquet". Mais comment ils y parviennent sans utiliser plus d'espace pour les noyaux supplémentaires Comment?! La magie? Des licornes? Chiots? (Par ton avatar, je soupçonne ce dernier) - That Brazilian Guy
Pentium Ds étaient que en.wikipedia.org/wiki/Pentium_D fondamentalement - Journeyman Geek♦
wierd quantum crap + 1 pour ça tout seul! - Dave


Réponse simple

La réponse la plus simple à la question

Pourquoi ne pas "ajouter plus de cœurs" font-ils face aux mêmes limitations physiques que "rendre le processeur plus rapide"?

se trouve effectivement dans une autre partie de votre question:

Je m'attendrais à ce que la conclusion soit "par conséquent, nous devrons avoir de plus gros ordinateurs ou exécuter nos programmes sur plusieurs ordinateurs".

Essentiellement, plusieurs cœurs sont comme avoir plusieurs "ordinateurs" sur le même périphérique.

Réponse complexe

Un "core" est la partie de l'ordinateur qui traite les instructions (ajout, multiplication, "ing", etc.). Un noyau ne peut exécuter qu'une seule instruction à la fois. Si vous voulez que votre ordinateur soit "plus puissant", vous pouvez faire deux choses simples:

  1. Augmenter le débit (augmenter la fréquence d'horloge, diminuer la taille physique, etc.)
  2. Utiliser plus de cœurs sur le même ordinateur

Les limitations physiques du n ° 1 sont principalement la nécessité de décharger la chaleur provoquée par le traitement et la vitesse d'un électron dans le circuit. Une fois que vous avez divisé certains de ces transistors en un noyau distinct, vous pouvez réduire le problème de chaleur dans une large mesure.

Il y a une limitation importante à # 2: vous devez être capable de diviser votre problème en plusieurs indépendant problèmes, puis combiner la réponse. Sur un ordinateur personnel moderne, ce n’est pas vraiment un problème, car il existe de nombreux problèmes indépendants qui, de toute façon, sont tous confrontés au temps de calcul avec le (s) noyau (s). Mais lorsque vous rencontrez des problèmes de calcul intensifs, les cœurs multiples ne sont vraiment utiles que si le problème se prête à la concurrence.


9
2017-08-15 17:13



"plusieurs cœurs, c'est comme avoir plusieurs" ordinateurs "sur le même appareil." Bien, mais ma confusion était, comment les intégrez-vous? Je pensais que "nous ne pouvons pas aller plus vite" était un symptôme de "nous ne pouvons pas réduire les choses beaucoup plus". - Nathan Long
Plusieurs cœurs prennent plus de place, les puces grossissent. La charge a été transférée du processeur à l’ingénieur logiciel. Pour fonctionner plus rapidement sur l’un de ces processeurs multi-cœurs géants, le logiciel doit être écrit de manière à réduire son travail de moitié et à réaliser les deux moitiés de manière indépendante. - James
Une réponse courte est que la consommation d'énergie est proportionnelle au cube de la vitesse d'horloge. Avec des signaux parcourant de plus longues distances, l'illusion d'un seul fil devient plus difficile à maintenir. La réponse détaillée: amazon.com/... - Rob


Pourquoi ne pas "ajouter plus de cœurs" font-ils face aux mêmes limitations physiques que "rendre le processeur plus rapide"?

Ils font face aux mêmes limitations physiques, mais le passage à la conception multicœur nous donne un peu de répit avant d’en toucher certains. Parallèlement, d'autres problèmes sont causés par ces limitations, mais ils sont plus faciles à surmonter.

Fait 1: La consommation d'énergie et la chaleur émise augmentent plus rapidement que la puissance de calcul. Pousser une CPU de 1 GHz à 2 GHZ poussera la consommation électrique de 20 W à 80 W, même avec la chaleur dissipée. (Je viens de composer ces chiffres, mais c'est comme ça que ça marche)

Fait 2: L'achat d'un second processeur et son fonctionnement à 1 GHz doubleraient votre puissance de calcul. Deux processeurs fonctionnant à 1 GHz pourraient traiter la même quantité de données qu'un processeur à 2 GHz, mais chacun ne consommerait que 20 W d'énergie, soit 40 W au total.

Profit: Doubler le nombre de CPU au lieu de la fréquence d'horloge nous permet d'économiser de l'énergie et nous ne sommes pas aussi proches de la "barrière de fréquence" qu'auparavant.

Problème: Vous devez diviser le travail entre deux processeurs et combiner les résultats ultérieurement.

Si vous pouvez résoudre ce problème en un temps acceptable et en utilisant moins d'énergie que ce que vous venez d'enregistrer, vous ne pourrez que profiter de l'utilisation de plusieurs processeurs.

Maintenant, il vous suffit de fusionner deux processeurs en un seul processeur double cœur et vous êtes à la maison. Cela est bénéfique car les cœurs peuvent partager certaines parties du processeur, par exemple le cache (réponse connexe).


6
2017-08-15 19:43



Nous continuons à atteindre des limitations physiques de 1000 manières différentes, la taille de la matrice (pour les multi-coeurs qui conduit à un processus de fabrication plus petit), la taille du mobo (pour le multi-processeur), les amplis dessinés par les traces. ce n'est pas comme si vous pouviez mettre 2 processeurs sur un m-atx ou 4 et de la mémoire sur une carte atx et ces conceptions prennent DECADES pour changer. Je suis d'accord avec le reste. - Rostol
@Rostol C'est un bon point, j'ai édité la réponse. - gronostaj


En bref: Accélérer les coeurs simples a atteint ses limites, alors nous continuons à les réduire et à en ajouter plus, jusqu'à ce que cela atteigne ses limites ou que nous puissions changer de matériel (ou réaliser une percée fondamentale qui renverse la technologie établie, informatique à domicile, fonctionnant réellement, l'informatique quantique).

Je pense que ce problème est multidimensionnel et il faudra un peu d’écriture pour brosser un tableau plus complet:

  1. Limites physiques (imposées par la physique actuelle): Comme la vitesse de la lumière, la mécanique quantique, tout ça.
  2. Problèmes de fabrication: comment fabriquons-nous des structures toujours plus petites avec la précision requise? Problèmes liés aux matières premières, matériaux utilisés pour construire des circuits, durabilité.
  3. Problèmes d'architecture: chaleur, inférence, consommation d'énergie, etc.
  4. Problèmes économiques: Quel est le moyen le moins coûteux d'obtenir plus de performances pour l'utilisateur?
  5. Cas d'utilisation et perception de la performance par l'utilisateur.

Il y en a peut-être beaucoup plus. Un processeur multifonction essaie de trouver une solution pour brouiller tous ces facteurs (et plus encore) en une seule puce pouvant être produite en série et qui convient à 93% des sujets sur le marché. Comme vous le voyez, le dernier point est le plus crucial, la perception du client, qui découle directement de la manière dont le client utilise le processeur.

Demandez-vous quelle est votre application habituelle? Peut-être: 25 onglets Firefox, chacun jouant des annonces en arrière-plan, pendant que vous écoutez de la musique, tout en attendant la fin de votre job de construction que vous avez démarré il y a 2 heures. C'est beaucoup de travail à faire, et vous voulez quand même une expérience sans heurts. Mais votre CPU peut gérer une seule tâche à la fois! Sur une seule chose Donc, ce que vous faites, c'est de diviser les choses et de faire une longue file d'attente et chacun a sa propre part et tous sont heureux. Sauf pour toi parce que toutes les choses deviennent lentes et pas lisses du tout.

Donc, vous accélérez votre CPU, afin de faire plus d'opérations dans le même laps de temps. Mais comme vous l'avez dit: la consommation de chaleur et d'électricité. Et c'est là que nous arrivons à la partie matière première. Le silicium devient plus conducteur à mesure qu'il fait plus chaud, ce qui signifie que plus de courant circule dans le matériau lorsque vous le chauffez. Les transistors consomment plus d'énergie lorsque vous les commutez plus rapidement. De plus, les hautes fréquences aggravent la diaphonie entre les fils courts. Donc, vous voyez, l’approche accélérée conduira à une «crise». Tant que nous n'avons pas de meilleures matières premières que le silicium ou de bien meilleurs transistors, nous sommes coincés là où nous sommes avec une vitesse à cœur unique.

Cela nous ramène à nos débuts. Faire les choses en parallèle. Ajoutons un autre noyau. Maintenant, nous pouvons réellement faire deux choses à la fois. Donc, laissez un peu refroidir un peu et écrivez simplement un logiciel qui peut diviser son travail sur deux noyaux moins puissants mais plus fonctionnels. Cette approche a deux problèmes principaux (en plus du fait que le monde du logiciel a besoin de temps pour s'y adapter): 1. Agrandissez la puce ou réduisez le noyau individuel. 2. Certaines tâches ne peuvent pas être divisées en deux parties simultanément. Continuez à ajouter des cœurs tant que vous pouvez les réduire ou agrandir la puce et éviter les problèmes de chaleur. Oh, et n'oublions pas le client. Si nous changeons nos cas d'utilisation, les industries doivent s'adapter. Voir toutes les «nouvelles» brillantes que le secteur de la téléphonie mobile a créées. C'est pourquoi le secteur de la téléphonie mobile est considéré comme crucial et tout le monde veut y mettre la main.

Oui, cette stratégie atteindra ses limites! Et Intel le sait, c'est pourquoi ils disent que l'avenir est ailleurs. Mais ils continueront à le faire tant qu’il est bon marché, efficace et réalisable.

Last but not least: la physique. La mécanique quantique limitera le rétrécissement des puces. La vitesse de la lumière n'est pas encore une limite, puisque les électrons ne peuvent pas voyager à la vitesse de la lumière dans le silicium, en fait, ils sont beaucoup plus lents. De plus, c’est la vitesse de l’impulsion qui met le cap sur la vitesse offerte par un matériau. Tout comme le son voyage plus vite dans l'eau que dans l'air, les impulsions électriques voyagent plus rapidement, par exemple, dans le graphène que dans le silicium. Cela ramène aux matières premières. Le graphène est excellent en ce qui concerne ses propriétés électriques. Cela rendrait un matériel bien meilleur pour construire des processeurs, malheureusement il est très difficile de produire en grande quantité.


5
2017-08-15 15:49





Disons (comme exemple irréaliste, mais devrait toujours faire passer le message) que vous avez un processeur qui tourne à 100F. En général, le multicœur fonctionne en prenant la fréquence d'horloge que le processeur fonctionnant à 100F et en baissant, réduisant ainsi la vitesse. Comme il ne fonctionne plus aussi chaud, il peut se placer juste à côté de la seconde, de la troisième ou de la quatrième, sans affecter de manière significative la température globale du processeur et tirer parti des avantages du multicœur. Cela vient évidemment avec des frais généraux, car les noyaux doivent toujours être contrôlés d'un endroit, d'un noyau. Plus vous ajoutez de cœurs, plus la charge est importante. En ce qui concerne les noyaux simples, plus vous augmentez la vitesse, plus ils génèrent de chaleur. Cela a évidemment des limites physiques (c’est-à-dire qu’au bout d’un certain temps, cela commence à nuire aux performances, et même dangereux s’il fait trop chaud)

Au fil du temps, ils ont trouvé des moyens de réduire la taille physique du processeur, ce qui explique pourquoi nous n’avons pas encore eu besoin de plus d’espace, cependant, par exemple, les processeurs à 16 cœurs n’existent pas vraiment (au le temps d'écriture) en dehors de l'équipement de qualité serveur en raison des limitations de taille physique, car les processeurs de qualité serveur sont significativement plus gros physiquement que les processeurs standard.


2
2017-08-15 14:30





CPU = Moteur de voiture: Il est plus facile de fabriquer une voiture plus puissante avec 16 soupapes, c’est-à-dire une lamborghini, qu’une voiture à haut régime qui aurait une énorme soupape / cylindre à 100 000 tr / min.

Les raisons sont physiques et chimiques, le silicium doit être remplacé par un carburant de fusée informatique pour modifier l'équilibre entre le nombre de noyaux et la vitesse du cœur.


2
2017-08-17 07:58