Avoir plusieurs processeurs sur une seule puce rend les systèmes plus rapide et plus puissant . Cela est particulièrement important pour les systèmes «en temps réel » - des systèmes qui fonctionnent avec les systèmes vivants ou à l'exploitation vidéo. Ordinateurs s'arrêtent souvent pour synchroniser les différents «fils» - les programmes distincts qui travaillent ensemble . Multiprocesseur systèmes sur puces sont une solution de coordonner les différents fils qui composent les systèmes temps réel . Machines Cycles
tous les ordinateurs fonction en répétant le même " cycle de la machine " à plusieurs reprises. Étape 1: Récupère la prochaine instruction de la mémoire. Étape 2: Exécutez l' instruction qui vient d'être tiré par les cheveux . C'est la façon dont l'ordinateur fait son chemin à travers des programmes - une instruction à la fois. Les programmes codent algorithmes pour savoir comment faire différentes tâches et l'ordinateur va juste les instructions dans le programme. Avant les années 1970, lorsque jetons de départ apparaissent , l'unité centrale de traitement ( CPU) qui ne l' extraction et l'exécution accédé à la mémoire pour chaque instruction comme il le fallait . La première amélioration dans ce processus a été l'élaboration de "cache" - un petit bloc de très grande vitesse mémoire
puces informatiques
Avec le développement de puces . , la CPU a été mis sur une seule puce , la mémoire cache sur un autre et la mémoire sur d'autres processeurs . Pour récupérer une nouvelle instruction que vous aviez pour transférer des informations d'une puce à une autre . Le problème, c'est que l'accès à l'information "off puce " prend environ 1000 fois plus longtemps que le déplacement des informations autour d'une puce . La première amélioration à cet été de mettre une partie de la mémoire cache sur la puce. Cache sur puce est appelée cache L1 , et hors cache puce est appelée mémoire cache L2. Maintenant gros blocs de programme sont déplacés vers L2 et blocs de L2 sont déplacés vers L1 , la majorité des extractions sont faites à partir de L1 , ce qui accélère considérablement le chercher /processus exécuter
. multitraitement
ordinateurs sont devenus plus rapides à la fois le mode de chargement et l' exécution , mais il ya une autre façon d' accélérer le traitement : multitraitement . Cela signifie avoir deux processeurs ou plus , où chaque CPU travaille sur différents processus. Certaines des premières applications de cette idée impliquait la manipulation d' entrée et les processus de production. Les premiers ordinateurs ne fonctionnaient grâce à l'algorithme de traitement pendant l'impression. Avoir une autre CPU pour contrôler simplement l'impression signifie que le CPU principal donne juste le CPU de l'imprimante pour imprimer le message , puis se poursuit avec le traitement lors de l'impression se produit. Multitraitement est aussi appelé traitement parallèle parce que deux ou plusieurs processus se déroulent en même temps .
Systèmes sur une puce
mettre plusieurs processeurs avec leurs caches L1 sur un signifie une seule puce que la majorité de l'instruction récupère , ainsi que les messages entre les processeurs , n'ont pas à aller hors de la puce . Ces puces sont de plus en plus populaire pour le traitement haute vitesse des programmes complexes.