Les métriques de performance des ordinateurs (choses à mesurer) comprennent la disponibilité, le temps de réponse, la capacité des canaux, la latence, le temps d’achèvement, le temps de service, la bande passante, le débit, l’efficacité relative, l’évolutivité, la performance par watt, le taux de compression, la longueur du chemin d’instruction et la vitesse en hausse. Des benchmarks de CPU sont disponibles.
- DisponibilitéEdit
- Temps de réponseModifier
- Vitesse de traitementÉditer
- Capacité des canauxÉditer
- LatenceEdit
- Bande passanteEdit
- Modification du débit
- Efficacité relativeModifier
- Mise à l’échelleEdit
- Consommation d’énergieEdit
- Performance par wattEdit
- Ratio de compressionEdit
- Taille et poidsEdit
- Impact environnementalEdit
- Compte des transistorsEdit
DisponibilitéEdit
La disponibilité d’un système est généralement mesurée comme un facteur de sa fiabilité – plus la fiabilité augmente, plus la disponibilité augmente (c’est-à-dire moins de temps d’arrêt). La disponibilité d’un système peut également être augmentée par la stratégie consistant à se concentrer sur l’augmentation de la testabilité et de la maintenabilité et non sur la fiabilité. Il est généralement plus facile d’améliorer la maintenabilité que la fiabilité. Les estimations de maintenabilité (taux de réparation) sont aussi généralement plus précises. Cependant, comme les incertitudes des estimations de fiabilité sont dans la plupart des cas très importantes, il est probable qu’elles dominent le problème de la disponibilité (incertitude de prédiction), même si les niveaux de maintenabilité sont très élevés.
Temps de réponseModifier
Le temps de réponse est le temps total qu’il faut pour répondre à une demande de service. En informatique, ce service peut être n’importe quelle unité de travail, d’une simple entrée-sortie de disque au chargement d’une page web complexe. Le temps de réponse est la somme de trois nombres :
- Temps de service – Combien de temps il faut pour effectuer le travail demandé.
- Temps d’attente – Combien de temps la demande doit attendre les demandes mises en file d’attente avant de pouvoir s’exécuter.
- Temps de transmission – Combien de temps il faut pour déplacer la demande vers l’ordinateur qui effectue le travail et la réponse en retour vers le demandeur.
Vitesse de traitementÉditer
La plupart des consommateurs choisissent une architecture informatique (normalement l’architecture Intel IA32) pour pouvoir exécuter une large base de logiciels préexistants et précompilés. Étant relativement peu informés sur les benchmarks informatiques, certains d’entre eux choisissent une unité centrale particulière en fonction de la fréquence de fonctionnement (voir le mythe du mégahertz).
Certains concepteurs de systèmes construisant des ordinateurs parallèles choisissent des unités centrales en fonction de la vitesse par dollar.
Capacité des canauxÉditer
La capacité du canal est la limite supérieure la plus stricte sur le taux d’information qui peut être transmis de manière fiable sur un canal de communication. Par le théorème de codage canal bruyant, la capacité de canal d’un canal donné est le taux d’information limite (en unités d’information par unité de temps) qui peut être atteint avec une probabilité d’erreur arbitrairement faible.
La théorie de l’information, développée par Claude E. Shannon pendant la Seconde Guerre mondiale, définit la notion de capacité de canal et fournit un modèle mathématique par lequel on peut la calculer. Le résultat clé stipule que la capacité du canal, telle que définie ci-dessus, est donnée par le maximum de l’information mutuelle entre l’entrée et la sortie du canal, où la maximisation se fait par rapport à la distribution de l’entrée.
LatenceEdit
La latence est un délai entre la cause et l’effet d’un certain changement physique dans le système observé. La latence est le résultat de la vélocité limitée avec laquelle toute interaction physique peut avoir lieu. Cette vitesse est toujours inférieure ou égale à la vitesse de la lumière. Par conséquent, tout système physique qui a des dimensions spatiales différentes de zéro connaîtra une sorte de latence.
La définition précise de la latence dépend du système observé et de la nature de la stimulation. Dans les communications, la limite inférieure de la latence est déterminée par le support utilisé pour les communications. Dans les systèmes de communication bidirectionnels fiables, la latence limite le débit maximal de transmission des informations, car il existe souvent une limite à la quantité d’informations « en vol » à un moment donné. Dans le domaine de l’interaction homme-machine, la latence perceptible (délai entre ce que l’utilisateur commande et le moment où l’ordinateur fournit les résultats) a un effet important sur la satisfaction de l’utilisateur et la convivialité.
Les ordinateurs exécutent des ensembles d’instructions appelés processus. Dans les systèmes d’exploitation, l’exécution du processus peut être reportée si d’autres processus sont également en cours d’exécution. En outre, le système d’exploitation peut programmer le moment où il faut exécuter l’action que le processus commande. Par exemple, supposons qu’un processus ordonne que la tension de sortie d’une carte d’ordinateur soit réglée sur haut-bas-haut-bas et ainsi de suite à une fréquence de 1000 Hz. Le système d’exploitation peut choisir d’ajuster l’ordonnancement de chaque transition (haut-bas ou bas-haut) en fonction d’une horloge interne. La latence est le délai entre l’instruction de processus commandant la transition et le matériel faisant effectivement passer la tension de haut en bas ou de bas en haut.
Les concepteurs de systèmes construisant des systèmes de calcul en temps réel veulent garantir la réponse dans le pire des cas. C’est plus facile à faire lorsque le processeur a une faible latence d’interruption et lorsqu’il a une réponse déterministe.
Bande passanteEdit
En réseau informatique, la bande passante est une mesure du débit binaire des ressources de communication de données disponibles ou consommées, exprimée en bits par seconde ou en multiples de celle-ci (bit/s, kbit/s, Mbit/s, Gbit/s, etc.).
La bande passante définit parfois le débit binaire net (alias débit binaire de pointe, débit d’information ou débit binaire utile de la couche physique), la capacité du canal ou le débit maximal d’une voie de communication logique ou physique dans un système de communication numérique. Par exemple, les tests de largeur de bande mesurent le débit maximal d’un réseau informatique. La raison de cet usage est que, selon la loi de Hartley, le débit maximal d’une liaison de communication physique est proportionnel à sa largeur de bande en hertz, parfois appelée largeur de bande de fréquence, largeur de bande spectrale, largeur de bande RF, largeur de bande de signal ou largeur de bande analogique.
Modification du débit
En termes généraux, le débit est le taux de production ou la vitesse à laquelle quelque chose peut être traité.
Dans les réseaux de communication, le débit est essentiellement synonyme de consommation de bande passante numérique. Dans les réseaux sans fil ou les réseaux de communication cellulaire, l’efficacité spectrale du système en bit/s/Hz/unité de surface, bit/s/Hz/site ou bit/s/Hz/cellule, est le débit maximal du système (débit agrégé) divisé par la largeur de bande analogique et une certaine mesure de la zone de couverture du système.
Dans les circuits intégrés, souvent un bloc dans un diagramme de flux de données a une seule entrée et une seule sortie, et opère sur des paquets discrets d’informations. Des exemples de tels blocs sont les modules FFT ou les multiplicateurs binaires. Étant donné que les unités de débit sont l’inverse de l’unité du délai de propagation, qui est de » secondes par message » ou de » secondes par sortie « , le débit peut être utilisé pour relier un dispositif de calcul exécutant une fonction dédiée, comme un ASIC ou un processeur intégré, à un canal de communication, ce qui simplifie l’analyse du système.
Efficacité relativeModifier
Mise à l’échelleEdit
La scalabilité est la capacité d’un système, d’un réseau ou d’un processus à traiter une quantité croissante de travail de manière capable ou sa capacité à être agrandi pour répondre à cette croissance
Consommation d’énergieEdit
La quantité d’électricité utilisée par l’ordinateur. Cela devient particulièrement important pour les systèmes dont les sources d’énergie sont limitées, comme l’énergie solaire, les batteries, l’énergie humaine.
Performance par wattEdit
Les concepteurs de systèmes qui construisent des ordinateurs parallèles, comme le matériel de Google, choisissent les CPU en fonction de leur vitesse par watt de puissance, car le coût de l’alimentation du CPU l’emporte sur le coût du CPU lui-même.
Ratio de compressionEdit
La compression est utile car elle permet de réduire l’utilisation des ressources, comme l’espace de stockage des données ou la capacité de transmission. Comme les données compressées doivent être décompressées pour être utilisées, ce traitement supplémentaire impose des coûts de calcul ou autres par la décompression ; cette situation est loin d’être un déjeuner gratuit. La compression des données est soumise à un compromis de complexité spatio-temporelle.
Taille et poidsEdit
C’est une caractéristique de performance importante des systèmes mobiles, des smartphones que vous gardez dans votre poche aux systèmes embarqués portables dans un vaisseau spatial.
Impact environnementalEdit
L’effet d’un ou de plusieurs ordinateurs sur l’environnement, pendant la fabrication et le recyclage ainsi que pendant l’utilisation. Des mesures sont prises dans le but de réduire les déchets, de réduire les matières dangereuses et de minimiser l’empreinte écologique d’un ordinateur.
Compte des transistorsEdit
Le nombre de transistors est le nombre de transistors sur un circuit intégré (CI). Le nombre de transistors est la mesure la plus courante de la complexité d’un CI.
.