Le metriche delle prestazioni del computer (cose da misurare) includono disponibilità, tempo di risposta, capacità del canale, latenza, tempo di completamento, tempo di servizio, larghezza di banda, throughput, efficienza relativa, scalabilità, prestazioni per watt, rapporto di compressione, lunghezza del percorso delle istruzioni e velocità. Sono disponibili i benchmark della CPU.
- DisponibilitàModifica
- Tempo di rispostaModifica
- Velocità di elaborazioneModifica
- Capacità di canaleModifica
- LatencyEdit
- BandwidthEdit
- ThroughputEdit
- Efficienza relativaModifica
- ScalabilitàModifica
- Consumo di energiaModifica
- Prestazioni per wattModifica
- Rapporto di compressioneModifica
- Dimensione e pesoModifica
- Impatto ambientaleModifica
- Conteggio dei transistorModifica
DisponibilitàModifica
La disponibilità di un sistema è tipicamente misurata come un fattore della sua affidabilità – come l’affidabilità aumenta, così fa la disponibilità (cioè, meno tempi morti). La disponibilità di un sistema può anche essere aumentata dalla strategia di concentrarsi sull’aumento della testabilità e della manutenibilità e non sull’affidabilità. Migliorare la manutenibilità è generalmente più facile dell’affidabilità. Le stime di manutenibilità (tassi di riparazione) sono anche generalmente più accurate. Tuttavia, poiché le incertezze nelle stime di affidabilità sono nella maggior parte dei casi molto grandi, è probabile che domini il problema della disponibilità (incertezza di previsione), anche mentre i livelli di manutenibilità sono molto alti.
Tempo di rispostaModifica
Il tempo di risposta è la quantità totale di tempo necessario per rispondere a una richiesta di servizio. In informatica, quel servizio può essere qualsiasi unità di lavoro, da un semplice IO su disco al caricamento di una complessa pagina web. Il tempo di risposta è la somma di tre numeri:
- Tempo di servizio – Quanto tempo ci vuole per fare il lavoro richiesto.
- Tempo di attesa – Quanto tempo la richiesta deve aspettare le richieste in coda prima di essere eseguita.
- Tempo di trasmissione – Quanto tempo ci vuole per spostare la richiesta al computer che fa il lavoro e la risposta indietro al richiedente.
Velocità di elaborazioneModifica
La maggior parte dei consumatori sceglie un’architettura di computer (normalmente l’architettura Intel IA32) per essere in grado di eseguire una grande base di software preesistente e precompilato. Essendo relativamente disinformati sui benchmark dei computer, alcuni di loro scelgono una particolare CPU in base alla frequenza operativa (vedi il mito dei megahertz).
Alcuni progettisti di sistemi che costruiscono computer paralleli scelgono le CPU in base alla velocità per dollaro.
Capacità di canaleModifica
La capacità del canale è il limite superiore più stretto sul tasso di informazione che può essere trasmesso in modo affidabile su un canale di comunicazione. Per il teorema della codifica del canale rumoroso, la capacità del canale di un dato canale è il tasso di informazione limite (in unità di informazione per unità di tempo) che può essere raggiunto con una probabilità di errore arbitrariamente piccola.
La teoria dell’informazione, sviluppata da Claude E. Shannon durante la seconda guerra mondiale, definisce la nozione di capacità del canale e fornisce un modello matematico con cui è possibile calcolarla. Il risultato chiave afferma che la capacità del canale, come definito sopra, è data dal massimo della mutua informazione tra l’ingresso e l’uscita del canale, dove la massimizzazione è rispetto alla distribuzione dell’ingresso.
LatencyEdit
La latenza è un ritardo temporale tra la causa e l’effetto di qualche cambiamento fisico nel sistema osservato. La latenza è il risultato della velocità limitata con cui ogni interazione fisica può avvenire. Questa velocità è sempre inferiore o uguale alla velocità della luce. Pertanto, ogni sistema fisico che ha dimensioni spaziali diverse da zero sperimenterà una sorta di latenza.
La definizione precisa di latenza dipende dal sistema osservato e dalla natura della stimolazione. Nelle comunicazioni, il limite inferiore della latenza è determinato dal mezzo utilizzato per le comunicazioni. Nei sistemi di comunicazione bidirezionali affidabili, la latenza limita la velocità massima di trasmissione delle informazioni, in quanto vi è spesso un limite alla quantità di informazioni “in volo” in qualsiasi momento. Nel campo dell’interazione uomo-macchina, la latenza percepibile (ritardo tra ciò che l’utente comanda e quando il computer fornisce i risultati) ha un forte effetto sulla soddisfazione dell’utente e sull’usabilità.
I computer eseguono serie di istruzioni chiamate processo. Nei sistemi operativi, l’esecuzione del processo può essere posticipata se anche altri processi sono in esecuzione. Inoltre, il sistema operativo può programmare quando eseguire l’azione che il processo sta comandando. Per esempio, supponiamo che un processo comandi che l’uscita di tensione di una scheda di computer sia impostata alta-bassa-alta-bassa e così via ad una frequenza di 1000 Hz. Il sistema operativo può scegliere di regolare la programmazione di ogni transizione (alto-basso o basso-alto) sulla base di un orologio interno. La latenza è il ritardo tra l’istruzione di processo che comanda la transizione e l’hardware che effettivamente passa la tensione da alto a basso o da basso ad alto.
I progettisti di sistemi che costruiscono sistemi di calcolo in tempo reale vogliono garantire la risposta nel caso peggiore. Questo è più facile da fare quando la CPU ha una bassa latenza d’interrupt e quando ha una risposta deterministica.
BandwidthEdit
Nel networking informatico, la larghezza di banda è una misura del bit-rate delle risorse di comunicazione dati disponibili o consumate, espressa in bit al secondo o multipli di esso (bit/s, kbit/s, Mbit/s, Gbit/s, ecc.).
Bandwidth a volte definisce il bit rate netto (aka. peak bit rate, information rate, o physical layer useful bit rate), la capacità del canale, o il massimo throughput di un percorso di comunicazione logica o fisica in un sistema di comunicazione digitale. Per esempio, i test di larghezza di banda misurano il massimo throughput di una rete di computer. La ragione di questo uso è che secondo la legge di Hartley, la massima velocità di dati di un collegamento fisico di comunicazione è proporzionale alla sua larghezza di banda in hertz, che è talvolta chiamata larghezza di banda di frequenza, larghezza di banda spettrale, larghezza di banda RF, larghezza di banda del segnale o larghezza di banda analogica.
ThroughputEdit
In termini generali, il throughput è il tasso di produzione o il tasso al quale qualcosa può essere elaborato.
Nelle reti di comunicazione, il throughput è essenzialmente sinonimo di consumo di banda digitale. Nelle reti wireless o nelle reti di comunicazione cellulare, l’efficienza spettrale del sistema in unità bit/s/Hz/area, bit/s/Hz/site o bit/s/Hz/cellula, è il massimo throughput del sistema (throughput aggregato) diviso per la larghezza di banda analogica e qualche misura dell’area di copertura del sistema.
Nei circuiti integrati, spesso un blocco in un diagramma di flusso dati ha un singolo ingresso e una singola uscita, e opera su pacchetti discreti di informazioni. Esempi di tali blocchi sono i moduli FFT o i moltiplicatori binari. Poiché le unità di throughput sono il reciproco dell’unità per il ritardo di propagazione, che è “secondi per messaggio” o “secondi per uscita”, il throughput può essere usato per mettere in relazione un dispositivo di calcolo che esegue una funzione dedicata come un ASIC o un processore embedded con un canale di comunicazione, semplificando l’analisi del sistema.
Efficienza relativaModifica
ScalabilitàModifica
La scalabilità è la capacità di un sistema, di una rete o di un processo di gestire una quantità crescente di lavoro in modo capace o la sua capacità di essere ampliato per ospitare tale crescita
Consumo di energiaModifica
La quantità di elettricità utilizzata dal computer. Questo diventa particolarmente importante per i sistemi con fonti di energia limitate come il solare, le batterie, l’energia umana.
Prestazioni per wattModifica
I progettisti di sistemi che costruiscono computer paralleli, come l’hardware di Google, scelgono le CPU in base alla loro velocità per watt di potenza, perché il costo di alimentazione della CPU supera il costo della CPU stessa.
Rapporto di compressioneModifica
La compressione è utile perché aiuta a ridurre l’uso delle risorse, come lo spazio di archiviazione dei dati o la capacità di trasmissione. Poiché i dati compressi devono essere decompressi per essere utilizzati, questa elaborazione extra impone costi computazionali o di altro tipo attraverso la decompressione; questa situazione è tutt’altro che gratuita. La compressione dei dati è soggetta a un trade-off di complessità spazio-temporale.
Dimensione e pesoModifica
Questa è un’importante caratteristica prestazionale dei sistemi mobili, dagli smart phone che tieni in tasca ai sistemi embedded portatili in un veicolo spaziale.
Impatto ambientaleModifica
L’effetto di uno o più computer sull’ambiente, sia durante la produzione e il riciclaggio che durante l’uso. Le misure sono prese con l’obiettivo di ridurre i rifiuti, ridurre i materiali pericolosi e minimizzare l’impronta ecologica di un computer.
Conteggio dei transistorModifica
Il conteggio dei transistor è il numero di transistor su un circuito integrato (IC). Il conteggio dei transistor è la misura più comune della complessità di un circuito integrato.