Métricas de desempenho do computador (coisas para medir) incluem disponibilidade, tempo de resposta, capacidade de canal, latência, tempo de conclusão, tempo de serviço, largura de banda, throughput, eficiência relativa, escalabilidade, desempenho por watt, taxa de compressão, comprimento do caminho de instrução e velocidade. Os benchmarks da CPU estão disponíveis.
- AvailabilityEdit
- Tempo de respostaEditar
- Velocidade de processamentoEditar
- Capacidade do canalEditar
- LatencyEdit
- Largura de bandaEditar
- ThroughputEdit
- Eficiência relativaEditar
- EscalabilidadeEditar
- Consumo de energiaEditar
- Desempenho por wattEdit
- Rácio de compressãoEditar
- Tamanho e pesoEditar
- Impacto ambientalEditar
- Contagem de transistoresEditar
AvailabilityEdit
Availability of a system is typically measured as a factor of its reliability – as reliability increases, so does availability (that is, less downtime). A disponibilidade de um sistema também pode ser aumentada pela estratégia de focar no aumento da testabilidade e manutenção e não na confiabilidade. Melhorar a capacidade de manutenção é geralmente mais fácil do que a confiabilidade. As estimativas de manutenção (taxas de reparação) também são geralmente mais precisas. Entretanto, como as incertezas nas estimativas de confiabilidade são, na maioria dos casos, muito grandes, é provável que domine o problema de disponibilidade (incerteza de previsão), mesmo que os níveis de manutenção sejam muito altos.
Tempo de respostaEditar
Tempo de resposta é a quantidade total de tempo necessário para responder a uma solicitação de serviço. Em computação, esse serviço pode ser qualquer unidade de trabalho desde um simples IO de disco até o carregamento de uma página web complexa. O tempo de resposta é a soma de três números:
- Tempo de serviço – Quanto tempo leva para fazer o trabalho solicitado.
- Tempo de espera – Quanto tempo a solicitação tem que esperar por solicitações enfileiradas antes de ser executada.
- Tempo de transmissão – Quanto tempo leva para mover a solicitação para o computador fazendo o trabalho e a resposta de volta para o solicitante.
Velocidade de processamentoEditar
A maioria dos consumidores escolhe uma arquitetura de computador (normalmente arquitetura Intel IA32) para poder executar uma grande base de software pré-existente e pré-compilado. Sendo relativamente desinformados sobre os benchmarks dos computadores, alguns deles escolhem uma determinada CPU com base na frequência de operação (ver mito megahertz).
Alguns designers de sistemas construindo computadores paralelos escolhem CPUs com base na velocidade por dólar.
Capacidade do canalEditar
Capacidade de canal é o limite superior mais apertado na taxa de informação que pode ser transmitida de forma confiável através de um canal de comunicação. Pelo teorema da codificação do canal ruidoso, a capacidade de canal de um determinado canal é a taxa de informação limitadora (em unidades de informação por unidade de tempo) que pode ser alcançada com uma probabilidade de erro arbitrariamente pequena.
Teoria da informação, desenvolvida por Claude E. Shannon durante a Segunda Guerra Mundial, define a noção de capacidade de canal e fornece um modelo matemático pelo qual se pode computa-la. O resultado chave indica que a capacidade do canal, como definido acima, é dada pelo máximo de informação mútua entre a entrada e a saída do canal, onde a maximização é em relação à distribuição de entrada.
LatencyEdit
Latency é um atraso temporal entre a causa e o efeito de alguma mudança física no sistema que está sendo observada. A latência é um resultado da velocidade limitada com a qual qualquer interação física pode ocorrer. Esta velocidade é sempre menor ou igual à velocidade da luz. Portanto, todo sistema físico que tem dimensões espaciais diferentes de zero irá experimentar algum tipo de latência.
A definição precisa da latência depende do sistema sendo observado e da natureza da estimulação. Nas comunicações, o limite inferior de latência é determinado pelo meio que está sendo utilizado para as comunicações. Em sistemas confiáveis de comunicação bidirecional, a latência limita a taxa máxima que a informação pode ser transmitida, já que muitas vezes há um limite na quantidade de informação que está “em vôo” a qualquer momento. No campo da interação homem-máquina, a latência perceptível (atraso entre o que o usuário comanda e quando o computador fornece os resultados) tem um forte efeito na satisfação do usuário e na usabilidade.
Os computadores executam conjuntos de instruções chamados de processo. Em sistemas operacionais, a execução do processo pode ser adiada se outros processos também estiverem sendo executados. Além disso, o sistema operacional pode programar quando executar a ação que o processo está comandando. Por exemplo, suponha que um processo comanda que a saída de tensão de uma placa de computador seja definida alta-baixa-alta-baixa e assim por diante a uma taxa de 1000 Hz. O sistema operacional pode escolher ajustar a programação de cada transição (alta-baixa ou baixa-alta) com base em um relógio interno. A latência é o atraso entre a instrução do processo que comanda a transição e o hardware que realmente faz a transição da tensão de alta para baixa ou baixa para alta.
Desenhadores de sistemas construindo sistemas de computação em tempo real querem garantir a pior resposta possível. Isso é mais fácil de fazer quando a CPU tem baixa latência de interrupção e quando tem resposta determinística.
Largura de bandaEditar
Na rede de computadores, largura de banda é uma medida da taxa de bits dos recursos de comunicação de dados disponíveis ou consumidos, expressa em bits por segundo ou múltiplos (bit/s, kbit/s, Mbit/s, Gbit/s, etc.).
Largura de banda às vezes define a taxa de bits líquida (também conhecida como taxa de bits de pico, taxa de informação ou taxa de bits úteis da camada física), a capacidade do canal ou a máxima taxa de transmissão de um caminho de comunicação lógica ou física em um sistema de comunicação digital. Por exemplo, os testes de largura de banda medem a máxima taxa de transferência de uma rede de computadores. A razão para este uso é que, de acordo com a lei de Hartley, a taxa máxima de dados de um link de comunicação física é proporcional à sua largura de banda em hertz, que às vezes é chamada de largura de banda de freqüência, largura de banda espectral, largura de banda de RF, largura de banda de sinal ou largura de banda analógica.
ThroughputEdit
Em termos gerais, throughput é a taxa de produção ou a taxa na qual algo pode ser processado.
Em redes de comunicação, throughput é essencialmente sinônimo de consumo de largura de banda digital. Em redes sem fio ou redes de comunicação celular, a eficiência espectral do sistema em bit/s/Hz/ unidade de área, bit/s/Hz/site ou bit/s/Hz/célula, é a máxima taxa de transferência do sistema (transferência agregada) dividida pela largura de banda analógica e alguma medida da área de cobertura do sistema.
Em circuitos integrados, muitas vezes um bloco em um diagrama de fluxo de dados tem uma única entrada e uma única saída, e opera em pacotes discretos de informações. Exemplos de tais blocos são os módulos FFT ou multiplicadores binários. Como as unidades de throughput são o recíproco da unidade de atraso de propagação, que é ‘segundos por mensagem’ ou ‘segundos por saída’, throughput pode ser usado para relacionar um dispositivo computacional executando uma função dedicada como um ASIC ou processador embutido a um canal de comunicação, simplificando a análise do sistema.
Eficiência relativaEditar
EscalabilidadeEditar
Scalabilidade é a capacidade de um sistema, rede ou processo de lidar com uma quantidade crescente de trabalho de uma maneira capaz ou sua capacidade de ser aumentada para acomodar esse crescimento
Consumo de energiaEditar
A quantidade de eletricidade usada pelo computador. Isto torna-se especialmente importante para sistemas com fontes de energia limitadas como a solar, baterias, energia humana.
Desempenho por wattEdit
Desenhadores de sistemas construindo computadores paralelos, como o hardware do Google, escolhem CPUs com base na sua velocidade por watt de energia, porque o custo de alimentar a CPU supera o custo da própria CPU.
Rácio de compressãoEditar
Compressão é útil porque ajuda a reduzir o uso de recursos, tais como espaço de armazenamento de dados ou capacidade de transmissão. Como os dados comprimidos devem ser descomprimidos para serem usados, este processamento extra impõe custos computacionais ou outros através da descompressão; esta situação está longe de ser um almoço gratuito. A compressão de dados está sujeita a um compromisso de complexidade espaço-tempo.
Tamanho e pesoEditar
Esta é uma importante característica de desempenho dos sistemas móveis, desde os telefones inteligentes que você mantém no bolso até os sistemas incorporados portáteis em uma espaçonave.
Impacto ambientalEditar
O efeito de um computador ou computadores no ambiente, durante a fabricação e reciclagem, bem como durante o uso. As medições são feitas com os objectivos de reduzir os resíduos, reduzir os materiais perigosos e minimizar a pegada ecológica do computador.
Contagem de transistoresEditar
A contagem de transistores é o número de transistores em um circuito integrado (CI). A contagem de transístores é a medida mais comum da complexidade do CI.