Las métricas de rendimiento de los ordenadores (cosas que hay que medir) incluyen la disponibilidad, el tiempo de respuesta, la capacidad del canal, la latencia, el tiempo de finalización, el tiempo de servicio, el ancho de banda, el rendimiento, la eficiencia relativa, la escalabilidad, el rendimiento por vatio, la relación de compresión, la longitud de la ruta de instrucción y la velocidad de subida. Los puntos de referencia de la CPU están disponibles.
- DisponibilidadEditar
- Tiempo de respuestaEditar
- Velocidad de procesamientoEditar
- Capacidad de canalEditar
- LatenciaEditar
- Ancho de bandaEditar
- RendimientoEditar
- Eficiencia relativaEditar
- EscalabilidadEditar
- Consumo de energíaEditar
- Rendimiento por vatioEditar
- Relación de compresiónEditar
- Tamaño y pesoEditar
- Impacto medioambientalEditar
- Cuento de transistoresEditar
DisponibilidadEditar
La disponibilidad de un sistema se suele medir como un factor de su fiabilidad – a medida que la fiabilidad aumenta, también lo hace la disponibilidad (es decir, menos tiempo de inactividad). La disponibilidad de un sistema también puede incrementarse mediante la estrategia de centrarse en aumentar la comprobabilidad y la mantenibilidad y no en la fiabilidad. Mejorar la mantenibilidad suele ser más fácil que la fiabilidad. Las estimaciones de mantenibilidad (índices de reparación) también suelen ser más precisas. Sin embargo, debido a que las incertidumbres en las estimaciones de fiabilidad son en la mayoría de los casos muy grandes, es probable que domine el problema de la disponibilidad (incertidumbre de predicción), incluso mientras los niveles de mantenibilidad sean muy altos.
Tiempo de respuestaEditar
El tiempo de respuesta es la cantidad total de tiempo que se tarda en responder a una solicitud de servicio. En informática, ese servicio puede ser cualquier unidad de trabajo, desde una simple IO de disco hasta la carga de una compleja página web. El tiempo de respuesta es la suma de tres números:
- Tiempo de servicio – El tiempo que se tarda en realizar el trabajo solicitado.
- Tiempo de espera – El tiempo que la solicitud tiene que esperar a las solicitudes que están en cola por delante de ella antes de llegar a ejecutarse.
- Tiempo de transmisión – El tiempo que se tarda en trasladar la solicitud al ordenador que realiza el trabajo y la respuesta de vuelta al solicitante.
Velocidad de procesamientoEditar
La mayoría de los consumidores eligen una arquitectura de ordenador (normalmente la arquitectura Intel IA32) para poder ejecutar una gran base de software preexistente y precompilado. Al estar relativamente desinformados sobre los puntos de referencia de los ordenadores, algunos de ellos eligen una CPU concreta basándose en la frecuencia de funcionamiento (véase el mito de los megahercios).
Algunos diseñadores de sistemas que construyen ordenadores paralelos eligen CPUs basándose en la velocidad por dólar.
Capacidad de canalEditar
La capacidad del canal es el límite superior más estricto de la tasa de información que se puede transmitir de forma fiable a través de un canal de comunicaciones. Según el teorema de la codificación del canal ruidoso, la capacidad del canal es el límite de la tasa de información (en unidades de información por unidad de tiempo) que puede alcanzarse con una probabilidad de error arbitrariamente pequeña.
La teoría de la información, desarrollada por Claude E. Shannon durante la Segunda Guerra Mundial, define la noción de capacidad del canal y proporciona un modelo matemático que permite calcularla. El resultado clave establece que la capacidad del canal, tal y como se define anteriormente, viene dada por el máximo de la información mutua entre la entrada y la salida del canal, donde la maximización es con respecto a la distribución de entrada.
LatenciaEditar
La latencia es un retraso de tiempo entre la causa y el efecto de algún cambio físico en el sistema que se observa. La latencia es el resultado de la velocidad limitada con la que puede producirse cualquier interacción física. Esta velocidad es siempre inferior o igual a la velocidad de la luz. Por lo tanto, todo sistema físico que tenga dimensiones espaciales diferentes de cero experimentará algún tipo de latencia.
La definición precisa de latencia depende del sistema observado y de la naturaleza de la estimulación. En las comunicaciones, el límite inferior de la latencia viene determinado por el medio que se utiliza para las comunicaciones. En los sistemas de comunicación bidireccionales fiables, la latencia limita la velocidad máxima de transmisión de la información, ya que suele haber un límite en la cantidad de información que está «en vuelo» en un momento dado. En el campo de la interacción hombre-máquina, la latencia perceptible (retraso entre lo que el usuario ordena y el momento en que el ordenador proporciona los resultados) tiene un fuerte efecto sobre la satisfacción del usuario y la usabilidad.
Los ordenadores ejecutan conjuntos de instrucciones llamados proceso. En los sistemas operativos, la ejecución del proceso puede posponerse si también se están ejecutando otros procesos. Además, el sistema operativo puede programar cuándo realizar la acción que el proceso está ordenando. Por ejemplo, supongamos que un proceso ordena que la salida de voltaje de una tarjeta de ordenador se ponga alta-baja-alta-baja y así sucesivamente a un ritmo de 1000 Hz. El sistema operativo puede elegir ajustar la programación de cada transición (alto-bajo o bajo-alto) basándose en un reloj interno. La latencia es el retardo entre la instrucción de proceso que ordena la transición y el hardware que realmente realiza la transición del voltaje de alto a bajo o de bajo a alto.
Los diseñadores de sistemas que construyen sistemas informáticos en tiempo real quieren garantizar la respuesta en el peor de los casos. Eso es más fácil de hacer cuando la CPU tiene una baja latencia de interrupción y cuando tiene una respuesta determinista.
Ancho de bandaEditar
En las redes informáticas, el ancho de banda es una medida de la tasa de bits de los recursos de comunicación de datos disponibles o consumidos, expresada en bits por segundo o sus múltiplos (bit/s, kbit/s, Mbit/s, Gbit/s, etc.).
El ancho de banda a veces define la tasa de bits neta (también conocida como tasa de bits máxima, tasa de información o tasa de bits útil de la capa física), la capacidad del canal o el rendimiento máximo de una ruta de comunicación lógica o física en un sistema de comunicación digital. Por ejemplo, las pruebas de ancho de banda miden el rendimiento máximo de una red informática. El motivo de este uso es que, según la ley de Hartley, la velocidad máxima de datos de un enlace de comunicación físico es proporcional a su ancho de banda en hercios, que a veces se denomina ancho de banda de frecuencia, ancho de banda espectral, ancho de banda de RF, ancho de banda de la señal o ancho de banda analógico.
RendimientoEditar
En términos generales, el rendimiento es la tasa de producción o la velocidad a la que se puede procesar algo.
En las redes de comunicación, el rendimiento es esencialmente sinónimo de consumo de ancho de banda digital. En las redes inalámbricas o en las redes de comunicación celular, la eficiencia espectral del sistema en unidad de bit/s/Hz/área, bit/s/Hz/sitio o bit/s/Hz/célula, es el rendimiento máximo del sistema (rendimiento agregado) dividido por el ancho de banda analógico y alguna medida del área de cobertura del sistema.
En los circuitos integrados, a menudo un bloque en un diagrama de flujo de datos tiene una sola entrada y una sola salida, y opera con paquetes discretos de información. Ejemplos de estos bloques son los módulos FFT o los multiplicadores binarios. Dado que las unidades de rendimiento son el recíproco de la unidad de retardo de propagación, que es «segundos por mensaje» o «segundos por salida», el rendimiento puede utilizarse para relacionar un dispositivo computacional que realiza una función dedicada, como un ASIC o un procesador integrado, con un canal de comunicaciones, lo que simplifica el análisis del sistema.
Eficiencia relativaEditar
EscalabilidadEditar
La escalabilidad es la capacidad de un sistema, red o proceso para manejar una cantidad creciente de trabajo de manera capaz o su capacidad de ser ampliada para acomodar ese crecimiento
Consumo de energíaEditar
La cantidad de electricidad utilizada por el ordenador. Esto se vuelve especialmente importante para los sistemas con fuentes de energía limitadas como la solar, las baterías, la energía humana.
Rendimiento por vatioEditar
Los diseñadores de sistemas que construyen ordenadores paralelos, como el hardware de Google, eligen las CPU en función de su velocidad por vatio de potencia, porque el coste de alimentar la CPU supera el coste de la propia CPU.
Relación de compresiónEditar
La compresión es útil porque ayuda a reducir el uso de recursos, como el espacio de almacenamiento de datos o la capacidad de transmisión. Dado que los datos comprimidos deben ser descomprimidos para su uso, este procesamiento adicional impone costes computacionales o de otro tipo a través de la descompresión; esta situación está lejos de ser un almuerzo gratis. La compresión de datos está sujeta a un compromiso de complejidad espacio-temporal.
Tamaño y pesoEditar
Esta es una importante característica de rendimiento de los sistemas móviles, desde los teléfonos inteligentes que lleva en su bolsillo hasta los sistemas portátiles integrados en una nave espacial.
Impacto medioambientalEditar
El efecto de un ordenador u ordenadores en el medio ambiente, tanto durante su fabricación y reciclaje como durante su uso. Las mediciones se realizan con los objetivos de reducir los residuos, reducir los materiales peligrosos y minimizar la huella ecológica de un ordenador.
Cuento de transistoresEditar
El recuento de transistores es el número de transistores de un circuito integrado (CI). El recuento de transistores es la medida más común de la complejidad de un CI.