Computerleistung

Zu den Leistungskennzahlen (Messgrößen) von Computern gehören Verfügbarkeit, Antwortzeit, Kanalkapazität, Latenzzeit, Fertigstellungszeit, Servicezeit, Bandbreite, Durchsatz, relative Effizienz, Skalierbarkeit, Leistung pro Watt, Kompressionsverhältnis, Befehlspfadlänge und Beschleunigung. CPU-Benchmarks sind verfügbar.

VerfügbarkeitBearbeiten

Hauptartikel: Verfügbarkeit

Die Verfügbarkeit eines Systems wird in der Regel als Faktor seiner Zuverlässigkeit gemessen – je höher die Zuverlässigkeit, desto höher die Verfügbarkeit (d. h. weniger Ausfallzeiten). Die Verfügbarkeit eines Systems kann auch durch die Strategie erhöht werden, sich auf die Verbesserung der Testbarkeit und Wartbarkeit und nicht auf die Zuverlässigkeit zu konzentrieren. Die Verbesserung der Wartbarkeit ist im Allgemeinen einfacher als die der Zuverlässigkeit. Schätzungen der Instandhaltbarkeit (Reparaturraten) sind im Allgemeinen auch genauer. Da jedoch die Unsicherheiten in den Zuverlässigkeitsschätzungen in den meisten Fällen sehr groß sind, ist es wahrscheinlich, dass das Problem der Verfügbarkeit (Vorhersageunsicherheit) überwiegt, selbst wenn das Niveau der Wartbarkeit sehr hoch ist.

ReaktionszeitBearbeiten

Hauptartikel: Antwortzeit (Technik)

Die Antwortzeit ist die Gesamtzeit, die benötigt wird, um auf eine Anfrage nach einem Dienst zu antworten. In der Informatik kann dieser Dienst eine beliebige Arbeitseinheit sein, von einem einfachen Festplatten-IO bis zum Laden einer komplexen Webseite. Die Antwortzeit ist die Summe dreier Zahlen:

  • Dienstzeit – Wie lange es dauert, die angeforderte Arbeit zu erledigen.
  • Wartezeit – Wie lange die Anfrage auf Anfragen warten muss, die vor ihr in der Warteschlange stehen, bevor sie ausgeführt werden kann.
  • Übertragungszeit – Wie lange es dauert, die Anfrage an den Computer zu übermitteln, der die Arbeit erledigt, und die Antwort an den Anfragenden zurückzuschicken.

VerarbeitungsgeschwindigkeitBearbeiten

Hauptartikel: Anweisungen pro Sekunde und FLOPS

Die meisten Verbraucher entscheiden sich für eine Computerarchitektur (in der Regel die Intel IA32-Architektur), um eine große Anzahl von bereits vorhandener, vorkompilierter Software ausführen zu können. Da sie relativ wenig über Computer-Benchmarks wissen, wählen einige von ihnen eine bestimmte CPU auf der Grundlage der Betriebsfrequenz aus (siehe Megahertz-Mythos).

Einige Systementwickler, die Parallelrechner bauen, wählen CPUs auf der Grundlage der Geschwindigkeit pro Dollar.

KanalkapazitätBearbeiten

Hauptartikel: Kanalkapazität

Die Kanalkapazität ist die engste Obergrenze für die Informationsrate, die zuverlässig über einen Kommunikationskanal übertragen werden kann. Nach dem Noisy-Channel-Coding-Theorem ist die Kanalkapazität eines gegebenen Kanals die begrenzte Informationsrate (in Informationseinheiten pro Zeiteinheit), die mit einer beliebig kleinen Fehlerwahrscheinlichkeit erreicht werden kann.

Die von Claude E. Shannon während des Zweiten Weltkriegs entwickelte Informationstheorie definiert den Begriff der Kanalkapazität und liefert ein mathematisches Modell, mit dem sie berechnet werden kann. Das Schlüsselergebnis besagt, dass die Kapazität des Kanals, wie oben definiert, durch das Maximum der gegenseitigen Information zwischen dem Eingang und dem Ausgang des Kanals gegeben ist, wobei die Maximierung in Bezug auf die Eingangsverteilung erfolgt.

LatencyEdit

Hauptartikel: Latenz (Technik)

Latenz ist eine zeitliche Verzögerung zwischen der Ursache und der Wirkung einer physikalischen Veränderung in dem zu beobachtenden System. Die Latenz ist eine Folge der begrenzten Geschwindigkeit, mit der eine physikalische Interaktion stattfinden kann. Diese Geschwindigkeit ist immer kleiner oder gleich der Lichtgeschwindigkeit. Daher erfährt jedes physikalische System, dessen räumliche Dimensionen sich von Null unterscheiden, eine Art von Latenzzeit.

Die genaue Definition der Latenzzeit hängt von dem beobachteten System und der Art der Stimulation ab. In der Kommunikation wird die untere Grenze der Latenzzeit durch das für die Kommunikation verwendete Medium bestimmt. In zuverlässigen Zwei-Wege-Kommunikationssystemen begrenzt die Latenz die maximale Geschwindigkeit, mit der Informationen übertragen werden können, da die Menge an Informationen, die sich zu einem bestimmten Zeitpunkt „im Fluss“ befinden, oft begrenzt ist. Im Bereich der Mensch-Maschine-Interaktion hat die wahrnehmbare Latenz (Verzögerung zwischen den Befehlen des Benutzers und der Bereitstellung der Ergebnisse durch den Computer) starke Auswirkungen auf die Benutzerzufriedenheit und die Benutzerfreundlichkeit.

Computer führen eine Reihe von Anweisungen aus, die als Prozess bezeichnet werden. In Betriebssystemen kann die Ausführung eines Prozesses aufgeschoben werden, wenn andere Prozesse ebenfalls ausgeführt werden. Außerdem kann das Betriebssystem festlegen, wann die vom Prozess befohlene Aktion ausgeführt werden soll. Nehmen wir an, ein Prozess befiehlt, dass die Ausgangsspannung einer Computerkarte mit einer Rate von 1000 Hz auf hoch-niedrig-hoch-niedrig usw. eingestellt wird. Das Betriebssystem kann den Zeitplan für jeden Übergang (hoch-niedrig oder niedrig-hoch) auf der Grundlage einer internen Uhr anpassen. Die Latenzzeit ist die Verzögerung zwischen der Prozessanweisung, die den Übergang befiehlt, und der Hardware, die die Spannung tatsächlich von hoch auf niedrig oder von niedrig auf hoch umschaltet.

Systementwickler, die Echtzeit-Computersysteme bauen, wollen eine Worst-Case-Reaktion garantieren. Das ist leichter zu erreichen, wenn die CPU eine niedrige Unterbrechungslatenz und ein deterministisches Ansprechverhalten hat.

BandbreiteBearbeiten

Hauptartikel: Bandbreite (Informatik)

In Computernetzwerken ist die Bandbreite ein Maß für die Bitrate der verfügbaren oder verbrauchten Datenkommunikationsressourcen, ausgedrückt in Bits pro Sekunde oder einem Vielfachen davon (bit/s, kbit/s, Mbit/s, Gbit/s usw.).

Die Bandbreite definiert manchmal die Nettobitrate (auch Spitzenbitrate, Informationsrate oder Nutzbitrate der physikalischen Schicht), die Kanalkapazität oder den maximalen Durchsatz eines logischen oder physikalischen Kommunikationspfads in einem digitalen Kommunikationssystem. Beispielsweise wird bei Bandbreitentests der maximale Durchsatz eines Computernetzwerks gemessen. Der Grund für diese Verwendung ist, dass nach dem Hartley’schen Gesetz die maximale Datenrate einer physikalischen Kommunikationsverbindung proportional zu ihrer Bandbreite in Hertz ist, die manchmal auch als Frequenzbandbreite, spektrale Bandbreite, HF-Bandbreite, Signalbandbreite oder analoge Bandbreite bezeichnet wird.

DurchsatzBearbeiten

Hauptartikel: Durchsatz

Allgemein versteht man unter Durchsatz die Produktionsrate oder die Geschwindigkeit, mit der etwas verarbeitet werden kann.

In Kommunikationsnetzen ist Durchsatz im Wesentlichen gleichbedeutend mit digitalem Bandbreitenverbrauch. In drahtlosen Netzen oder zellularen Kommunikationsnetzen ist die spektrale Systemeffizienz in bit/s/Hz/Bereichseinheit, bit/s/Hz/Standort oder bit/s/Hz/Zelle der maximale Systemdurchsatz (Gesamtdurchsatz) geteilt durch die analoge Bandbreite und ein gewisses Maß für den Systemabdeckungsbereich.

In integrierten Schaltungen hat ein Block in einem Datenflussdiagramm oft einen einzelnen Eingang und einen einzelnen Ausgang und arbeitet mit diskreten Informationspaketen. Beispiele für solche Blöcke sind FFT-Module oder binäre Multiplizierer. Da die Einheit des Durchsatzes der Kehrwert der Einheit für die Ausbreitungsverzögerung ist, d. h. „Sekunden pro Nachricht“ oder „Sekunden pro Ausgang“, kann der Durchsatz verwendet werden, um eine Recheneinheit, die eine spezielle Funktion ausführt, wie z. B. ein ASIC oder ein eingebetteter Prozessor, mit einem Kommunikationskanal in Beziehung zu setzen, was die Systemanalyse vereinfacht.

Relative EffizienzBearbeiten

Hauptartikel: Relative Effizienz

SkalierbarkeitBearbeiten

Hauptartikel: Skalierbarkeit

Skalierbarkeit ist die Fähigkeit eines Systems, eines Netzwerks oder eines Prozesses, eine wachsende Menge an Arbeit auf fähige Weise zu bewältigen, oder seine Fähigkeit, erweitert zu werden, um dieses Wachstum zu bewältigen

StromverbrauchBearbeiten

Die Menge an Strom, die der Computer verbraucht. Dies ist besonders wichtig für Systeme mit begrenzten Stromquellen wie Solar, Batterien oder menschlicher Energie.

Leistung pro WattBearbeiten

Hauptartikel: Leistung pro Watt

Systementwickler, die Parallelcomputer wie die Hardware von Google bauen, wählen CPUs auf der Grundlage ihrer Geschwindigkeit pro Watt Leistung aus, da die Kosten für die Stromversorgung der CPU die Kosten für die CPU selbst überwiegen.

KomprimierungsverhältnisBearbeiten

Hauptartikel: Datenkomprimierung

Die Komprimierung ist nützlich, weil sie dazu beiträgt, den Verbrauch von Ressourcen wie Speicherplatz oder Übertragungskapazität zu verringern. Da komprimierte Daten vor ihrer Verwendung dekomprimiert werden müssen, entstehen durch die Dekomprimierung zusätzliche Rechen- oder andere Kosten; diese Situation ist alles andere als ein kostenloses Mittagessen. Die Datenkomprimierung unterliegt einem Kompromiss zwischen Raum-Zeit-Komplexität.

Größe und GewichtBearbeiten

Dies ist ein wichtiges Leistungsmerkmal mobiler Systeme, vom Smartphone in der Hosentasche bis zu den tragbaren eingebetteten Systemen in einem Raumfahrzeug.

UmweltauswirkungenBearbeiten

Weitere Informationen: Green Computing

Die Auswirkungen eines Computers oder von Computern auf die Umwelt, sowohl während der Herstellung und des Recyclings als auch während der Nutzung. Messungen werden mit dem Ziel durchgeführt, Abfall zu reduzieren, gefährliche Materialien zu verringern und den ökologischen Fußabdruck eines Computers zu minimieren.

TransistoranzahlBearbeiten

Hauptartikel: Transistoranzahl

Die Transistoranzahl ist die Anzahl der Transistoren in einem integrierten Schaltkreis (IC). Die Transistoranzahl ist das gängigste Maß für die Komplexität eines ICs.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.