Laufzeit eines Scripts unter Linux messen
Neulich hatte ich eine Unterhaltung darüber, wie man die Laufzeit eines Programms möglichst einfach misst. Im konkreten Fall wollten wir wissen, wie lange ein mysqldump benötigt hat. Dazu gibts unter Linux den Befehl time, den man dem zu messenden Programm einfach voranstellt.
time <Programm und Parameter> [...Ausgabe des Programms...] real 0m56.754s user 0m0.784s sys 0m4.004s
Der Wert hinter real zeigt an, wie lange das Programm gelaufen ist, im obigen Beispiel 0 Minuten, 56 Sekunden und 754 Millisekunden.
Kommentare
Ansicht der Kommentare: Linear | Verschachtelt