001
22.09.2008, 12:19 Uhr
ao
(Operator)
|
Mit "Nanosekunden-genauer" Zeitrechnung lügt man sich so leicht einen in die Tasche, und dass der Datentyp theoretisch Nanosekunden darstellen kann, heißt noch lange nicht, dass er es tut.
5 Nachkommastellen, d.h. du willst eine Auflösung von 10 Mikrosekunden. Geht das mit deinem System überhaupt? Oder misst du da nur noch die Interrupt-Latenzen und Threadwechsel-Zeiten?
Auf den üblichen Standard-Betriebssystemen ist die Millisekunde noch halbwegs exakt, und alles, was darunter liegt, ist nur Rauschen. Mit einem Echtzeit-Kern kommt man bis in den Mikrosekunden-Bereich, und was noch genauer sein muss, geht im Grunde nur mit spezieller Zähl-Hardware, das ist aber gedacht für die Messung externer Ereignisse und nicht für Software-Laufzeiten. |