026
10.05.2007, 20:11 Uhr
0xdeadbeef
Gott (Operator)
|
Heutzutage mag die Bytegröße traditionell 8 bit sein, allerdings ist das nicht zwingend der Fall. In Donald E. Knuth's "The Art of Computer Programming" - so ziemlich das Äquivalent der Bibel in der Informatik - definiert er einen Rechner namens 'MIX', der verlangt, dass ein Byte mindestens 64 Werte speichern kann - das führt zu einer Bytegröße von 6 bzw. 2 bit, je nachdem, ob man jetzt die binäre oder die dezimale Variante benutzt.
Historisch haben Bytes in der realen Welt zwischen 4 und 12 bits gehabt, dass wir heute 8 bit benutzen, liegt vor allem daran, dass IBMs altes System/360 diese Breite benutzt hat und so populär war - IBM war damals ja so ziemlich die Institution in allem, was mit Computer zu tun hatte. Der alte Intel 4004, zum Beispiel, benutzte 4-bit Datenworte, und ich glaube die alten MIT LISP-Maschinen benutzten deutlich breitere bytes, um all die mathematischen Sonderzeichen darstellen zu können - da bin ich jetzt aber nicht hundertprozentig sicher, die Dinger waren etwas ungewöhnlich gestrickt. -- Einfachheit ist Voraussetzung für Zuverlässigkeit. -- Edsger Wybe Dijkstra |