Byte

aus Wikipedia, der freien Enzyklopädie
Dies ist die aktuelle Version dieser Seite, zuletzt bearbeitet am 14. November 2024 um 23:08 Uhr durch 2001:4bb8:2dd:1d60:c895:4143:a76c:8abe (Diskussion) (Der Link von "UnitJuggler" verwies auf eine nicht funktionierende URL. Benutzer von Wikipedia profitieren durch den neuen Link zu "TinyCalcs", da sie nun Zugang zu einer funktionierenden, relevanten und vertrauenswürdigen Quelle haben, die ihnen präzise Berechnungen und nützliche Funktionen bietet. Dies fördert nicht nur das Verständnis des Themas, sondern verbessert auch die Qualität der bereitgestellten Informationen.).
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Das Byte ([baɪt])[1] ist eine Maßeinheit der Digitaltechnik und der Informatik, das meist für eine Folge aus 8 Bit steht.

Historisch gesehen war ein Byte die Anzahl der Bits zur Kodierung eines einzelnen Schriftzeichens im jeweiligen Computersystem und daher das kleinste adressierbare Element in vielen Rechnerarchitekturen.

Um ausdrücklich auf eine Anzahl von 8 Bit hinzuweisen, wird auch die Bezeichnung Oktett (in Frankreich octet) verwendet – die früher dafür ebenfalls gängige Bezeichnung Oktade ist hingegen nicht mehr geläufig.

Was genau ein Byte bezeichnet, wird je nach Anwendungsgebiet etwas unterschiedlich definiert. Der Begriff kann stehen für:

  • eine Maßeinheit für eine Datenmenge von 8 Bit mit dem Einheitenzeichen „B“,[2] wobei es nicht auf die Ordnung der einzelnen Bits ankommt.
    Das Einheitenzeichen sollte nicht mit dem zur Einheit Bel gehörenden Einheitenzeichen „B“ verwechselt werden.
  • eine geordnete Zusammenstellung (n-Tupel) von 8 Bit, deren formale ISO-konforme Bezeichnung Oktett ist (1 Byte = 8 Bit). Ein Oktett wird manchmal in zwei Hälften (Nibbles) zu je 4 Bit zerlegt, wobei jedes Nibble durch eine hexadezimale Ziffer darstellbar ist. Ein Oktett kann also durch zwei Hexadezimalziffern dargestellt werden.
  • die kleinste, meist per Adressbus adressierbare, Datenmenge eines bestimmten technischen Systems. In heutigen Computersystemen sind 8 Bits der Quasi-Standard. In alten Systemen, vor allen aus den 1960er und 1970er Jahren und davor, waren auch andere Größen in Gebrauch, zum Beispiel:
    • bei Telex: 1 Zeichen = 5 Bit
    • bei Rechnern der Familien PDP (ab 1959): 1 Zeichen = log2(50) Bit = zirka 5,644 Bit (Radix-50-Code). Ergibt gegenüber 6 Bit eine Ersparnis von wenigen Bits pro Zeichenkette, die beispielsweise für Steuerungszwecke genutzt werden können. Allerdings gehen die Byte-Grenzen mitten durch die Bits, was die Analyse von Inhalten erschweren kann.
    • bei IBM 1401 (produziert bis 1971): 1 Zeichen = 6 Bit. Der IBM PC (ab 1981) hatte 1 Zeichen = 8 Bit
    • bei Nixdorf 820 (bis 1979): 1 Zeichen = 12 Bit
    • bei Rechnersystemen der Typen UNIVAC 1100/2200 und OS2200 Series: 1 Zeichen = 9 Bit (ASCII-Code) beziehungsweise 6 Bit (FIELDATA-Code)
    • bei Rechnern der Familie PDP-10 (bis 1983): 1 Zeichen = 1…36 Bit, Bytelänge frei wählbar
  • einen Datentyp in Programmiersprachen. Die Anzahl an Bits pro Byte kann je nach Programmiersprache und Plattform variieren (meistens 8 Bit).
  • ISO-C99 definiert 1 Byte als eine zusammenhängende Folge von mindestens 8 Bit.[3]

Bei den meisten heutigen Rechnern fallen diese Definitionen (kleinste adressierbare Einheit, Datentyp in Programmiersprachen, C-Datentyp) zu einer einzigen zusammen und sind dann von identischer Größe.

Der Begriff „Byte“ wird aufgrund der großen Verbreitung von Systemen, die auf acht Bit (beziehungsweise Zweierpotenzvielfache davon) basieren, für die Bezeichnung einer 8 Bit breiten Größe verwendet, die in formaler Sprache (entsprechend ISO-Normen) aber korrekt Oktett (aus englisch octet) heißt. Als Maßeinheit bei Größenangaben wird in der deutschen Sprache der Begriff „Byte“ (im Sinne von 8 bit) verwendet. Bei der Übertragung kann ein Byte parallel (alle Bits gleichzeitig) oder seriell (alle Bits nacheinander) übertragen werden. Zur Sicherung der Richtigkeit werden oft Prüfbits angefügt. Bei der Übertragung größerer Mengen sind weitere Kommunikationsprotokolle möglich. So werden bei 32-Bit-Rechnern oft 32 Bits (vier Byte) gemeinsam in einem Schritt übertragen, auch wenn nur ein 8-Bit-Tupel übertragen werden muss. Das ermöglicht eine Vereinfachung der zur Berechnung erforderlichen Algorithmen und einen kleineren Befehlssatz des Computers.

Wie bei anderen Maßeinheiten gibt es neben dem ausgeschriebenen Namen der Maßeinheiten jeweils auch ein Einheitenkürzel. Bei Bit und Byte sind dies:

Kürzel ausgeschriebener Name
bit (selten „b“) Bit
B (selten „byte“) Byte

Der ausgeschriebene Name unterliegt grundsätzlich der normalen Deklination. Aufgrund der großen Ähnlichkeit der Kürzel mit den ausgeschriebenen Einheitennamen sowie entsprechender Pluralformen in der englischen Sprache werden jedoch gelegentlich auch die Einheitenkürzel „bit“ und „byte“ mit Plural-s versehen.

Geschichte des Begriffs

[Bearbeiten | Quelltext bearbeiten]

Das Bit ist ein Kofferwort aus den englischen Wörtern binary und digit,[4] heißt also „zweiwertige Ziffer“ – Null oder Eins. Dessen Bestandteile lassen sich auf die lateinischen Wörter digitus (Finger), den bzw. die man seit der Antike zum Zählen verwendet (vgl. Plautus: computare digitis), und lateinisch (genauer neulateinisch) binarius (zweifach), vergleiche lateinisch bis (zweimal), zurückführen.

Das Byte ist zudem ein Kunstwort und wurde vermutlich aus dem englischen bit[1] (deutsch „[das] Bisschen“ oder „Häppchen“) und bite (zu deutsch: „[der] Bissen“ oder „Happen“) gebildet.[5] Verwendet wurde es, um eine Speichermenge oder Datenmenge zu kennzeichnen, die ausreicht, um ein Zeichen darzustellen. Der Begriff wurde im Juni 1956 von Werner Buchholz in einer frühen Designphase des IBM-7030-Stretch-Computers geprägt,[6][7][8] wobei die Schreibweise von bite zu byte geändert wurde, um zu vermeiden, dass es sich versehentlich zu bit ändere.[9] Im Original beschrieb es eine wählbare Breite von ein bis sechs Bits (damit konnten Zustände, z. B. Zeichen, dargestellt werden) und stellte die kleinste direkt adressierbare Speichereinheit eines entsprechenden Computers dar.[10][11][12] Im August 1956 wurde die Definition auf ein bis acht Bits aufgeweitet (damit konnten dann Zeichen dargestellt werden).[12][13][14] So konnte man die Buchstaben und gängige Sonderzeichen in Quelltexten von Programmen oder anderen Texten speichern.

In den 1960er Jahren wurde der sich in seiner Verwendung schnell ausbreitende ASCII definiert, welcher sieben Bits zur Kodierung eines Zeichens verwendet (das sind Zeichen). Später wurden durch Nutzung des meist sowieso vorhandenen achten (höchstwertigen) Bits erweiterte, auf dem ASCII basierende Zeichensätze entwickelt, die auch die häufigsten internationalen Diakritika abbilden können, wie zum Beispiel die Codepage 437. In diesen erweiterten Zeichensätzen entspricht jedes Zeichen exakt einem Byte mit acht Bit, wobei die ersten 128 Zeichen exakt dem ASCII entsprechen.

In den 1960er und 1970er Jahren war in Westeuropa auch die Bezeichnung Oktade geläufig, wenn speziell 8 Bit gemeint waren. Diese Bezeichnung geht möglicherweise auf den niederländischen Hersteller Philips zurück, in dessen Unterlagen zu Mainframe-Computern sich die Bezeichnung Oktade (bzw. englisch oktad[s]) regelmäßig findet.[15][16]

Seit Anfang der 1970er Jahre gibt es 4-Bit-Mikroprozessoren, deren 4-Bit-Datenwörter (auch Nibbles genannt) mit hexadezimalen Ziffern dargestellt werden können. 8-Bit-Prozessoren wurden schon kurz nach der Erfindung der Programmiersprachen C und Pascal eingeführt, also Anfang der 1970er Jahre, und waren in Heimcomputern bis in die 1980er Jahre im Einsatz (bei eingebetteten Systemen auch heute noch), deren 8-Bit-Datenwörter (respektive Bytes) mit genau zwei hexadezimalen Ziffern dargestellt werden können. Seitdem hat sich die Breite der Datenwörter von Hardware von 4 über 8, 16, 32 bis heute zu 64 und 128 Bit hin immer wieder verdoppelt.

Zur Unterscheidung der ursprünglichen Bedeutung als kleinste adressierbare Informationseinheit und der Bedeutung als 8-Bit-Tupel wird in der Fachliteratur (abhängig vom Fachgebiet) korrekterweise auch der Begriff Oktett für letzteres benutzt, um eine klare Trennung zu erzielen.

Praktische Verwendung

[Bearbeiten | Quelltext bearbeiten]

In der elektronischen Datenverarbeitung bezeichnet man die kleinstmögliche Speichereinheit als Bit. Ein Bit kann zwei mögliche Zustände annehmen, die meist als „Null“ und „Eins“ bezeichnet werden. In vielen Programmiersprachen wird für ein einzelnes Bit der Datentypboolean“ (respektive „Boolean“ oder „BOOLEAN“) verwendet. Aus technischen Gründen erfolgt die tatsächliche Abbildung eines Boolean aber meist in Form eines Datenwortes („WORD“).

Acht solcher Bits werden zu einer Einheit – einem Datenpäckchen – zusammengefasst und allgemein Byte genannt. Die offizielle ISO-konforme Bezeichnung lautet dagegen Oktett: 1 Oktett = 1 Byte = 8 Bit. Viele Programmiersprachen unterstützen einen Datentyp mit dem Namen „byte“ (respektive „Byte“ oder „BYTE“), wobei zu beachten ist, dass dieser je nach Definition als ganze Zahl, als Bitmenge, als Element eines Zeichensatzes oder bei typunsicheren Programmiersprachen sogar gleichzeitig für mehrere dieser Datentypen verwendet werden kann, sodass keine Zuweisungskompatibilität mehr gegeben ist.

Das Byte ist die Standardeinheit, um Speicherkapazitäten oder Datenmengen zu bezeichnen. Dazu gehören Dateigrößen, die Kapazität von permanenten Speichermedien (Festplattenlaufwerke, CDs, DVDs, Blu-ray Discs, Disketten, USB-Massenspeichergeräte usw.) und die Kapazität von vielen flüchtigen Speichern (zum Beispiel Arbeitsspeicher). Übertragungsraten (zum Beispiel die maximale Geschwindigkeit eines Internet-Anschlusses) gibt man dagegen üblicherweise auf der Basis von Bits an.

Präfixe für große Anzahlen von Byte

[Bearbeiten | Quelltext bearbeiten]

Zur Darstellung großer Anzahlen von Bytes kann man die Präfixe aus dem SI verwenden, wie „Kilo-“ (k) für 1000 und „Mega-“ (M) für 1000×1000. Für Zweierpotenzen gibt es spezielle Binärpräfixe, wie „Kibi-“ (Ki) für 1024 und „Mebi-“ (Mi) für 1024×1024.

Manchmal werden die Namen oder Kürzel der SI-Präfixe im binären Sinn verwendet (z. B. „Kilo-“ für 1024), was aber normwidrig ist und zu Missverständnissen führen kann.

Für Zehnerpotenzen verwendet man die Präfixe aus dem Internationalen Einheitensystem (SI):

Dezimalpräfixe gemäß SI
Kilobyte kB 1 000 B = 103 B0
Megabyte MB 1 000 000 B = 106 B0
Gigabyte GB 1 000 000 000 B = 109 B0
Terabyte TB 1 000 000 000 000 B = 1012 B
Petabyte PB 1 000 000 000 000 000 B = 1015 B
Exabyte EB 1 000 000 000 000 000 000 B = 1018 B
Zettabyte ZB 1 000 000 000 000 000 000 000 B = 1021 B
Yottabyte YB 1 000 000 000 000 000 000 000 000 B = 1024 B
Ronnabyte RB 1 000 000 000 000 000 000 000 000 000 B = 1027 B
Quettabyte QB 1 000 000 000 000 000 000 000 000 000 000 B = 1030 B

Für Datenspeicher mit binärer Adressierung ergeben sich technisch Speicherkapazitäten basierend auf Zweierpotenzen (2n Byte). Die Zweierpotenz 210 = 1024 liegt nahe bei 1000, so dass es üblich wurde, das eigentlich dezimale SI-Präfix „Kilo-“ im Zusammenhang mit Speicherkapazitäten zur Bezeichnung von 1024 zu verwenden. Später kamen dann auch „Mega-“ (für 220 = 10242) und „Giga-“ (für 230 = 10243) hinzu. Dies führte jedoch zu Mehrdeutigkeiten und wurde zu einer Fehlerquelle. Um dem abzuhelfen, schlug die IEC 1996 neue Einheitenvorsätze vor, die (nur) in der binären Bedeutung verwendet werden sollten.[17] Dabei wird eine den SI-Präfixen ähnlich lautende Vorsilbe ergänzt um die Silbe „bi“, die klarstellt, dass es sich um binäre Vielfache handelt. Beispiele:

  • 1 Kibibyte (KiB) = 1024 Byte
  • 1 Mebibyte (MiB) = 1024 × 1024 Byte = 1.048.576 Byte.

Das für die SI-Präfixe zuständige Internationale Büro für Maß und Gewicht (BIPM) empfiehlt diese Schreibweise,[18] auch wenn es nicht für Byte zuständig ist, da dies keine SI-Einheit ist. Viele weitere Standardisierungsorganisationen haben sich dieser Empfehlung angeschlossen.

Binärpräfixe gemäß IEC
Kibibyte KiB 210 B00 = 1 024 B00 = 1,024 kB
Mebibyte MiB 220 B00 = 1,0242 B = 1 048 576 B0 ≈ 1,049 MB
Gibibyte GiB 230 B00 = 1,0243 B = 1 073 741 824 B0 ≈ 1,074 GB
Tebibyte TiB 240 B00 = 1,0244 B = 1 099 511 627 776 B0 ≈ 1,100 TB
Pebibyte PiB 250 B00 = 1,0245 B = 1 125 899 906 842 624 B0 ≈ 1,126 PB
Exbibyte EiB 260 B00 = 1,0246 B = 1 152 921 504 606 846 976 B0 ≈ 1,153 EB
Zebibyte ZiB 270 B00 = 1,0247 B = 1 180 591 620 717 411 303 424 B0 ≈ 1,181 ZB
Yobibyte YiB 280 B00 = 1,0248 B = 1 208 925 819 614 629 174 706 176 B0 ≈ 1,209 YB
Robibyte 1) RiB 290 B00 = 1,0249 B = 1 237 940 039 285 380 274 899 124 224 B0 ≈ 1,238 RB
Quebibyte 1) QiB 2100 B0 = 1,02410 B0 = 1 267 650 600 228 229 401 496 703 205 376 B0 ≈ 1,268 QB
1) 
„Ronna“ und „Quetta“ wurden 2022 ins SI aufgenommen. „Robi“ und „Quebi“ sind aber noch nicht von der IEC bestätigt worden.

Die Werte der dezimalen Präfixe steigen – ausgehend von Kilo – jeweils um den Faktor 103 = 1000 und die Werte der binären Präfixe um den Faktor 210 = 1024. Die Diskrepanz wächst also: Während der Größenunterschied zwischen Kibibyte und Kilobyte nur 2,4 % beträgt, ist ein Pebibyte schon 12,6 % mehr als ein Petabyte.

Präfixe Binär ÷ Dezimal Dezimal ÷ Binär
Kilo Kibi 1,024   (+2,4 %)
 
0,9766   (−2,3 %)
 
Mega Mebi 1,049   (+4,9 %)
 
0,9537   (−4,6 %)
 
Giga Gibi 1,074   (+7,4 %)
 
0,9313   (−6,9 %)
 
Tera Tebi 1,100 (+10,0 %)
 
0,9095   (−9,1 %)
 
Peta Pebi 1,126 (+12,6 %)
 
0,8882 (−11,2 %)
 
Exa Exbi 1,153 (+15,3 %)
 
0,8674 (−13,3 %)
 
Zetta Zebi 1,181 (+18,1 %)
 
0,8470 (−15,3 %)
 
Yotta Yobi 1,209 (+20,9 %)
 
0,8272 (−17,3 %)
 
Ronna (Robi) 1,238 (+23,8 %)
 
0,8078 (−19,2 %)
 
Quetta (Quebi) 1,268 (+26,8 %)
 
0,7889 (−21,1 %)
 

Kapazitätsangaben bei Speichermedien

[Bearbeiten | Quelltext bearbeiten]

Die Verwendung der Binärpräfixe für Zweierpotenzen und die ausschließliche Verwendung von SI-Präfixen für Zehnerpotenzen hat sich bislang nur teilweise durchgesetzt.

Massenspeichermedien, wie Festplatten, DVD-Rohlinge und USB-Speichersticks, mit vorgeschalteter komplexer Firmware lassen sich in praktisch beliebig fein abgestufter Größe herstellen. Dort hat sich die Herstellung in glatten, gut vermarktbaren Größen durchgesetzt. Die Hersteller verwenden Dezimalpräfixe.

RAM-Hauptspeicher und Cache-Speicher von CPUs, auf die in ihrer ziemlich ursprünglichen Form zugegriffen wird, werden als glatte Werte mit Binärpräfixen angegeben, SI-Präfixe wären hier unpraktisch. Die Binärpräfixe werden aber nicht immer in ihrer normgerechten Form geschrieben, man findet immer noch „MB“ und „GB“ wo „MiB“ und „GiB“ stehen müsste.

Wenn die Binärpräfixe nicht normgerecht geschrieben werden, kann es zu Verwirrung kommen. Dies gilt zum Beispiel in Verbindung mit Microsoft-Systemen, denn Microsoft rechnet für Datengrößen immer mit Zweierpotenzen, gibt diese dann aber mit Hilfe der SI-Präfixe an. So wird also ein 128-GB-Speichermedium als 119,2 GB angezeigt, obwohl es laut IEC 119,2 GiB lauten müsste. Beim Versuch, eine Datenmenge von laut Microsoft „120 GB“ (eigentlich 120 GiB) auf ein mit 128 GB beworbenes Speichermedium zu übertragen, tritt somit ein Fehler auf:

  • 128 GB = 128.000.000.000 Byte sind weniger(!) als
  • 120 GiB = 128.849.018.880 Byte = 120 × 10243 Byte

Ein mit „4,7 GB“ gekennzeichneter DVD-Rohling speichert rund 4,7 Gigabyte (4.700.000.000 Byte), wird aber von mancher Software, zum Beispiel dem Windows-Explorer, mit dem Wert von „4,38 GB“ angezeigt – normgerecht wäre hier „4,38 GiB“. Andererseits speichert ein mit „700 MB“ gekennzeichneter CD-Rohling nicht 700 MB, sondern 700 MiB, also etwa 734 MB (und sollte korrekterweise mit „700 MiB“ ausgezeichnet werden), wobei der Windows-Explorer „700 MB“ anzeigt.

Apples macOS benutzt seit 2009 (Version Mac OS X Snow Leopard 10.6)[19] einheitlich Dezimalpräfixe nur in dezimaler Bedeutung. KDE folgt dem IEC-Standard und lässt dem Anwender die Wahl zwischen binärer und dezimaler Angabe. Für Linux-Distributionen mit anderen Desktopumgebungen, wie zum Beispiel Ubuntu ab Version 11.04,[20] (August 2011) gibt es klare Richtlinien, wie Anwendungen Datenmengen angeben sollen; hier findet man beide Angaben, wobei die Binärpräfixe überwiegen.

Unix-Shells nutzen normalerweise Datenblöcke als Einheit. Optional wird auch eine lesbarere Darstellungsform, human readable bezeichnet, angeboten, normalerweise die binäre Einheit, wobei jedoch abweichend von der IEC-Vorgabe nur die Vorsätze der Maßeinheiten in Großbuchstaben als Einheit angegeben werden, also K für KiB, M für MiB usw. Es gibt jedoch auch oft die Möglichkeit, SI-Einheiten zu wählen, dann in der korrekten, jedoch großgeschriebenen Einheit, also KB, MB usw.

Die in den 1980er und 1990er Jahren verbreitete 3,5-Zoll-Diskette verwendete eine binär-dezimale Mischform: die nominellen „1,44 MB“ bedeuteten 1440 × 1024 Byte = 1440 KiB.

Wiktionary: Byte – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b ByteDuden, Bibliographisches Institut, 2016
  2. IEC 60027-2, Ed. 3.0, (2005–2008): Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics.
  3. Rationale for International Standard – Programming Languages – C. (PDF; 898 kB) April 2003, S. 11, abgerufen am 28. November 2009 (englisch).
  4. Bit (Einheit in der EDV)Duden, Bibliographisches Institut, 2016
  5. bite (Memento vom 19. November 2016 im Internet Archive) (englisch-deutsch) – Duden, Langenscheidt, 2015
  6. Werner Buchholz: The Link System. IBM, 11. Juni 1956, 7. The Shift Matrix, S. 5–6 (archive.org [PDF; 639 kB; abgerufen am 1. Oktober 2022]): „[…] Most important, from the point of view of editing, will be the ability to handle any characters or digits, from 1 to 6 bits long.
    Figure 2 shows the Shift Matrix to be used to convert a 60-bit word, coming from Memory in parallel, into characters, or „bytes“ as we have called them, to be sent to the Adder serially. The 60 bits are dumped into magnetic cores on six different levels. Thus, if a 1 comes out of position 9, it appears in all six cores underneath. Pulsing any diagonal line will send the six bits stored along that line to the Adder. The Adder may accept all or only some of the bits.
    Assume that it is desired to operate on 4 bit decimal digits, starting at the right. The 0-diagonal is pulsed first, sending out the six bits 0 to 5, of which the Adder accepts only the first four (0-3). Bits 4 and 5 are ignored. Next, the 4 diagonal is pulsed. This sends out bits 4 to 9, of which the last two are again ignored, and so on.
    It is just as easy to use all six bits in alphanumeric work, or to handle bytes of only one bit for logical analysis, or to offset the bytes by any number of bits. All this can be done by pulling the appropriate shift diagonals. An analogous matrix arrangement is used to change from serial to parallel operation at the output of the adder. […]“
  7. Werner Buchholz: Memory Word Length. IBM, 31. Juli 1956, 5. Input-Output, S. 2 (archive.org [PDF; 239 kB; abgerufen am 1. Oktober 2022]): „[…] 60 is a multiple of 1, 2, 3, 4, 5, and 6. Hence bytes of length from 1 to 6 bits can be packed efficiently into a 60-bit word without having to split a byte between one word and the next. If longer bytes were needed, 60 bits would, of course, no longer be ideal. With present applications, 1, 4, and 6 bits are the really important cases.
    With 64-bit words, it would often be necessary to make some compromises, such as leaving 4 bits unused in a word when dealing with 6-bit bytes at the input and output. However, the LINK Computer can be equipped to edit out these gaps and to permit handling of bytes which are split between words. […]“
  8. Robert William Bemer: Why is a byte 8 bits? Or is it? In: Computer History Vignettes. 8. August 2000, archiviert vom Original am 3. April 2017; abgerufen am 15. September 2018: „[…] I came to work for IBM, and saw all the confusion caused by the 64-character limitation. Especially when we started to think about word processing, which would require both upper and lower case. […] I even made a proposal (in view of STRETCH, the very first computer I know of with an 8-bit byte) that would extend the number of punch card character codes to 256 […] So some folks started thinking about 7-bit characters, but this was ridiculous. With IBM's STRETCH computer as background, handling 64-character words divisible into groups of 8 (I designed the character set for it, under the guidance of Dr. Werner Buchholz, the man who DID coin the term „byte“ for an 8-bit grouping). […] It seemed reasonable to make a universal 8-bit character set, handling up to 256. In those days my mantra was „powers of 2 are magic“. And so the group I headed developed and justified such a proposal […] The IBM 360 used 8-bit characters, although not ASCII directly. Thus Buchholz’s „byte“ caught on everywhere. I myself did not like the name for many reasons. The design had 8 bits moving around in parallel. But then came a new IBM part, with 9 bits for self-checking, both inside the CPU and in the tape drives. I exposed this 9-bit byte to the press in 1973. But long before that, when I headed software operations for Cie. Bull in France in 1965–1966, I insisted that „byte“ be deprecated in favor of „octet“. […] It is justified by new communications methods that can carry 16, 32, 64, and even 128 bits in parallel. But some foolish people now refer to a „16-bit byte“ because of this parallel transfer, which is visible in the UNICODE set. I’m not sure, but maybe this should be called a „hextet“. […]“
  9. Peter Fenwick: Introduction to Computer Data Representation. In: books.google.de. S. 231, abgerufen am 2. November 2017.
  10. Gerrit Anne Blaauw, Frederick Phillips Brooks Jr., Werner Buchholz: Processing Data in Bits and Pieces. In: IRE Transactions on Electronic Computers. Juni 1959, S. 121 (englisch).
  11. Gerrit Anne Blaauw, Frederick Phillips Brooks, Jr., Werner Buchholz: Planning a Computer System – Project Stretch. McGraw-Hill Book Company / The Maple Press Company, York PA., 1962, 4: Natural Data Units, S. 39–40 (archive.org [PDF; 22,7 MB; abgerufen am 1. Oktober 2022]): „[…] Terms used here to describe the structure imposed by the machine design, in addition to bit, are listed below.
    Byte denotes a group of bits used to encode a character, or the number of bits transmitted in parallel to and from input-output units. A term other than character is used here because a given character may be represented in different applications by more than one code, and different codes may use different numbers of bits (i. e., different byte sizes). In input-output transmission the grouping of bits may be completely arbitrary and have no relation to actual characters. (The term is coined from bite, but respelled to avoid accidental mutation to bit.)
    A word consists of the number of data bits transmitted in parallel from or to memory in one memory cycle. Word size is thus defined as a structural property of the memory. (The term catena was coined for this purpose by the designers of the Bull Gamma 60 computer.)
    Block refers to the number of words transmitted to or from an input-output unit in response to a single input-output instruction. Block size is a structural property of an input-output unit; it may have been fixed by the design or left to be varied by the program. […]“
  12. a b Werner Buchholz: The Word „Byte“ Comes of Age... In: Byte Magazine. 2. Jahrgang, Nr. 2, Februar 1977, S. 144 (englisch, archive.org): “[…] The first reference found in the files was contained in an internal memo written in June 1956 during the early days of developing Stretch. A byte was described as consisting of any number of parallel bits from one to six. Thus a byte was assumed to have a length appropriate for the occasion. Its first use was in the context of the input-output equipment of the 1950s, which handled six bits at a time. The possibility of going to 8 bit bytes was considered in August 1956 and incorporated in the design of Stretch shortly thereafter. The first published reference to the term occurred in 1959 in a paper „Processing Data in Bits and Pieces“ by G A Blaauw, F P Brooks Jr and W Buchholz in the IRE Transactions on Electronic Computers, June 1959, pages 121. The notions of that paper were elaborated in Chapter 4 of Planning a Computer System (Project Stretch), edited by W Buchholz, McGraw-Hill Book Company (1962). The rationale for coining the term was explained there on pages 40 as follows:
    Byte denotes a group of bits used to encode a character, or the number of bits transmitted in parallel to and from input-output units. A term other than character is used here because a given character may be represented in different applications by more than one code, and different codes may use different numbers of bits (ie, different byte sizes). In input-output transmission the grouping of bits may be completely arbitrary and have no relation to actual characters. (The term is coined from bite, but respelled to avoid accidental mutation to bit.)
    System/360 took over many of the Stretch concepts, including the basic byte and word sizes, which are powers of 2. For economy, however, the byte size was fixed at the 8 bit maximum, and addressing at the bit level was replaced by byte addressing. […] Since then the term byte has generally meant 8 bits, and it has thus passed into the general vocabulary. […]”
  13. Werner Buchholz: Memory Word Length and Indexing. IBM, 19. September 1956, 2. Input-Output Byte Size, S. 1 (webarchive.org [PDF; 227 kB; abgerufen am 1. Oktober 2022]): „[…] The maximum input-output byte size for serial operation will now be 8 bits, not counting any error detection and correction bits. Thus, the Exchange will operate on an 8-bit byte basis, and any input-output units with less than 8 bits per byte will leave the remaining bits blank. The resultant gaps can be edited out later by programming […]“
  14. Robert William Bemer: A proposal for a generalized card code of 256 characters. In: Communications of the ACM. 2. Jahrgang, Nr. 9, 1959, S. 19–23, doi:10.1145/368424.368435 (englisch).
  15. Philips Data Systems’ product range – April 1971. (PDF; 4,8 MB) Philips, 1971, abgerufen am 10. September 2023 (englisch).
  16. R. H. Williams: British Commercial Computer Digest: Pergamon Computer Data Series. Pergamon Press, 1969, S. 308 (englisch).
  17. Vgl. internationale Norm IEC 60027-2:2005, 3. Auflage. Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics veröffentlicht. Mittlerweile übernommen durch die weltweite IEC-Norm IEC 80000-13:2008 (bzw. DIN EN 80000-13:2009-01)
  18. Le Système international d’unités. 9e édition, 2019 (die sogenannte „SI-Broschüre“), Kapitel 3, S. 31 (französisch) und S. 143 (englisch) – Randnotiz.
  19. Eric Schäfer: Dateigrößen: Snow Leopard zählt anders. In: Mac Life. 28. August 2009, abgerufen am 28. August 2009.
  20. UnitsPolicy. Ubuntu, abgerufen am 24. April 2010 (englisch).