Byte
Symbol: BWorldwide
Was ist ein/eine Byte (B)?
Formale Definition
Das Byte (Symbol: B) ist eine Einheit digitaler Informationen, die normalerweise aus 8 Bits besteht. Ein Bit (binäre Ziffer) ist die grundlegende Informationseinheit in der Informatik und stellt einen einzelnen binären Wert von entweder 0 oder 1 dar. Ein Byte mit 8 Bits kann 2⁸ = 256 verschiedene Werte darstellen, die von 0 bis 255 in der unsigned Darstellung oder von -128 bis 127 in der signed Darstellung reichen.
Das Byte ist die grundlegende adressierbare Einheit des Speichers in praktisch allen modernen Computerarchitekturen. Wenn ein Prozessor Daten aus dem Speicher liest oder in den Speicher schreibt, arbeitet er typischerweise mit Bytes oder Gruppen von Bytes (Wörter). Jedes Byte im Speicher eines Computers hat eine einzigartige Adresse, und die Gesamtzahl der adressierbaren Bytes definiert die Speicherkapazität des Systems.
Beziehung zu anderen Dateneinheiten
Ein Byte entspricht 8 Bits. Im dezimalen (SI) Präfixsystem: 1 Kilobyte (KB) = 1.000 Bytes, 1 Megabyte (MB) = 1.000.000 Bytes, 1 Gigabyte (GB) = 10⁹ Bytes und 1 Terabyte (TB) = 10¹² Bytes. Im binären Präfixsystem (IEC-Standard): 1 Kibibyte (KiB) = 1.024 Bytes, 1 Mebibyte (MiB) = 1.048.576 Bytes, 1 Gibibyte (GiB) = 1.073.741.824 Bytes. Die Mehrdeutigkeit zwischen der dezimalen und binären Interpretation von Präfixen wie "kilo", "mega" und "giga" war eine anhaltende Quelle der Verwirrung in der Informatik.
Etymology
Ursprung des Wortes
Das Wort "Byte" wurde 1956 von Werner Buchholz während des Designs des IBM Stretch-Computers (IBM 7030) geprägt. Buchholz wählte absichtlich die Schreibweise "byte" anstelle von "bite", um versehentliche Verwirrung mit "bit" in schriftlichen Dokumentationen zu vermeiden. Das Wort "bite" war das ursprüngliche Konzept — ein kleines Stück Daten, das ein Computer "abbeißen" und verarbeiten konnte — aber die geänderte Schreibweise verhinderte typografische Fehler, die die Bedeutung technischer Spezifikationen ändern könnten.
Das IBM Stretch-Projekt benötigte einen Begriff für eine Gruppe von Bits, die ein einzelnes Zeichen darstellen konnten. Während der Stretch-Computer variable Längen von Bytes verwendete (ursprünglich 1-8 Bits), standardisierte die System/360-Architektur, die von IBM 1964 eingeführt wurde, das Byte auf 8 Bits. Dieses 8-Bit-Byte wurde zum universellen Standard, da es alle Groß- und Kleinbuchstaben, Ziffern, Interpunktionszeichen und Steuerzeichen für die Textverarbeitung darstellen konnte.
Der 8-Bit-Standard
Die Wahl von 8 Bits pro Byte war nicht unvermeidlich. Frühe Computer verwendeten verschiedene Gruppierungen: 6-Bit-Bytes (die 64 Zeichen erlaubten, ausreichend für Großbuchstaben, Ziffern und einige Symbole), 7-Bit-Bytes (wie im ASCII-Standard, die 128 Zeichen erlaubten) und 9-Bit-Bytes (die in einigen Großrechnerarchitekturen zur Fehlererkennung verwendet wurden). Das 8-Bit-Byte setzte sich durch, weil 8 eine Potenz von 2 ist (2³ = 8), es 256 Werte bereitstellt (ausreichend für erweiterte Zeichencodierungen) und es effiziente binäre Arithmetik ermöglicht.
Geschichte
Der Beginn der digitalen Informatik
In den frühesten digitalen Computern der 1940er und 1950er Jahre wurden Daten in Maschinenwörtern und nicht in Bytes organisiert. Der ENIAC (1945) verarbeitete Daten in 10-stelligen Dezimalzahlen. Der Manchester Baby (1948) verwendete 32-Bit-Wörter. Der UNIVAC I (1951) verwendete 12-Zeichen-Wörter mit jeweils 6 Bits. Das Konzept eines Bytes — einer festen Gruppe von Bits, die ein einzelnes Zeichen darstellen — existierte noch nicht.
IBM und die Geburt des Bytes
Werner Buchholz prägte 1956 den Begriff "Byte" für das IBM Stretch-Projekt. Zunächst war die Größe des Bytes nicht festgelegt — die Stretch-Architektur unterstützte variabel lange Datenfelder. Der entscheidende Moment kam mit IBMs System/360, das 1964 angekündigt wurde. Diese revolutionäre Computerfamilie standardisierte das Byte auf 8 Bits und machte byteadressierbaren Speicher zur Norm. Das System/360 verwendete EBCDIC (Extended Binary Coded Decimal Interchange Code), eine 8-Bit-Zeichencodierung, die ein 8-Bit-Byte erforderte.
Der massive kommerzielle Erfolg des System/360 — es wurde über Jahrzehnte zur dominierenden Großrechnerarchitektur — etablierte das 8-Bit-Byte als Industriestandard. Konkurrenzarchitekturen übernahmen nach und nach 8-Bit-Bytes zur Kompatibilität, und bis in die 1970er Jahre war das 8-Bit-Byte nahezu universell.
Die Mikroprozessor-Ära
Die Mikroprozessoren Intel 8008 (1972) und Intel 8080 (1974) — Vorläufer des modernen PCs — waren 8-Bit-Prozessoren, die jeweils ein Byte auf einmal verarbeiteten. Der Intel 8086 (1978) erweiterte sich auf 16-Bit-Verarbeitung (2 Bytes auf einmal), und nachfolgende Generationen gingen auf 32-Bit (4 Bytes) und 64-Bit (8 Bytes). Während dieser Evolution blieb das Byte die grundlegende Einheit der Datenadressierung und -speicherung.
Moderne Bedeutung
Heute ist das Byte so grundlegend, dass es definiert, wie wir alle digitalen Informationen messen. Dateigrößen werden in Bytes und deren Vielfachen ausgedrückt. Die Netzwerkbandbreite wird in Bits pro Sekunde gemessen, aber Datenvolumen werden in Bytes gemessen. Speicherkapazitäten — von USB-Laufwerken bis hin zu Cloud-Datenzentren — werden in Bytes angegeben. Das Byte ist arguably die wichtigste Maßeinheit im Informationszeitalter.
Aktuelle Verwendung
Im Computerspeicher
Jedes Stück Daten in einem Computer wird letztendlich als Bytes gespeichert. Ein einzelnes ASCII-Zeichen benötigt 1 Byte, ein Unicode (UTF-8) Zeichen benötigt 1-4 Bytes, ein Integer benötigt typischerweise 4 oder 8 Bytes, und eine Fließkommazahl benötigt 4 oder 8 Bytes. RAM (Random Access Memory) wird in Gigabytes gemessen — ein typischer moderner Computer hat 8-64 GB RAM, was 8 bis 64 Milliarden Bytes Arbeitsspeicher bedeutet.
In Dateigrößen
Betriebssysteme berichten Dateigrößen in Bytes und deren Vielfachen. Eine einfache Text-E-Mail könnte 2-5 KB (2.000-5.000 Bytes) groß sein. Ein hochauflösendes Foto könnte 3-8 MB (3-8 Millionen Bytes) groß sein. Eine Spielfilmlänge Datei könnte 1-5 GB (1-5 Milliarden Bytes) groß sein. Eine vollständige Betriebssysteminstallation könnte 20-50 GB beanspruchen. Diese alltäglichen Maße werden alle in Vielfachen des bescheidenen Bytes ausgedrückt.
In der Datenübertragung
Während Netzwerkgeschwindigkeiten typischerweise in Bits pro Sekunde (Mbps, Gbps) gemessen werden, werden die übertragenen Datenvolumina in Bytes gemessen. Ein Internetdienstanbieter könnte ein monatliches Datenlimit von 1 TB (1 Billion Bytes) anbieten. Ein Cloud-Speicherplan könnte 15 GB kostenlosen Speicherplatz beinhalten. Beim Herunterladen einer Datei zeigt der Browser den Fortschritt in Megabytes oder Gigabytes an.
In der Zeichencodierung
Die Rolle des Bytes in der Zeichencodierung ist grundlegend. ASCII (American Standard Code for Information Interchange) verwendet 7 Bits (in 1 Byte gespeichert), um 128 Zeichen darzustellen. Erweitertes ASCII verwendet alle 8 Bits für 256 Zeichen. Unicode, das darauf abzielt, alle menschlichen Schriftsysteme zu codieren, verwendet UTF-8-Codierung, bei der Zeichen 1-4 Bytes benötigen. Die überwiegende Mehrheit des World Wide Web verwendet UTF-8-Codierung, bei der jedes Byte-Muster einem bestimmten Zeichen oder einem Teil eines Zeichens zugeordnet wird.
Everyday Use
Verständnis von Dateigrößen
Jeder, der einen Computer oder ein Smartphone benutzt, begegnet täglich Bytes, auch wenn er nicht darüber nachdenkt. Wenn Ihr Telefon sagt "Foto: 3,2 MB", bedeutet das, dass die Fotodatei ungefähr 3,2 Millionen Bytes Daten enthält. Wenn Sie eine 50 MB große App herunterladen, übertragen Sie 50 Millionen Bytes über das Netzwerk. Wenn Ihr E-Mail-Anhang abgelehnt wird, weil er 25 MB überschreitet, müssen Sie die Datei auf unter 25 Millionen Bytes reduzieren.
Speicher-Einkauf
Beim Kauf von Speichermedien — USB-Laufwerken, SD-Karten, externen Festplatten oder Cloud-Speicherplänen — sind Bytes die grundlegende Einheit des Vergleichs. Ein 256 GB USB-Laufwerk speichert ungefähr 256 Milliarden Bytes. Eine 2 TB externe Festplatte speichert ungefähr 2 Billionen Bytes. Das Verständnis der Byte-Skala hilft Verbrauchern, informierte Kaufentscheidungen zu treffen.
Text und Zeichen
In alltäglichem englischen Text benötigt jedes Zeichen ungefähr 1 Byte (in ASCII oder UTF-8 für grundlegende lateinische Zeichen). Eine typische Textseite enthält etwa 2.000-3.000 Zeichen, oder ungefähr 2-3 KB. Ein 300-seitiger Roman enthält ungefähr 500.000-750.000 Zeichen, oder etwa 500-750 KB reinen Text. Emojis und nicht-lateinische Zeichen benötigen in UTF-8 möglicherweise jeweils 2-4 Bytes.
Musik, Fotos und Video
Eine typische MP3-Musikdatei hat eine Größe von 3-5 MB (3-5 Millionen Bytes). Ein hochauflösendes JPEG-Foto ist 3-8 MB groß. Eine Minute 1080p-Video benötigt ungefähr 100-150 MB. Ein Spielfilm in 4K-Auflösung kann 50 GB (50 Milliarden Bytes) überschreiten. Diese praktischen Referenzen helfen den Menschen, ihren Speicherbedarf und die Downloadzeiten abzuschätzen.
Interesting Facts
The word 'byte' was deliberately misspelled from 'bite' by Werner Buchholz in 1956 to prevent confusion with 'bit' in IBM technical documents. This intentional misspelling became one of the most widely used words in technology.
A single byte can represent any number from 0 to 255, any of 256 colors in basic graphics, or any single ASCII character. This versatility is why the byte became the universal building block of digital data.
The entire text of the King James Bible contains approximately 4.5 million characters — about 4.5 MB. By contrast, a single uncompressed 4K photograph can exceed 24 MB, meaning one photo contains more bytes than the complete Bible.
In 2024, humanity generates approximately 120 zettabytes (120 × 10²¹ bytes) of data annually — roughly 120 billion terabytes. This number doubles approximately every two years.
The original IBM PC (1981) came with either 16 KB or 64 KB of RAM. A modern smartphone with 8 GB of RAM has roughly 125,000 to 500,000 times more memory than the first PC.
A byte is sometimes humorously called an 'octet' in networking terminology because some historical systems used bytes of sizes other than 8 bits. The term 'octet' removes all ambiguity by explicitly meaning exactly 8 bits.
The first commercially available hard disk drive, the IBM 350 (1956), stored 5 million bytes (5 MB) and was the size of two refrigerators. A modern microSD card the size of a fingernail stores 1 TB — 200,000 times more data.
If you printed every byte generated by humanity in 2023 as a single character on paper, the stack of pages would reach from Earth to the Sun and back more than a thousand times.