💾Datenspeicher|binary

Byte

Symbol: BWorldwide

0,001KB0,000001MB0GB0TB8bit

Was ist ein/eine Byte (B)?

Formale Definition

Das Byte (Symbol: B) ist eine Einheit digitaler Informationen, die normalerweise aus 8 Bits besteht. Ein Bit (binäre Ziffer) ist die grundlegende Informationseinheit in der Informatik und stellt einen einzelnen binären Wert von entweder 0 oder 1 dar. Ein Byte mit 8 Bits kann 2⁸ = 256 verschiedene Werte darstellen, die von 0 bis 255 in der unsigned Darstellung oder von -128 bis 127 in der signed Darstellung reichen.

Das Byte ist die grundlegende adressierbare Einheit des Speichers in praktisch allen modernen Computerarchitekturen. Wenn ein Prozessor Daten aus dem Speicher liest oder in den Speicher schreibt, arbeitet er typischerweise mit Bytes oder Gruppen von Bytes (Wörter). Jedes Byte im Speicher eines Computers hat eine einzigartige Adresse, und die Gesamtzahl der adressierbaren Bytes definiert die Speicherkapazität des Systems.

Beziehung zu anderen Dateneinheiten

Ein Byte entspricht 8 Bits. Im dezimalen (SI) Präfixsystem: 1 Kilobyte (KB) = 1.000 Bytes, 1 Megabyte (MB) = 1.000.000 Bytes, 1 Gigabyte (GB) = 10⁹ Bytes und 1 Terabyte (TB) = 10¹² Bytes. Im binären Präfixsystem (IEC-Standard): 1 Kibibyte (KiB) = 1.024 Bytes, 1 Mebibyte (MiB) = 1.048.576 Bytes, 1 Gibibyte (GiB) = 1.073.741.824 Bytes. Die Mehrdeutigkeit zwischen der dezimalen und binären Interpretation von Präfixen wie "kilo", "mega" und "giga" war eine anhaltende Quelle der Verwirrung in der Informatik.

Etymology

Ursprung des Wortes

Das Wort "Byte" wurde 1956 von Werner Buchholz während des Designs des IBM Stretch-Computers (IBM 7030) geprägt. Buchholz wählte absichtlich die Schreibweise "byte" anstelle von "bite", um versehentliche Verwirrung mit "bit" in schriftlichen Dokumentationen zu vermeiden. Das Wort "bite" war das ursprüngliche Konzept — ein kleines Stück Daten, das ein Computer "abbeißen" und verarbeiten konnte — aber die geänderte Schreibweise verhinderte typografische Fehler, die die Bedeutung technischer Spezifikationen ändern könnten.

Das IBM Stretch-Projekt benötigte einen Begriff für eine Gruppe von Bits, die ein einzelnes Zeichen darstellen konnten. Während der Stretch-Computer variable Längen von Bytes verwendete (ursprünglich 1-8 Bits), standardisierte die System/360-Architektur, die von IBM 1964 eingeführt wurde, das Byte auf 8 Bits. Dieses 8-Bit-Byte wurde zum universellen Standard, da es alle Groß- und Kleinbuchstaben, Ziffern, Interpunktionszeichen und Steuerzeichen für die Textverarbeitung darstellen konnte.

Der 8-Bit-Standard

Die Wahl von 8 Bits pro Byte war nicht unvermeidlich. Frühe Computer verwendeten verschiedene Gruppierungen: 6-Bit-Bytes (die 64 Zeichen erlaubten, ausreichend für Großbuchstaben, Ziffern und einige Symbole), 7-Bit-Bytes (wie im ASCII-Standard, die 128 Zeichen erlaubten) und 9-Bit-Bytes (die in einigen Großrechnerarchitekturen zur Fehlererkennung verwendet wurden). Das 8-Bit-Byte setzte sich durch, weil 8 eine Potenz von 2 ist (2³ = 8), es 256 Werte bereitstellt (ausreichend für erweiterte Zeichencodierungen) und es effiziente binäre Arithmetik ermöglicht.

Geschichte

Der Beginn der digitalen Informatik

In den frühesten digitalen Computern der 1940er und 1950er Jahre wurden Daten in Maschinenwörtern und nicht in Bytes organisiert. Der ENIAC (1945) verarbeitete Daten in 10-stelligen Dezimalzahlen. Der Manchester Baby (1948) verwendete 32-Bit-Wörter. Der UNIVAC I (1951) verwendete 12-Zeichen-Wörter mit jeweils 6 Bits. Das Konzept eines Bytes — einer festen Gruppe von Bits, die ein einzelnes Zeichen darstellen — existierte noch nicht.

IBM und die Geburt des Bytes

Werner Buchholz prägte 1956 den Begriff "Byte" für das IBM Stretch-Projekt. Zunächst war die Größe des Bytes nicht festgelegt — die Stretch-Architektur unterstützte variabel lange Datenfelder. Der entscheidende Moment kam mit IBMs System/360, das 1964 angekündigt wurde. Diese revolutionäre Computerfamilie standardisierte das Byte auf 8 Bits und machte byteadressierbaren Speicher zur Norm. Das System/360 verwendete EBCDIC (Extended Binary Coded Decimal Interchange Code), eine 8-Bit-Zeichencodierung, die ein 8-Bit-Byte erforderte.

Der massive kommerzielle Erfolg des System/360 — es wurde über Jahrzehnte zur dominierenden Großrechnerarchitektur — etablierte das 8-Bit-Byte als Industriestandard. Konkurrenzarchitekturen übernahmen nach und nach 8-Bit-Bytes zur Kompatibilität, und bis in die 1970er Jahre war das 8-Bit-Byte nahezu universell.

Die Mikroprozessor-Ära

Die Mikroprozessoren Intel 8008 (1972) und Intel 8080 (1974) — Vorläufer des modernen PCs — waren 8-Bit-Prozessoren, die jeweils ein Byte auf einmal verarbeiteten. Der Intel 8086 (1978) erweiterte sich auf 16-Bit-Verarbeitung (2 Bytes auf einmal), und nachfolgende Generationen gingen auf 32-Bit (4 Bytes) und 64-Bit (8 Bytes). Während dieser Evolution blieb das Byte die grundlegende Einheit der Datenadressierung und -speicherung.

Moderne Bedeutung

Heute ist das Byte so grundlegend, dass es definiert, wie wir alle digitalen Informationen messen. Dateigrößen werden in Bytes und deren Vielfachen ausgedrückt. Die Netzwerkbandbreite wird in Bits pro Sekunde gemessen, aber Datenvolumen werden in Bytes gemessen. Speicherkapazitäten — von USB-Laufwerken bis hin zu Cloud-Datenzentren — werden in Bytes angegeben. Das Byte ist arguably die wichtigste Maßeinheit im Informationszeitalter.

Aktuelle Verwendung

Im Computerspeicher

Jedes Stück Daten in einem Computer wird letztendlich als Bytes gespeichert. Ein einzelnes ASCII-Zeichen benötigt 1 Byte, ein Unicode (UTF-8) Zeichen benötigt 1-4 Bytes, ein Integer benötigt typischerweise 4 oder 8 Bytes, und eine Fließkommazahl benötigt 4 oder 8 Bytes. RAM (Random Access Memory) wird in Gigabytes gemessen — ein typischer moderner Computer hat 8-64 GB RAM, was 8 bis 64 Milliarden Bytes Arbeitsspeicher bedeutet.

In Dateigrößen

Betriebssysteme berichten Dateigrößen in Bytes und deren Vielfachen. Eine einfache Text-E-Mail könnte 2-5 KB (2.000-5.000 Bytes) groß sein. Ein hochauflösendes Foto könnte 3-8 MB (3-8 Millionen Bytes) groß sein. Eine Spielfilmlänge Datei könnte 1-5 GB (1-5 Milliarden Bytes) groß sein. Eine vollständige Betriebssysteminstallation könnte 20-50 GB beanspruchen. Diese alltäglichen Maße werden alle in Vielfachen des bescheidenen Bytes ausgedrückt.

In der Datenübertragung

Während Netzwerkgeschwindigkeiten typischerweise in Bits pro Sekunde (Mbps, Gbps) gemessen werden, werden die übertragenen Datenvolumina in Bytes gemessen. Ein Internetdienstanbieter könnte ein monatliches Datenlimit von 1 TB (1 Billion Bytes) anbieten. Ein Cloud-Speicherplan könnte 15 GB kostenlosen Speicherplatz beinhalten. Beim Herunterladen einer Datei zeigt der Browser den Fortschritt in Megabytes oder Gigabytes an.

In der Zeichencodierung

Die Rolle des Bytes in der Zeichencodierung ist grundlegend. ASCII (American Standard Code for Information Interchange) verwendet 7 Bits (in 1 Byte gespeichert), um 128 Zeichen darzustellen. Erweitertes ASCII verwendet alle 8 Bits für 256 Zeichen. Unicode, das darauf abzielt, alle menschlichen Schriftsysteme zu codieren, verwendet UTF-8-Codierung, bei der Zeichen 1-4 Bytes benötigen. Die überwiegende Mehrheit des World Wide Web verwendet UTF-8-Codierung, bei der jedes Byte-Muster einem bestimmten Zeichen oder einem Teil eines Zeichens zugeordnet wird.

Everyday Use

Verständnis von Dateigrößen

Jeder, der einen Computer oder ein Smartphone benutzt, begegnet täglich Bytes, auch wenn er nicht darüber nachdenkt. Wenn Ihr Telefon sagt "Foto: 3,2 MB", bedeutet das, dass die Fotodatei ungefähr 3,2 Millionen Bytes Daten enthält. Wenn Sie eine 50 MB große App herunterladen, übertragen Sie 50 Millionen Bytes über das Netzwerk. Wenn Ihr E-Mail-Anhang abgelehnt wird, weil er 25 MB überschreitet, müssen Sie die Datei auf unter 25 Millionen Bytes reduzieren.

Speicher-Einkauf

Beim Kauf von Speichermedien — USB-Laufwerken, SD-Karten, externen Festplatten oder Cloud-Speicherplänen — sind Bytes die grundlegende Einheit des Vergleichs. Ein 256 GB USB-Laufwerk speichert ungefähr 256 Milliarden Bytes. Eine 2 TB externe Festplatte speichert ungefähr 2 Billionen Bytes. Das Verständnis der Byte-Skala hilft Verbrauchern, informierte Kaufentscheidungen zu treffen.

Text und Zeichen

In alltäglichem englischen Text benötigt jedes Zeichen ungefähr 1 Byte (in ASCII oder UTF-8 für grundlegende lateinische Zeichen). Eine typische Textseite enthält etwa 2.000-3.000 Zeichen, oder ungefähr 2-3 KB. Ein 300-seitiger Roman enthält ungefähr 500.000-750.000 Zeichen, oder etwa 500-750 KB reinen Text. Emojis und nicht-lateinische Zeichen benötigen in UTF-8 möglicherweise jeweils 2-4 Bytes.

Musik, Fotos und Video

Eine typische MP3-Musikdatei hat eine Größe von 3-5 MB (3-5 Millionen Bytes). Ein hochauflösendes JPEG-Foto ist 3-8 MB groß. Eine Minute 1080p-Video benötigt ungefähr 100-150 MB. Ein Spielfilm in 4K-Auflösung kann 50 GB (50 Milliarden Bytes) überschreiten. Diese praktischen Referenzen helfen den Menschen, ihren Speicherbedarf und die Downloadzeiten abzuschätzen.

Interesting Facts

1

The word 'byte' was deliberately misspelled from 'bite' by Werner Buchholz in 1956 to prevent confusion with 'bit' in IBM technical documents. This intentional misspelling became one of the most widely used words in technology.

2

A single byte can represent any number from 0 to 255, any of 256 colors in basic graphics, or any single ASCII character. This versatility is why the byte became the universal building block of digital data.

3

The entire text of the King James Bible contains approximately 4.5 million characters — about 4.5 MB. By contrast, a single uncompressed 4K photograph can exceed 24 MB, meaning one photo contains more bytes than the complete Bible.

4

In 2024, humanity generates approximately 120 zettabytes (120 × 10²¹ bytes) of data annually — roughly 120 billion terabytes. This number doubles approximately every two years.

5

The original IBM PC (1981) came with either 16 KB or 64 KB of RAM. A modern smartphone with 8 GB of RAM has roughly 125,000 to 500,000 times more memory than the first PC.

6

A byte is sometimes humorously called an 'octet' in networking terminology because some historical systems used bytes of sizes other than 8 bits. The term 'octet' removes all ambiguity by explicitly meaning exactly 8 bits.

7

The first commercially available hard disk drive, the IBM 350 (1956), stored 5 million bytes (5 MB) and was the size of two refrigerators. A modern microSD card the size of a fingernail stores 1 TB — 200,000 times more data.

8

If you printed every byte generated by humanity in 2023 as a single character on paper, the stack of pages would reach from Earth to the Sun and back more than a thousand times.

Conversion Table

UnitValue
Kilobyte (KB)0,001BKB
Megabyte (MB)0,000001BMB
Gigabyte (GB)0BGB
Terabyte (TB)0BTB
Bit (bit)8Bbit

Frequently Asked Questions

How many bits are in a byte?
There are 8 bits in one byte in virtually all modern computing systems. A bit is a single binary digit (0 or 1), and 8 bits grouped together form a byte that can represent 256 different values (2⁸ = 256). This 8-bit standard was established by IBM's System/360 architecture in 1964.
What is the difference between a byte and a bit?
A bit is the smallest unit of digital information — a single 0 or 1. A byte is a group of 8 bits. Bytes are used to measure file sizes and storage capacity (KB, MB, GB), while bits per second (bps) are used to measure data transmission speeds. To convert bytes to bits, multiply by 8; to convert bits to bytes, divide by 8.
How many bytes are in a kilobyte?
In the decimal (SI) definition, 1 kilobyte = 1,000 bytes. In the binary (IEC) definition, 1 kibibyte (KiB) = 1,024 bytes. The decimal definition is used by storage manufacturers and the SI system, while the binary definition is used internally by operating systems. This discrepancy is why a '256 GB' drive shows less space in your operating system.
Why does my hard drive show less space than advertised?
Storage manufacturers use the decimal definition: 1 GB = 1,000,000,000 bytes. Operating systems use the binary definition: 1 GB = 1,073,741,824 bytes. A '500 GB' drive has 500,000,000,000 bytes, which the OS reports as about 465 GiB (binary gigabytes). The drive has exactly the advertised number of bytes; the difference is purely a labeling convention.
What can one byte store?
One byte can store a single ASCII character (letter, digit, or symbol), a number from 0 to 255, one of 256 shades of gray in an image, or one color channel value in a digital photo. It can also represent one of 256 possible instruction codes in simple processors.
Why was 8 bits chosen for a byte?
Eight bits was chosen because: (1) 8 is a power of 2 (2³), which aligns with binary computing architecture; (2) 256 values (2⁸) are enough to represent all commonly needed characters, including uppercase and lowercase letters, digits, and symbols; (3) 8 allows efficient packing of two 4-bit 'nibbles' per byte, useful for hexadecimal representation.
What is the difference between uppercase B and lowercase b?
Uppercase B stands for byte (8 bits), while lowercase b stands for bit. This distinction is important: an internet speed of 100 Mbps (megabits per second) is 12.5 MB/s (megabytes per second). Storage is measured in bytes (KB, MB, GB), while network speeds are measured in bits per second (Kbps, Mbps, Gbps).
How many bytes is a typical text message?
A standard SMS text message can contain up to 160 characters in the GSM 7-bit encoding, which equals about 140 bytes. A typical short text message (50-100 characters) is roughly 50-100 bytes in ASCII. Messages with emojis or non-Latin characters can be larger because these characters require 2-4 bytes each in UTF-8 encoding.