💾Stockage de Données|binary

Byte

Symbol: BWorldwide

0,001KB0,000001MB0GB0TB8bit

Qu'est-ce qu'un/une Byte (B) ?

Définition Formelle

L'octet (symbole : B) est une unité d'information numérique qui consiste le plus souvent en 8 bits. Un bit (chiffre binaire) est l'unité fondamentale d'information en informatique, représentant une seule valeur binaire de 0 ou 1. Un octet de 8 bits peut représenter 2⁸ = 256 valeurs distinctes, allant de 0 à 255 en représentation non signée ou de -128 à 127 en représentation signée.

L'octet est l'unité de mémoire adressable de base dans pratiquement toutes les architectures informatiques modernes. Lorsqu'un processeur lit des données depuis ou écrit des données dans la mémoire, il opère généralement sur des octets ou des groupes d'octets (mots). Chaque octet dans la mémoire d'un ordinateur a une adresse unique, et le nombre total d'octets adressables définit la capacité mémoire du système.

Relation avec d'autres unités de données

Un octet équivaut à 8 bits. Dans le système de préfixes décimaux (SI) : 1 kilooctet (Ko) = 1 000 octets, 1 mégaoctet (Mo) = 1 000 000 octets, 1 gigaoctet (Go) = 10⁹ octets, et 1 téraoctet (To) = 10¹² octets. Dans le système de préfixes binaires (norme IEC) : 1 kibioctet (KiB) = 1 024 octets, 1 mébioctet (MiB) = 1 048 576 octets, 1 gibioctet (GiB) = 1 073 741 824 octets. L'ambiguïté entre les interprétations décimales et binaires des préfixes comme "kilo", "méga" et "giga" a été une source persistante de confusion en informatique.

Etymology

Origine du Mot

Le mot "octet" a été inventé par Werner Buchholz en 1956 lors de la conception de l'ordinateur IBM Stretch (IBM 7030). Buchholz a délibérément choisi l'orthographe "octet" plutôt que "bite" pour éviter toute confusion accidentelle avec "bit" dans la documentation écrite. Le mot "bite" était le concept original — un petit morceau de données qu'un ordinateur pouvait "mordre" et traiter — mais l'orthographe modifiée a empêché les erreurs typographiques qui pourraient changer le sens des spécifications techniques.

Le projet IBM Stretch nécessitait un terme pour un groupe de bits pouvant représenter un seul caractère. Bien que l'ordinateur Stretch utilisât des octets de longueur variable (initialement 1-8 bits), l'architecture System/360, introduite par IBM en 1964, a standardisé l'octet à 8 bits. Cet octet de 8 bits est devenu la norme universelle car il pouvait représenter toutes les lettres majuscules et minuscules, les chiffres, les signes de ponctuation et les caractères de contrôle nécessaires au traitement de texte.

La Norme des 8 Bits

Le choix de 8 bits par octet n'était pas inévitable. Les premiers ordinateurs utilisaient divers groupements : des octets de 6 bits (permettant 64 caractères, suffisants pour les lettres majuscules, les chiffres et certains symboles), des octets de 7 bits (comme dans la norme ASCII, permettant 128 caractères), et des octets de 9 bits (utilisés dans certaines architectures mainframe pour la détection d'erreurs). L'octet de 8 bits a prévalu parce que 8 est une puissance de 2 (2³ = 8), il fournit 256 valeurs (suffisantes pour des ensembles de caractères étendus), et il permet une arithmétique binaire efficace.

Histoire

L'Aube de l'Informatique Numérique

Dans les premiers ordinateurs numériques des années 1940 et 1950, les données étaient organisées en mots machine plutôt qu'en octets. L'ENIAC (1945) traitait des données sous forme de nombres décimaux à 10 chiffres. Le Manchester Baby (1948) utilisait des mots de 32 bits. L'UNIVAC I (1951) utilisait des mots de 12 caractères de 6 bits chacun. Le concept d'un octet — un groupe de bits de taille fixe représentant un seul caractère — n'existait pas encore.

IBM et la Naissance de l'Octet

Werner Buchholz a inventé "octet" en 1956 pour le projet IBM Stretch. Au départ, la taille de l'octet n'était pas fixe — l'architecture Stretch supportait des champs de données de longueur variable. Le moment décisif est survenu avec le System/360 d'IBM, annoncé en 1964. Cette famille d'ordinateurs révolutionnaires a standardisé l'octet à 8 bits et a rendu la mémoire adressable par octets la norme. Le System/360 utilisait EBCDIC (Extended Binary Coded Decimal Interchange Code), un codage de caractères à 8 bits, ce qui nécessitait un octet de 8 bits.

Le succès commercial massif du System/360 — il est devenu l'architecture mainframe dominante pendant des décennies — a établi l'octet de 8 bits comme norme de l'industrie. Les architectures concurrentes ont progressivement adopté les octets de 8 bits pour des raisons de compatibilité, et dans les années 1970, l'octet de 8 bits était presque universel.

L'Ère des Microprocesseurs

Les microprocesseurs Intel 8008 (1972) et Intel 8080 (1974) — précurseurs du PC moderne — étaient des processeurs 8 bits qui traitaient un octet à la fois. L'Intel 8086 (1978) est passé à un traitement 16 bits (2 octets à la fois), et les générations suivantes sont passées à 32 bits (4 octets) et 64 bits (8 octets). Tout au long de cette évolution, l'octet est resté l'unité fondamentale d'adressage et de stockage des données.

Importance Moderne

Aujourd'hui, l'octet est si fondamental qu'il définit comment nous mesurons toutes les informations numériques. Les tailles de fichiers sont exprimées en octets et leurs multiples. La bande passante du réseau est mesurée en bits par seconde, mais les volumes de données sont mesurés en octets. Les capacités de stockage — des clés USB aux centres de données cloud — sont spécifiées en octets. L'octet est sans doute l'unité de mesure la plus importante à l'ère de l'information.

Utilisation actuelle

Dans la Mémoire de l'Ordinateur

Chaque morceau de données dans un ordinateur est finalement stocké sous forme d'octets. Un seul caractère ASCII occupe 1 octet, un caractère Unicode (UTF-8) occupe 1-4 octets, un entier occupe généralement 4 ou 8 octets, et un nombre à virgule flottante occupe 4 ou 8 octets. La RAM (Mémoire à Accès Aléatoire) est mesurée en gigaoctets — un ordinateur moderne typique a 8-64 Go de RAM, ce qui signifie 8 à 64 milliards d'octets de mémoire de travail.

Dans les Tailles de Fichiers

Les systèmes d'exploitation rapportent les tailles de fichiers en octets et leurs multiples. Un e-mail en texte brut pourrait faire 2-5 Ko (2 000-5 000 octets). Une photographie haute résolution pourrait faire 3-8 Mo (3-8 millions d'octets). Un fichier de film de long métrage pourrait faire 1-5 Go (1-5 milliards d'octets). Une installation complète de système d'exploitation pourrait occuper 20-50 Go. Ces mesures quotidiennes sont toutes exprimées en multiples de l'humble octet.

Dans la Transmission de Données

Bien que les vitesses réseau soient généralement mesurées en bits par seconde (Mbps, Gbps), les volumes de données transférées sont mesurés en octets. Un fournisseur de services Internet pourrait offrir un plafond de données mensuel de 1 To (1 trillion d'octets). Un plan de stockage cloud pourrait inclure 15 Go de stockage gratuit. Lors du téléchargement d'un fichier, le navigateur affiche la progression en mégaoctets ou en gigaoctets.

Dans le Codage des Caractères

Le rôle de l'octet dans le codage des caractères est fondamental. L'ASCII (American Standard Code for Information Interchange) utilise 7 bits (stockés dans 1 octet) pour représenter 128 caractères. L'ASCII étendu utilise tous les 8 bits pour 256 caractères. Unicode, qui vise à coder tous les systèmes d'écriture humains, utilise le codage UTF-8 où les caractères occupent 1-4 octets. La grande majorité du World Wide Web utilise le codage UTF-8, où chaque motif d'octet correspond à un caractère spécifique ou à une partie d'un caractère.

Everyday Use

Comprendre les Tailles de Fichiers

Tout le monde qui utilise un ordinateur ou un smartphone rencontre des octets quotidiennement, même s'il ne le réalise pas. Lorsque votre téléphone indique "Photo : 3,2 Mo", cela signifie que le fichier photo contient environ 3,2 millions d'octets de données. Lorsque vous téléchargez une application de 50 Mo, vous transférez 50 millions d'octets sur le réseau. Lorsque votre pièce jointe d'e-mail est rejetée parce qu'elle dépasse 25 Mo, vous devez réduire le fichier en dessous de 25 millions d'octets.

Achat de Stockage

Lors de l'achat de dispositifs de stockage — clés USB, cartes SD, disques durs externes ou plans de stockage cloud — les octets sont l'unité fondamentale de comparaison. Une clé USB de 256 Go stocke environ 256 milliards d'octets. Un disque dur externe de 2 To stocke environ 2 trillions d'octets. Comprendre l'échelle des octets aide les consommateurs à prendre des décisions d'achat éclairées.

Texte et Caractères

Dans le texte anglais quotidien, chaque caractère occupe environ 1 octet (en ASCII ou UTF-8 pour les caractères latins de base). Une page typique de texte contient environ 2 000-3 000 caractères, ou environ 2-3 Ko. Un roman de 300 pages contient environ 500 000-750 000 caractères, ou environ 500-750 Ko de texte brut. Les emojis et les caractères non latins peuvent occuper 2-4 octets chacun en UTF-8.

Musique, Photos et Vidéo

Un fichier de chanson MP3 typique fait 3-5 Mo (3-5 millions d'octets). Une photo JPEG haute résolution fait 3-8 Mo. Une minute de vidéo en 1080p fait environ 100-150 Mo. Un film complet en résolution 4K peut dépasser 50 Go (50 milliards d'octets). Ces références pratiques aident les gens à estimer leurs besoins en stockage et les temps de téléchargement.

Interesting Facts

1

The word 'byte' was deliberately misspelled from 'bite' by Werner Buchholz in 1956 to prevent confusion with 'bit' in IBM technical documents. This intentional misspelling became one of the most widely used words in technology.

2

A single byte can represent any number from 0 to 255, any of 256 colors in basic graphics, or any single ASCII character. This versatility is why the byte became the universal building block of digital data.

3

The entire text of the King James Bible contains approximately 4.5 million characters — about 4.5 MB. By contrast, a single uncompressed 4K photograph can exceed 24 MB, meaning one photo contains more bytes than the complete Bible.

4

In 2024, humanity generates approximately 120 zettabytes (120 × 10²¹ bytes) of data annually — roughly 120 billion terabytes. This number doubles approximately every two years.

5

The original IBM PC (1981) came with either 16 KB or 64 KB of RAM. A modern smartphone with 8 GB of RAM has roughly 125,000 to 500,000 times more memory than the first PC.

6

A byte is sometimes humorously called an 'octet' in networking terminology because some historical systems used bytes of sizes other than 8 bits. The term 'octet' removes all ambiguity by explicitly meaning exactly 8 bits.

7

The first commercially available hard disk drive, the IBM 350 (1956), stored 5 million bytes (5 MB) and was the size of two refrigerators. A modern microSD card the size of a fingernail stores 1 TB — 200,000 times more data.

8

If you printed every byte generated by humanity in 2023 as a single character on paper, the stack of pages would reach from Earth to the Sun and back more than a thousand times.

Conversion Table

UnitValue
Kilobyte (KB)0,001BKB
Megabyte (MB)0,000001BMB
Gigabyte (GB)0BGB
Terabyte (TB)0BTB
Bit (bit)8Bbit

Frequently Asked Questions

How many bits are in a byte?
There are 8 bits in one byte in virtually all modern computing systems. A bit is a single binary digit (0 or 1), and 8 bits grouped together form a byte that can represent 256 different values (2⁸ = 256). This 8-bit standard was established by IBM's System/360 architecture in 1964.
What is the difference between a byte and a bit?
A bit is the smallest unit of digital information — a single 0 or 1. A byte is a group of 8 bits. Bytes are used to measure file sizes and storage capacity (KB, MB, GB), while bits per second (bps) are used to measure data transmission speeds. To convert bytes to bits, multiply by 8; to convert bits to bytes, divide by 8.
How many bytes are in a kilobyte?
In the decimal (SI) definition, 1 kilobyte = 1,000 bytes. In the binary (IEC) definition, 1 kibibyte (KiB) = 1,024 bytes. The decimal definition is used by storage manufacturers and the SI system, while the binary definition is used internally by operating systems. This discrepancy is why a '256 GB' drive shows less space in your operating system.
Why does my hard drive show less space than advertised?
Storage manufacturers use the decimal definition: 1 GB = 1,000,000,000 bytes. Operating systems use the binary definition: 1 GB = 1,073,741,824 bytes. A '500 GB' drive has 500,000,000,000 bytes, which the OS reports as about 465 GiB (binary gigabytes). The drive has exactly the advertised number of bytes; the difference is purely a labeling convention.
What can one byte store?
One byte can store a single ASCII character (letter, digit, or symbol), a number from 0 to 255, one of 256 shades of gray in an image, or one color channel value in a digital photo. It can also represent one of 256 possible instruction codes in simple processors.
Why was 8 bits chosen for a byte?
Eight bits was chosen because: (1) 8 is a power of 2 (2³), which aligns with binary computing architecture; (2) 256 values (2⁸) are enough to represent all commonly needed characters, including uppercase and lowercase letters, digits, and symbols; (3) 8 allows efficient packing of two 4-bit 'nibbles' per byte, useful for hexadecimal representation.
What is the difference between uppercase B and lowercase b?
Uppercase B stands for byte (8 bits), while lowercase b stands for bit. This distinction is important: an internet speed of 100 Mbps (megabits per second) is 12.5 MB/s (megabytes per second). Storage is measured in bytes (KB, MB, GB), while network speeds are measured in bits per second (Kbps, Mbps, Gbps).
How many bytes is a typical text message?
A standard SMS text message can contain up to 160 characters in the GSM 7-bit encoding, which equals about 140 bytes. A typical short text message (50-100 characters) is roughly 50-100 bytes in ASCII. Messages with emojis or non-Latin characters can be larger because these characters require 2-4 bytes each in UTF-8 encoding.