Byte
Symbol: BWorldwide
Qu'est-ce qu'un/une Byte (B) ?
Définition Formelle
L'octet (symbole : B) est une unité d'information numérique qui consiste le plus souvent en 8 bits. Un bit (chiffre binaire) est l'unité fondamentale d'information en informatique, représentant une seule valeur binaire de 0 ou 1. Un octet de 8 bits peut représenter 2⁸ = 256 valeurs distinctes, allant de 0 à 255 en représentation non signée ou de -128 à 127 en représentation signée.
L'octet est l'unité de mémoire adressable de base dans pratiquement toutes les architectures informatiques modernes. Lorsqu'un processeur lit des données depuis ou écrit des données dans la mémoire, il opère généralement sur des octets ou des groupes d'octets (mots). Chaque octet dans la mémoire d'un ordinateur a une adresse unique, et le nombre total d'octets adressables définit la capacité mémoire du système.
Relation avec d'autres unités de données
Un octet équivaut à 8 bits. Dans le système de préfixes décimaux (SI) : 1 kilooctet (Ko) = 1 000 octets, 1 mégaoctet (Mo) = 1 000 000 octets, 1 gigaoctet (Go) = 10⁹ octets, et 1 téraoctet (To) = 10¹² octets. Dans le système de préfixes binaires (norme IEC) : 1 kibioctet (KiB) = 1 024 octets, 1 mébioctet (MiB) = 1 048 576 octets, 1 gibioctet (GiB) = 1 073 741 824 octets. L'ambiguïté entre les interprétations décimales et binaires des préfixes comme "kilo", "méga" et "giga" a été une source persistante de confusion en informatique.
Etymology
Origine du Mot
Le mot "octet" a été inventé par Werner Buchholz en 1956 lors de la conception de l'ordinateur IBM Stretch (IBM 7030). Buchholz a délibérément choisi l'orthographe "octet" plutôt que "bite" pour éviter toute confusion accidentelle avec "bit" dans la documentation écrite. Le mot "bite" était le concept original — un petit morceau de données qu'un ordinateur pouvait "mordre" et traiter — mais l'orthographe modifiée a empêché les erreurs typographiques qui pourraient changer le sens des spécifications techniques.
Le projet IBM Stretch nécessitait un terme pour un groupe de bits pouvant représenter un seul caractère. Bien que l'ordinateur Stretch utilisât des octets de longueur variable (initialement 1-8 bits), l'architecture System/360, introduite par IBM en 1964, a standardisé l'octet à 8 bits. Cet octet de 8 bits est devenu la norme universelle car il pouvait représenter toutes les lettres majuscules et minuscules, les chiffres, les signes de ponctuation et les caractères de contrôle nécessaires au traitement de texte.
La Norme des 8 Bits
Le choix de 8 bits par octet n'était pas inévitable. Les premiers ordinateurs utilisaient divers groupements : des octets de 6 bits (permettant 64 caractères, suffisants pour les lettres majuscules, les chiffres et certains symboles), des octets de 7 bits (comme dans la norme ASCII, permettant 128 caractères), et des octets de 9 bits (utilisés dans certaines architectures mainframe pour la détection d'erreurs). L'octet de 8 bits a prévalu parce que 8 est une puissance de 2 (2³ = 8), il fournit 256 valeurs (suffisantes pour des ensembles de caractères étendus), et il permet une arithmétique binaire efficace.
Histoire
L'Aube de l'Informatique Numérique
Dans les premiers ordinateurs numériques des années 1940 et 1950, les données étaient organisées en mots machine plutôt qu'en octets. L'ENIAC (1945) traitait des données sous forme de nombres décimaux à 10 chiffres. Le Manchester Baby (1948) utilisait des mots de 32 bits. L'UNIVAC I (1951) utilisait des mots de 12 caractères de 6 bits chacun. Le concept d'un octet — un groupe de bits de taille fixe représentant un seul caractère — n'existait pas encore.
IBM et la Naissance de l'Octet
Werner Buchholz a inventé "octet" en 1956 pour le projet IBM Stretch. Au départ, la taille de l'octet n'était pas fixe — l'architecture Stretch supportait des champs de données de longueur variable. Le moment décisif est survenu avec le System/360 d'IBM, annoncé en 1964. Cette famille d'ordinateurs révolutionnaires a standardisé l'octet à 8 bits et a rendu la mémoire adressable par octets la norme. Le System/360 utilisait EBCDIC (Extended Binary Coded Decimal Interchange Code), un codage de caractères à 8 bits, ce qui nécessitait un octet de 8 bits.
Le succès commercial massif du System/360 — il est devenu l'architecture mainframe dominante pendant des décennies — a établi l'octet de 8 bits comme norme de l'industrie. Les architectures concurrentes ont progressivement adopté les octets de 8 bits pour des raisons de compatibilité, et dans les années 1970, l'octet de 8 bits était presque universel.
L'Ère des Microprocesseurs
Les microprocesseurs Intel 8008 (1972) et Intel 8080 (1974) — précurseurs du PC moderne — étaient des processeurs 8 bits qui traitaient un octet à la fois. L'Intel 8086 (1978) est passé à un traitement 16 bits (2 octets à la fois), et les générations suivantes sont passées à 32 bits (4 octets) et 64 bits (8 octets). Tout au long de cette évolution, l'octet est resté l'unité fondamentale d'adressage et de stockage des données.
Importance Moderne
Aujourd'hui, l'octet est si fondamental qu'il définit comment nous mesurons toutes les informations numériques. Les tailles de fichiers sont exprimées en octets et leurs multiples. La bande passante du réseau est mesurée en bits par seconde, mais les volumes de données sont mesurés en octets. Les capacités de stockage — des clés USB aux centres de données cloud — sont spécifiées en octets. L'octet est sans doute l'unité de mesure la plus importante à l'ère de l'information.
Utilisation actuelle
Dans la Mémoire de l'Ordinateur
Chaque morceau de données dans un ordinateur est finalement stocké sous forme d'octets. Un seul caractère ASCII occupe 1 octet, un caractère Unicode (UTF-8) occupe 1-4 octets, un entier occupe généralement 4 ou 8 octets, et un nombre à virgule flottante occupe 4 ou 8 octets. La RAM (Mémoire à Accès Aléatoire) est mesurée en gigaoctets — un ordinateur moderne typique a 8-64 Go de RAM, ce qui signifie 8 à 64 milliards d'octets de mémoire de travail.
Dans les Tailles de Fichiers
Les systèmes d'exploitation rapportent les tailles de fichiers en octets et leurs multiples. Un e-mail en texte brut pourrait faire 2-5 Ko (2 000-5 000 octets). Une photographie haute résolution pourrait faire 3-8 Mo (3-8 millions d'octets). Un fichier de film de long métrage pourrait faire 1-5 Go (1-5 milliards d'octets). Une installation complète de système d'exploitation pourrait occuper 20-50 Go. Ces mesures quotidiennes sont toutes exprimées en multiples de l'humble octet.
Dans la Transmission de Données
Bien que les vitesses réseau soient généralement mesurées en bits par seconde (Mbps, Gbps), les volumes de données transférées sont mesurés en octets. Un fournisseur de services Internet pourrait offrir un plafond de données mensuel de 1 To (1 trillion d'octets). Un plan de stockage cloud pourrait inclure 15 Go de stockage gratuit. Lors du téléchargement d'un fichier, le navigateur affiche la progression en mégaoctets ou en gigaoctets.
Dans le Codage des Caractères
Le rôle de l'octet dans le codage des caractères est fondamental. L'ASCII (American Standard Code for Information Interchange) utilise 7 bits (stockés dans 1 octet) pour représenter 128 caractères. L'ASCII étendu utilise tous les 8 bits pour 256 caractères. Unicode, qui vise à coder tous les systèmes d'écriture humains, utilise le codage UTF-8 où les caractères occupent 1-4 octets. La grande majorité du World Wide Web utilise le codage UTF-8, où chaque motif d'octet correspond à un caractère spécifique ou à une partie d'un caractère.
Everyday Use
Comprendre les Tailles de Fichiers
Tout le monde qui utilise un ordinateur ou un smartphone rencontre des octets quotidiennement, même s'il ne le réalise pas. Lorsque votre téléphone indique "Photo : 3,2 Mo", cela signifie que le fichier photo contient environ 3,2 millions d'octets de données. Lorsque vous téléchargez une application de 50 Mo, vous transférez 50 millions d'octets sur le réseau. Lorsque votre pièce jointe d'e-mail est rejetée parce qu'elle dépasse 25 Mo, vous devez réduire le fichier en dessous de 25 millions d'octets.
Achat de Stockage
Lors de l'achat de dispositifs de stockage — clés USB, cartes SD, disques durs externes ou plans de stockage cloud — les octets sont l'unité fondamentale de comparaison. Une clé USB de 256 Go stocke environ 256 milliards d'octets. Un disque dur externe de 2 To stocke environ 2 trillions d'octets. Comprendre l'échelle des octets aide les consommateurs à prendre des décisions d'achat éclairées.
Texte et Caractères
Dans le texte anglais quotidien, chaque caractère occupe environ 1 octet (en ASCII ou UTF-8 pour les caractères latins de base). Une page typique de texte contient environ 2 000-3 000 caractères, ou environ 2-3 Ko. Un roman de 300 pages contient environ 500 000-750 000 caractères, ou environ 500-750 Ko de texte brut. Les emojis et les caractères non latins peuvent occuper 2-4 octets chacun en UTF-8.
Musique, Photos et Vidéo
Un fichier de chanson MP3 typique fait 3-5 Mo (3-5 millions d'octets). Une photo JPEG haute résolution fait 3-8 Mo. Une minute de vidéo en 1080p fait environ 100-150 Mo. Un film complet en résolution 4K peut dépasser 50 Go (50 milliards d'octets). Ces références pratiques aident les gens à estimer leurs besoins en stockage et les temps de téléchargement.
Interesting Facts
The word 'byte' was deliberately misspelled from 'bite' by Werner Buchholz in 1956 to prevent confusion with 'bit' in IBM technical documents. This intentional misspelling became one of the most widely used words in technology.
A single byte can represent any number from 0 to 255, any of 256 colors in basic graphics, or any single ASCII character. This versatility is why the byte became the universal building block of digital data.
The entire text of the King James Bible contains approximately 4.5 million characters — about 4.5 MB. By contrast, a single uncompressed 4K photograph can exceed 24 MB, meaning one photo contains more bytes than the complete Bible.
In 2024, humanity generates approximately 120 zettabytes (120 × 10²¹ bytes) of data annually — roughly 120 billion terabytes. This number doubles approximately every two years.
The original IBM PC (1981) came with either 16 KB or 64 KB of RAM. A modern smartphone with 8 GB of RAM has roughly 125,000 to 500,000 times more memory than the first PC.
A byte is sometimes humorously called an 'octet' in networking terminology because some historical systems used bytes of sizes other than 8 bits. The term 'octet' removes all ambiguity by explicitly meaning exactly 8 bits.
The first commercially available hard disk drive, the IBM 350 (1956), stored 5 million bytes (5 MB) and was the size of two refrigerators. A modern microSD card the size of a fingernail stores 1 TB — 200,000 times more data.
If you printed every byte generated by humanity in 2023 as a single character on paper, the stack of pages would reach from Earth to the Sun and back more than a thousand times.