💾Armazenamento de Dados|binary

Byte

Symbol: BWorldwide

0,001KB0,000001MB0GB0TB8bit

O que é um/uma Byte (B)?

Definição Formal

O byte (símbolo: B) é uma unidade de informação digital que consiste mais comumente em 8 bits. Um bit (dígito binário) é a unidade fundamental de informação em computação, representando um único valor binário de 0 ou 1. Um byte de 8 bits pode representar 2⁸ = 256 valores distintos, variando de 0 a 255 em representação não assinada ou -128 a 127 em representação assinada.

O byte é a unidade endereçável básica de memória em praticamente todas as arquiteturas de computador modernas. Quando um processador lê dados da memória ou grava dados na memória, ele normalmente opera em bytes ou grupos de bytes (palavras). Cada byte na memória de um computador tem um endereço único, e o número total de bytes endereçáveis define a capacidade de memória do sistema.

Relação com Outras Unidades de Dados

Um byte equivale a 8 bits. No sistema de prefixos decimal (SI): 1 kilobyte (KB) = 1.000 bytes, 1 megabyte (MB) = 1.000.000 bytes, 1 gigabyte (GB) = 10⁹ bytes, e 1 terabyte (TB) = 10¹² bytes. No sistema de prefixos binários (padrão IEC): 1 kibibyte (KiB) = 1.024 bytes, 1 mebibyte (MiB) = 1.048.576 bytes, 1 gibibyte (GiB) = 1.073.741.824 bytes. A ambiguidade entre as interpretações decimal e binária de prefixos como "quilo", "mega" e "giga" tem sido uma fonte persistente de confusão na computação.

Etymology

Origem da Palavra

A palavra "byte" foi criada por Werner Buchholz em 1956 durante o design do computador IBM Stretch (IBM 7030). Buchholz escolheu deliberadamente a grafia "byte" em vez de "bite" para evitar confusão acidental com "bit" na documentação escrita. A palavra "bite" era o conceito original — um pequeno pedaço de dados que um computador poderia "morder" e processar — mas a grafia alterada evitou erros tipográficos que poderiam mudar o significado das especificações técnicas.

O projeto IBM Stretch exigia um termo para um grupo de bits que pudesse representar um único caractere. Enquanto o computador Stretch usava bytes de comprimento variável (originalmente 1-8 bits), a arquitetura System/360, introduzida pela IBM em 1964, padronizou o byte em 8 bits. Este byte de 8 bits tornou-se o padrão universal porque poderia representar todas as letras maiúsculas e minúsculas, dígitos, sinais de pontuação e caracteres de controle necessários para o processamento de texto.

O Padrão de 8 Bits

A escolha de 8 bits por byte não era inevitável. Os primeiros computadores usavam várias agrupamentos: bytes de 6 bits (permitindo 64 caracteres, suficiente para letras maiúsculas, dígitos e alguns símbolos), bytes de 7 bits (como no padrão ASCII, permitindo 128 caracteres) e bytes de 9 bits (usados em algumas arquiteturas de mainframe para detecção de erros). O byte de 8 bits prevaleceu porque 8 é uma potência de 2 (2³ = 8), fornece 256 valores (suficientes para conjuntos de caracteres estendidos) e permite aritmética binária eficiente.

História

O Amanhã da Computação Digital

Nos primeiros computadores digitais das décadas de 1940 e 1950, os dados eram organizados em palavras de máquina em vez de bytes. O ENIAC (1945) processava dados em números decimais de 10 dígitos. O Manchester Baby (1948) usava palavras de 32 bits. O UNIVAC I (1951) usava palavras de 12 caracteres de 6 bits cada. O conceito de um byte — um grupo fixo de bits representando um único caractere — ainda não existia.

IBM e o Nascimento do Byte

Werner Buchholz cunhou "byte" em 1956 para o projeto IBM Stretch. Inicialmente, o tamanho do byte não era fixo — a arquitetura Stretch suportava campos de dados de comprimento variável. O momento decisivo veio com o System/360 da IBM, anunciado em 1964. Esta revolucionária família de computadores padronizou o byte em 8 bits e tornou a memória endereçável por byte a norma. O System/360 usou EBCDIC (Extended Binary Coded Decimal Interchange Code), uma codificação de caracteres de 8 bits, que exigia um byte de 8 bits.

O enorme sucesso comercial do System/360 — que se tornou a arquitetura de mainframe dominante por décadas — estabeleceu o byte de 8 bits como o padrão da indústria. Arquiteturas concorrentes gradualmente adotaram bytes de 8 bits para compatibilidade, e na década de 1970, o byte de 8 bits era quase universal.

A Era do Microprocessador

Os microprocessadores Intel 8008 (1972) e Intel 8080 (1974) — precursores do PC moderno — eram processadores de 8 bits que processavam um byte por vez. O Intel 8086 (1978) expandiu para processamento de 16 bits (2 bytes por vez), e gerações subsequentes passaram para 32 bits (4 bytes) e 64 bits (8 bytes). Ao longo dessa evolução, o byte permaneceu a unidade fundamental de endereçamento e armazenamento de dados.

Significado Moderno

Hoje, o byte é tão fundamental que define como medimos todas as informações digitais. Os tamanhos de arquivos são expressos em bytes e seus múltiplos. A largura de banda da rede é medida em bits por segundo, mas os volumes de dados são medidos em bytes. As capacidades de armazenamento — de drives USB a centros de dados em nuvem — são especificadas em bytes. O byte é, sem dúvida, a unidade de medida mais importante na era da informação.

Uso atual

Na Memória do Computador

Cada pedaço de dados em um computador é, em última análise, armazenado como bytes. Um único caractere ASCII ocupa 1 byte, um caractere Unicode (UTF-8) ocupa 1-4 bytes, um inteiro geralmente ocupa 4 ou 8 bytes, e um número de ponto flutuante ocupa 4 ou 8 bytes. A RAM (Memória de Acesso Aleatório) é medida em gigabytes — um computador moderno típico tem 8-64 GB de RAM, o que significa de 8 a 64 bilhões de bytes de memória de trabalho.

Nos Tamanhos de Arquivo

Sistemas operacionais relatam tamanhos de arquivos em bytes e seus múltiplos. Um e-mail em texto simples pode ter de 2-5 KB (2.000-5.000 bytes). Uma fotografia de alta resolução pode ter de 3-8 MB (3-8 milhões de bytes). Um arquivo de filme de longa-metragem pode ter de 1-5 GB (1-5 bilhões de bytes). Uma instalação completa de sistema operacional pode ocupar de 20-50 GB. Essas medições cotidianas são todas expressas em múltiplos do humilde byte.

Na Transmissão de Dados

Embora as velocidades de rede sejam tipicamente medidas em bits por segundo (Mbps, Gbps), os volumes de dados transferidos são medidos em bytes. Um provedor de serviços de internet pode oferecer um limite de dados mensal de 1 TB (1 trilhão de bytes). Um plano de armazenamento em nuvem pode incluir 15 GB de armazenamento gratuito. Ao baixar um arquivo, o navegador exibe o progresso em megabytes ou gigabytes.

Na Codificação de Caracteres

O papel do byte na codificação de caracteres é fundamental. ASCII (Código Padrão Americano para Troca de Informação) usa 7 bits (armazenados em 1 byte) para representar 128 caracteres. ASCII estendido usa todos os 8 bits para 256 caracteres. Unicode, que visa codificar todos os sistemas de escrita humana, usa a codificação UTF-8 onde os caracteres ocupam 1-4 bytes. A grande maioria da World Wide Web usa a codificação UTF-8, onde cada padrão de byte mapeia para um caractere específico ou parte de um caractere.

Everyday Use

Compreendendo Tamanhos de Arquivo

Todos que usam um computador ou smartphone encontram bytes diariamente, mesmo que não pensem sobre isso. Quando seu telefone diz "Foto: 3,2 MB", significa que o arquivo da foto contém aproximadamente 3,2 milhões de bytes de dados. Quando você baixa um aplicativo de 50 MB, está transferindo 50 milhões de bytes pela rede. Quando seu anexo de e-mail é rejeitado porque excede 25 MB, você precisa reduzir o arquivo abaixo de 25 milhões de bytes.

Compras de Armazenamento

Ao comprar dispositivos de armazenamento — drives USB, cartões SD, discos rígidos externos ou planos de armazenamento em nuvem — bytes são a unidade fundamental de comparação. Um drive USB de 256 GB armazena aproximadamente 256 bilhões de bytes. Um disco rígido externo de 2 TB armazena aproximadamente 2 trilhões de bytes. Compreender a escala do byte ajuda os consumidores a tomar decisões de compra informadas.

Texto e Caracteres

Em texto em inglês cotidiano, cada caractere ocupa aproximadamente 1 byte (em ASCII ou UTF-8 para caracteres latinos básicos). Uma página típica de texto contém cerca de 2.000-3.000 caracteres, ou aproximadamente 2-3 KB. Um romance de 300 páginas contém cerca de 500.000-750.000 caracteres, ou cerca de 500-750 KB de texto simples. Emojis e caracteres não latinos podem ocupar 2-4 bytes cada em UTF-8.

Música, Fotos e Vídeo

Um arquivo de música MP3 típico tem de 3-5 MB (3-5 milhões de bytes). Uma foto JPEG de alta resolução tem de 3-8 MB. Um minuto de vídeo em 1080p é aproximadamente 100-150 MB. Um filme completo em resolução 4K pode exceder 50 GB (50 bilhões de bytes). Essas referências práticas ajudam as pessoas a estimar necessidades de armazenamento e tempos de download.

Interesting Facts

1

The word 'byte' was deliberately misspelled from 'bite' by Werner Buchholz in 1956 to prevent confusion with 'bit' in IBM technical documents. This intentional misspelling became one of the most widely used words in technology.

2

A single byte can represent any number from 0 to 255, any of 256 colors in basic graphics, or any single ASCII character. This versatility is why the byte became the universal building block of digital data.

3

The entire text of the King James Bible contains approximately 4.5 million characters — about 4.5 MB. By contrast, a single uncompressed 4K photograph can exceed 24 MB, meaning one photo contains more bytes than the complete Bible.

4

In 2024, humanity generates approximately 120 zettabytes (120 × 10²¹ bytes) of data annually — roughly 120 billion terabytes. This number doubles approximately every two years.

5

The original IBM PC (1981) came with either 16 KB or 64 KB of RAM. A modern smartphone with 8 GB of RAM has roughly 125,000 to 500,000 times more memory than the first PC.

6

A byte is sometimes humorously called an 'octet' in networking terminology because some historical systems used bytes of sizes other than 8 bits. The term 'octet' removes all ambiguity by explicitly meaning exactly 8 bits.

7

The first commercially available hard disk drive, the IBM 350 (1956), stored 5 million bytes (5 MB) and was the size of two refrigerators. A modern microSD card the size of a fingernail stores 1 TB — 200,000 times more data.

8

If you printed every byte generated by humanity in 2023 as a single character on paper, the stack of pages would reach from Earth to the Sun and back more than a thousand times.

Conversion Table

UnitValue
Kilobyte (KB)0,001BKB
Megabyte (MB)0,000001BMB
Gigabyte (GB)0BGB
Terabyte (TB)0BTB
Bit (bit)8Bbit

Frequently Asked Questions

How many bits are in a byte?
There are 8 bits in one byte in virtually all modern computing systems. A bit is a single binary digit (0 or 1), and 8 bits grouped together form a byte that can represent 256 different values (2⁸ = 256). This 8-bit standard was established by IBM's System/360 architecture in 1964.
What is the difference between a byte and a bit?
A bit is the smallest unit of digital information — a single 0 or 1. A byte is a group of 8 bits. Bytes are used to measure file sizes and storage capacity (KB, MB, GB), while bits per second (bps) are used to measure data transmission speeds. To convert bytes to bits, multiply by 8; to convert bits to bytes, divide by 8.
How many bytes are in a kilobyte?
In the decimal (SI) definition, 1 kilobyte = 1,000 bytes. In the binary (IEC) definition, 1 kibibyte (KiB) = 1,024 bytes. The decimal definition is used by storage manufacturers and the SI system, while the binary definition is used internally by operating systems. This discrepancy is why a '256 GB' drive shows less space in your operating system.
Why does my hard drive show less space than advertised?
Storage manufacturers use the decimal definition: 1 GB = 1,000,000,000 bytes. Operating systems use the binary definition: 1 GB = 1,073,741,824 bytes. A '500 GB' drive has 500,000,000,000 bytes, which the OS reports as about 465 GiB (binary gigabytes). The drive has exactly the advertised number of bytes; the difference is purely a labeling convention.
What can one byte store?
One byte can store a single ASCII character (letter, digit, or symbol), a number from 0 to 255, one of 256 shades of gray in an image, or one color channel value in a digital photo. It can also represent one of 256 possible instruction codes in simple processors.
Why was 8 bits chosen for a byte?
Eight bits was chosen because: (1) 8 is a power of 2 (2³), which aligns with binary computing architecture; (2) 256 values (2⁸) are enough to represent all commonly needed characters, including uppercase and lowercase letters, digits, and symbols; (3) 8 allows efficient packing of two 4-bit 'nibbles' per byte, useful for hexadecimal representation.
What is the difference between uppercase B and lowercase b?
Uppercase B stands for byte (8 bits), while lowercase b stands for bit. This distinction is important: an internet speed of 100 Mbps (megabits per second) is 12.5 MB/s (megabytes per second). Storage is measured in bytes (KB, MB, GB), while network speeds are measured in bits per second (Kbps, Mbps, Gbps).
How many bytes is a typical text message?
A standard SMS text message can contain up to 160 characters in the GSM 7-bit encoding, which equals about 140 bytes. A typical short text message (50-100 characters) is roughly 50-100 bytes in ASCII. Messages with emojis or non-Latin characters can be larger because these characters require 2-4 bytes each in UTF-8 encoding.