Byte
Symbol: BWorldwide
O que é um/uma Byte (B)?
Definição Formal
O byte (símbolo: B) é uma unidade de informação digital que consiste mais comumente em 8 bits. Um bit (dígito binário) é a unidade fundamental de informação em computação, representando um único valor binário de 0 ou 1. Um byte de 8 bits pode representar 2⁸ = 256 valores distintos, variando de 0 a 255 em representação não assinada ou -128 a 127 em representação assinada.
O byte é a unidade endereçável básica de memória em praticamente todas as arquiteturas de computador modernas. Quando um processador lê dados da memória ou grava dados na memória, ele normalmente opera em bytes ou grupos de bytes (palavras). Cada byte na memória de um computador tem um endereço único, e o número total de bytes endereçáveis define a capacidade de memória do sistema.
Relação com Outras Unidades de Dados
Um byte equivale a 8 bits. No sistema de prefixos decimal (SI): 1 kilobyte (KB) = 1.000 bytes, 1 megabyte (MB) = 1.000.000 bytes, 1 gigabyte (GB) = 10⁹ bytes, e 1 terabyte (TB) = 10¹² bytes. No sistema de prefixos binários (padrão IEC): 1 kibibyte (KiB) = 1.024 bytes, 1 mebibyte (MiB) = 1.048.576 bytes, 1 gibibyte (GiB) = 1.073.741.824 bytes. A ambiguidade entre as interpretações decimal e binária de prefixos como "quilo", "mega" e "giga" tem sido uma fonte persistente de confusão na computação.
Etymology
Origem da Palavra
A palavra "byte" foi criada por Werner Buchholz em 1956 durante o design do computador IBM Stretch (IBM 7030). Buchholz escolheu deliberadamente a grafia "byte" em vez de "bite" para evitar confusão acidental com "bit" na documentação escrita. A palavra "bite" era o conceito original — um pequeno pedaço de dados que um computador poderia "morder" e processar — mas a grafia alterada evitou erros tipográficos que poderiam mudar o significado das especificações técnicas.
O projeto IBM Stretch exigia um termo para um grupo de bits que pudesse representar um único caractere. Enquanto o computador Stretch usava bytes de comprimento variável (originalmente 1-8 bits), a arquitetura System/360, introduzida pela IBM em 1964, padronizou o byte em 8 bits. Este byte de 8 bits tornou-se o padrão universal porque poderia representar todas as letras maiúsculas e minúsculas, dígitos, sinais de pontuação e caracteres de controle necessários para o processamento de texto.
O Padrão de 8 Bits
A escolha de 8 bits por byte não era inevitável. Os primeiros computadores usavam várias agrupamentos: bytes de 6 bits (permitindo 64 caracteres, suficiente para letras maiúsculas, dígitos e alguns símbolos), bytes de 7 bits (como no padrão ASCII, permitindo 128 caracteres) e bytes de 9 bits (usados em algumas arquiteturas de mainframe para detecção de erros). O byte de 8 bits prevaleceu porque 8 é uma potência de 2 (2³ = 8), fornece 256 valores (suficientes para conjuntos de caracteres estendidos) e permite aritmética binária eficiente.
História
O Amanhã da Computação Digital
Nos primeiros computadores digitais das décadas de 1940 e 1950, os dados eram organizados em palavras de máquina em vez de bytes. O ENIAC (1945) processava dados em números decimais de 10 dígitos. O Manchester Baby (1948) usava palavras de 32 bits. O UNIVAC I (1951) usava palavras de 12 caracteres de 6 bits cada. O conceito de um byte — um grupo fixo de bits representando um único caractere — ainda não existia.
IBM e o Nascimento do Byte
Werner Buchholz cunhou "byte" em 1956 para o projeto IBM Stretch. Inicialmente, o tamanho do byte não era fixo — a arquitetura Stretch suportava campos de dados de comprimento variável. O momento decisivo veio com o System/360 da IBM, anunciado em 1964. Esta revolucionária família de computadores padronizou o byte em 8 bits e tornou a memória endereçável por byte a norma. O System/360 usou EBCDIC (Extended Binary Coded Decimal Interchange Code), uma codificação de caracteres de 8 bits, que exigia um byte de 8 bits.
O enorme sucesso comercial do System/360 — que se tornou a arquitetura de mainframe dominante por décadas — estabeleceu o byte de 8 bits como o padrão da indústria. Arquiteturas concorrentes gradualmente adotaram bytes de 8 bits para compatibilidade, e na década de 1970, o byte de 8 bits era quase universal.
A Era do Microprocessador
Os microprocessadores Intel 8008 (1972) e Intel 8080 (1974) — precursores do PC moderno — eram processadores de 8 bits que processavam um byte por vez. O Intel 8086 (1978) expandiu para processamento de 16 bits (2 bytes por vez), e gerações subsequentes passaram para 32 bits (4 bytes) e 64 bits (8 bytes). Ao longo dessa evolução, o byte permaneceu a unidade fundamental de endereçamento e armazenamento de dados.
Significado Moderno
Hoje, o byte é tão fundamental que define como medimos todas as informações digitais. Os tamanhos de arquivos são expressos em bytes e seus múltiplos. A largura de banda da rede é medida em bits por segundo, mas os volumes de dados são medidos em bytes. As capacidades de armazenamento — de drives USB a centros de dados em nuvem — são especificadas em bytes. O byte é, sem dúvida, a unidade de medida mais importante na era da informação.
Uso atual
Na Memória do Computador
Cada pedaço de dados em um computador é, em última análise, armazenado como bytes. Um único caractere ASCII ocupa 1 byte, um caractere Unicode (UTF-8) ocupa 1-4 bytes, um inteiro geralmente ocupa 4 ou 8 bytes, e um número de ponto flutuante ocupa 4 ou 8 bytes. A RAM (Memória de Acesso Aleatório) é medida em gigabytes — um computador moderno típico tem 8-64 GB de RAM, o que significa de 8 a 64 bilhões de bytes de memória de trabalho.
Nos Tamanhos de Arquivo
Sistemas operacionais relatam tamanhos de arquivos em bytes e seus múltiplos. Um e-mail em texto simples pode ter de 2-5 KB (2.000-5.000 bytes). Uma fotografia de alta resolução pode ter de 3-8 MB (3-8 milhões de bytes). Um arquivo de filme de longa-metragem pode ter de 1-5 GB (1-5 bilhões de bytes). Uma instalação completa de sistema operacional pode ocupar de 20-50 GB. Essas medições cotidianas são todas expressas em múltiplos do humilde byte.
Na Transmissão de Dados
Embora as velocidades de rede sejam tipicamente medidas em bits por segundo (Mbps, Gbps), os volumes de dados transferidos são medidos em bytes. Um provedor de serviços de internet pode oferecer um limite de dados mensal de 1 TB (1 trilhão de bytes). Um plano de armazenamento em nuvem pode incluir 15 GB de armazenamento gratuito. Ao baixar um arquivo, o navegador exibe o progresso em megabytes ou gigabytes.
Na Codificação de Caracteres
O papel do byte na codificação de caracteres é fundamental. ASCII (Código Padrão Americano para Troca de Informação) usa 7 bits (armazenados em 1 byte) para representar 128 caracteres. ASCII estendido usa todos os 8 bits para 256 caracteres. Unicode, que visa codificar todos os sistemas de escrita humana, usa a codificação UTF-8 onde os caracteres ocupam 1-4 bytes. A grande maioria da World Wide Web usa a codificação UTF-8, onde cada padrão de byte mapeia para um caractere específico ou parte de um caractere.
Everyday Use
Compreendendo Tamanhos de Arquivo
Todos que usam um computador ou smartphone encontram bytes diariamente, mesmo que não pensem sobre isso. Quando seu telefone diz "Foto: 3,2 MB", significa que o arquivo da foto contém aproximadamente 3,2 milhões de bytes de dados. Quando você baixa um aplicativo de 50 MB, está transferindo 50 milhões de bytes pela rede. Quando seu anexo de e-mail é rejeitado porque excede 25 MB, você precisa reduzir o arquivo abaixo de 25 milhões de bytes.
Compras de Armazenamento
Ao comprar dispositivos de armazenamento — drives USB, cartões SD, discos rígidos externos ou planos de armazenamento em nuvem — bytes são a unidade fundamental de comparação. Um drive USB de 256 GB armazena aproximadamente 256 bilhões de bytes. Um disco rígido externo de 2 TB armazena aproximadamente 2 trilhões de bytes. Compreender a escala do byte ajuda os consumidores a tomar decisões de compra informadas.
Texto e Caracteres
Em texto em inglês cotidiano, cada caractere ocupa aproximadamente 1 byte (em ASCII ou UTF-8 para caracteres latinos básicos). Uma página típica de texto contém cerca de 2.000-3.000 caracteres, ou aproximadamente 2-3 KB. Um romance de 300 páginas contém cerca de 500.000-750.000 caracteres, ou cerca de 500-750 KB de texto simples. Emojis e caracteres não latinos podem ocupar 2-4 bytes cada em UTF-8.
Música, Fotos e Vídeo
Um arquivo de música MP3 típico tem de 3-5 MB (3-5 milhões de bytes). Uma foto JPEG de alta resolução tem de 3-8 MB. Um minuto de vídeo em 1080p é aproximadamente 100-150 MB. Um filme completo em resolução 4K pode exceder 50 GB (50 bilhões de bytes). Essas referências práticas ajudam as pessoas a estimar necessidades de armazenamento e tempos de download.
Interesting Facts
The word 'byte' was deliberately misspelled from 'bite' by Werner Buchholz in 1956 to prevent confusion with 'bit' in IBM technical documents. This intentional misspelling became one of the most widely used words in technology.
A single byte can represent any number from 0 to 255, any of 256 colors in basic graphics, or any single ASCII character. This versatility is why the byte became the universal building block of digital data.
The entire text of the King James Bible contains approximately 4.5 million characters — about 4.5 MB. By contrast, a single uncompressed 4K photograph can exceed 24 MB, meaning one photo contains more bytes than the complete Bible.
In 2024, humanity generates approximately 120 zettabytes (120 × 10²¹ bytes) of data annually — roughly 120 billion terabytes. This number doubles approximately every two years.
The original IBM PC (1981) came with either 16 KB or 64 KB of RAM. A modern smartphone with 8 GB of RAM has roughly 125,000 to 500,000 times more memory than the first PC.
A byte is sometimes humorously called an 'octet' in networking terminology because some historical systems used bytes of sizes other than 8 bits. The term 'octet' removes all ambiguity by explicitly meaning exactly 8 bits.
The first commercially available hard disk drive, the IBM 350 (1956), stored 5 million bytes (5 MB) and was the size of two refrigerators. A modern microSD card the size of a fingernail stores 1 TB — 200,000 times more data.
If you printed every byte generated by humanity in 2023 as a single character on paper, the stack of pages would reach from Earth to the Sun and back more than a thousand times.