Definición de código binario
Código binario es un sistema de representación de información que utiliza únicamente dos símbolos: 0 y 1. Cada uno de estos símbolos se denomina bit. Un código binario asigna una secuencia de bits a cada símbolo, carácter o instrucción de una computadora.
Por ejemplo, en el código binario de 8 bits, existen 256 combinaciones posibles (2^8), lo que permite representar hasta 256 valores distintos. Así, en el estándar ASCII, la cadena de bits 01100001 representa la letra "a", y también puede interpretarse como el número decimal 97.
El código binario puede ser de longitud fija (por ejemplo, 7 u 8 bits por carácter, como en ASCII o EBCDIC) o de longitud variable (como en UTF-8 o en la codificación Huffman). Los códigos de longitud fija facilitan el procesamiento y la alineación de datos, mientras que los de longitud variable suelen ser más eficientes en términos de almacenamiento, adaptándose al uso real de los símbolos.
Existen otros sistemas de representación, como el decimal y el hexadecimal, pero el sistema binario es el más utilizado en informática porque los dispositivos electrónicos funcionan internamente con dos estados: presencia o ausencia de voltaje (1 o 0).
Ventajas del código binario:
- Simplicidad física: Es fácil de implementar en circuitos electrónicos digitales.
- Fiabilidad: Los sistemas binarios son menos susceptibles a errores causados por ruido eléctrico.
- Universalidad: Permite representar cualquier tipo de información: texto, imágenes, audio, video, instrucciones, etc.
Desventajas del código binario:
- Ineficiencia en algunos casos: Para ciertos tipos de información, el binario puede requerir más espacio que otros sistemas de codificación.
- Dificultad para el ser humano: No es fácilmente interpretable por personas sin herramientas de conversión.
Códigos binarios de 5 bits
Estos códigos se usaron en los primeros sistemas de cintas perforadas. Con solo 5 bits por carácter, es posible representar 32 símbolos, por lo que se empleaban mecanismos para alternar entre diferentes conjuntos de caracteres (como FIGS y LTRS), llegando a representar hasta 60 símbolos.
Ejemplos:
- J. Lyons and Co. LEO (Lyon’s Electronic Office)
- English Electric DEUCE
- ILLlAC
- ZEBRA
- EMI 1100
- Ferranti Mercury, Pegasus y Orion
- Alfabeto Internacional de Telegrafía Nº 1 (ITA1, Baudot)
- Alfabeto Internacional de Telegrafía Nº 2 (ITA2, Murray)
- American Teletypewriter code (USTTY)
- DIN 66006
Códigos binarios de 6 bits
Con 6 bits se pueden representar hasta 64 símbolos.
Ejemplos:
- International Telegraph Alphabet No 4 (ITA4)
- BCD de seis bits
- ASCII de seis bits (subconjunto del ASCII de siete bits)
- Braille: utiliza seis posiciones de puntos, cada uno representando un bit
Códigos binarios de 7 bits
- International Telegraph Alphabet No 3 (ITA3, RCA)
- ASCII original (7 bits)
- CCIR 476 (extensión de ITA2)
- International Telegraph Alphabet No 4 (ITA4)
Códigos binarios de 8 bits
Permiten representar 256 símbolos, facilitando la inclusión de caracteres especiales y letras de diferentes idiomas.
Ejemplos:
- Extended ASCII (ISO/IEC 8859, Windows-1252, Mac OS Roman)
- EBCDIC (usado en computadoras IBM)
Códigos binarios de 10, 16 y 32 bits
- AUTOSPEC (código Bauer, 10 bits)
- UCS-2 (16 bits)
- UTF-32/UCS-4 (32 bits): representación de Unicode con 4 bytes por carácter
Códigos binarios de bits variables
Estos códigos asignan diferentes longitudes de bits según el símbolo, optimizando el espacio.
Ejemplos:
- UTF-8: compatible con ASCII, pero puede representar todos los caracteres Unicode usando hasta 4 bytes
- UTF-16: extensión de UCS-2, usa 1 o 2 unidades de 16 bits por carácter
- GB 18030: diseñado para caracteres chinos
- Codificación Huffman: usa cadenas más cortas para símbolos frecuentes
Resumen: código binario
Un código binario utiliza 0 y 1 para representar texto, instrucciones y datos en una computadora. Cada símbolo o instrucción se asigna a una cadena de bits. Ejemplo: en ASCII, 01100001 representa la letra "a". Existen códigos de longitud fija y variable según la cantidad de bits por carácter.
¿Qué es un código binario?
Es un método de codificación que emplea únicamente dos dígitos, 0 y 1, para representar información. Cada combinación de bits puede asociarse a un símbolo, número o instrucción.
¿Cómo funciona el sistema binario?
Cada dígito binario tiene un valor según su posición, que corresponde a potencias de 2. Por ejemplo, el binario 1010 equivale al decimal 10.
¿Cómo se representa el texto en código binario?
Se utiliza una tabla de codificación (como ASCII o UTF-8) que asigna a cada carácter una secuencia de bits. Por ejemplo, 'A' es 01000001 en ASCII.
¿Cuál es la importancia del código binario en las computadoras?
El código binario es esencial porque es el lenguaje básico que entienden los procesadores, la memoria y los dispositivos de almacenamiento. Sin él, la computación digital no sería posible.
¿Puede el código binario representar cualquier tipo de información?
Sí. Cualquier tipo de dato —texto, imágenes, audio, video— puede representarse mediante cadenas de bits, siempre que se defina una codificación adecuada.
¿Cuál es la relación entre el código binario y los lenguajes de programación?
Los lenguajes de programación permiten escribir instrucciones de forma comprensible para los humanos. Un compilador o intérprete traduce esas instrucciones a código binario, que es lo que realmente ejecuta el procesador.
Comparación con otros sistemas
- Decimal: Usa diez símbolos (0-9), más natural para los humanos, pero menos eficiente en electrónica.
- Hexadecimal: Usa dieciséis símbolos (0-9, A-F), útil para representar binarios largos de forma compacta.
- Binario: Es el más simple y robusto para sistemas digitales, aunque menos legible para las personas.
Autor: Leandro Alegsa
Actualizado: 14-07-2025
¿Cómo citar este artículo?
Alegsa, Leandro. (2025). Definición de código binario. Recuperado de https://www.alegsa.com.ar/Dic/codigo_binario.php