ALEGSA.com.ar

Definición de código binario

Significado de código binario: Un código binario representa texto o instrucciones de procesador de computadora usando el sistema de números binarios de dos dígitos: 0 y 1. Un ...
09-07-2023 00:00

 


Definición de código binario

 

Un código binario representa texto o instrucciones de procesador de computadora usando el sistema de números binarios de dos dígitos: 0 y 1. Un código binario asigna una cadena de bits a cada símbolo (caracter) o a cada instrucción, respectivamente.

Por ejemplo, un código binario de 8 bits puede representar hasta 256 valores y hacerles corresponder a cada valor diferentes símbolos, caracteres o instrucciones.

Por ejemplo, la cadena de bits 01100001, de acuerdo al código ASCII, equivale a la letra "a" y puede ser también representada por el decimal 97.

A continuación una lista de algunos códigos binarios que se usan o han sido usados para representar texto empleando una secuencia de dígitos binarios "0" y "1" (bits).

Usualmente los códigos binarios utilizan un número fijo de bits para representar cada caracter de texto, pero también existen códigos binarios que emplean un número variable de bits; esto significa que el número de bits varía de caracter a caracter.

Además del sistema de números binarios, también existen otros sistemas de representación de texto, como el sistema de números decimales o el sistema de números hexadecimales. Cada uno de estos sistemas utiliza una base numérica diferente y tiene sus propias reglas de conversión.

En el caso de los códigos binarios, es importante destacar que cada combinación de bits puede representar un único símbolo o instrucción. Estos códigos son utilizados tanto en la transmisión de datos como en el almacenamiento de información en dispositivos electrónicos.

La codificación binaria es ampliamente utilizada en el ámbito de la informática y las comunicaciones, ya que permite una representación eficiente de los caracteres y las instrucciones. Además, los códigos binarios pueden ser procesados de manera más rápida y sencilla por los procesadores de las computadoras.

A medida que avanza la tecnología, se han desarrollado nuevos códigos binarios más complejos que permiten una mayor cantidad de símbolos o instrucciones a representar. Estos códigos también pueden adaptarse a necesidades específicas, como la transmisión de caracteres en diferentes idiomas o la representación de caracteres especiales.

En resumen, los códigos binarios son una parte fundamental del funcionamiento de las computadoras y las comunicaciones digitales. Permiten la representación eficiente de texto e instrucciones mediante una secuencia de dígitos binarios, lo que facilita su procesamiento y transmisión.


Códigos binarios de 5 bits



Eran empleados en los primeros sistemas de cintas perforadas, ya en desuso.

Cinco bits por caracter sólo permiten 32 diferentes caracteres de texto, por lo que muchos de estos códigos utilizan dos conjuntos de caracteres por valor conocidos como FIGS (figuras) y LTRS (letras), y reservando dos caracteres para cambiar entre estos dos conjuntos. Esto, en la práctica, permitía el uso de hasta 60 caracteres.

Algunos códigos binarios de 5 bits:

- J. Lyons and Co. LEO (Lyon s Electronic Office)

- English Electric DEUCE

- ILLIAC (University of Illinois at Urbana-Champaign)

- ZEBRA

- EMI 1100

- Sistemas Ferranti Mercury, Pegasus y Orion.

- Alfabeto Internacional de Telegrafía Nº 1 (International Telegraph Alphabet No 1 - ITA1), conocido también como código Baudot.

- Alfabeto Internacional de Telegrafía Nº 2 (International Telegraph Alphabet No 2 - ITA2), conocido como código Murray.

- American Teletypewriter code (USTTY), variante del ITA2 usado en EEUU.

- DIN 66006, desarrollado para la presentación de programas ALGOL/ALCOR en tarjetas perforadas.



Códigos binarios de 6 bits



Seis bits por caracter permite representar hasta 64 caracteres distintos.

- International Telegraph Alphabet No 4 (ITA4)

- BCD de seis bits, usado en las primeras computadoras mainframe.

- ASCII de seis bits, un subconjunto de primitivas del ASCII de siete bits.

- Braille: los caracteres braille (para no videntes) emplean seis posiciones de puntos ubicados en un rectángulo imaginario. Cada posición puede contener un punto o no, por lo que el Braille puede considerarse un código binario de seis bits.



Códigos binarios de 7 bits



- International Telegraph Alphabet No 3 (ITA3), derivado del código Moore ARQ, también conocido como RCA.

- ASCII, el código ASCII fue originalmente definido en siete bits. Hay varias extensiones de ASCII de ocho bits.

- CCIR 476, extensión del ITA2 de 5 a 7 bits, empleando los dos bits extras como dígitos de control.

- International Telegraph Alphabet No 4 (ITA4).



Códigos binarios de 8 bits



- Extended ASCII, varios estándares extienden el ASCII a 8 bits permitiendo 128 caracteres más. Por ejemplo el ISO/IEC 8859.

- Mac OS Roman

- Windows-1252

- EBCDIC, empleado en las primeras computadoras IBM y actualmente en computadoras System i y System z.



Códigos binarios de 10, 16 y 32 bits



- AUTOSPEC, también conocido como código Bauer. De 10 bits.

- UCS-2, de 16 bits.

- UTF-32/UCS-4, de 32 bits. Representación de Unicode empleando 4 bytes por caracter.



Códigos binarios de bits variables



- UTF-8, codifica caracteres en una forma mayormente compatible con ASCII pero a su vez puede codificar todo el repertorio de los caracteres Unicode con secuencias de hasta cuatro bytes de 8 bits.

- UTF-16, extiende el UCS-2 para cubrir todo Unicode con secuencias de uno o dos elementos de 16 bits.

- GB 18030, código diseñado para compatibilidad de caracteres chinos.

- Codificación Huffman, técnica que usa un método específico para elegir la representación de cada símbolo, que da lugar a un código prefijo que representa los caracteres más comunes usando las cadenas de bits más cortas, y viceversa.


Resumen: código binario



Un código binario usa 0 y 1 para representar texto o instrucciones de computadora. Cada símbolo o instrucción tiene asignada una cadena de bits. Un ejemplo es el código ASCII, donde la cadena 01100001 representa la letra "a". Hay códigos fijos y variables en el número de bits por caracter.



¿Qué es un código binario?



El código binario es un sistema de representación de datos o instrucciones que utiliza solo dos dígitos: 0 y 1. Cada dígito binario se llama bit y puede representar un símbolo o una instrucción en un procesador de computadora.


¿Cómo funciona el sistema binario?



En el sistema binario, cada dígito tiene un valor distinto dependiendo de su posición. Por ejemplo, el número binario 1010 representa el número decimal 10. Cada posición en el número binario tiene un valor que es una potencia de 2, y se suma el valor de cada posición ocupada por un 1.


¿Cómo se representa el texto en código binario?



Para representar texto en código binario, se utiliza un estándar de codificación como ASCII o UTF-8. Cada carácter en texto se asigna a una cadena de bits específica. Por ejemplo, el carácter 'A' se puede representar como 01000001 en código binario.


¿Cuál es la importancia del código binario en las computadoras?



El código binario es fundamental para el funcionamiento de las computadoras ya que todas sus operaciones se realizan en base a la manipulación de bits. Los procesadores, la memoria y los dispositivos de almacenamiento utilizan el código binario para representar y procesar datos e instrucciones.


¿Puede el código binario representar cualquier tipo de información?



Sí, el código binario puede representar cualquier tipo de información ya que se puede asignar una cadena de bits a cada símbolo o instrucción. Esto incluye tanto caracteres de texto como números, imágenes, sonidos y cualquier otro tipo de datos que se desee almacenar o procesar en una computadora.


¿Cuál es la relación entre el código binario y los lenguajes de programación?



Los lenguajes de programación son utilizados para escribir instrucciones en un formato más comprensible para los programadores. Estas instrucciones son luego traducidas a código binario por el compilador o interpretador correspondiente. El código binario es el lenguaje que realmente entiende el procesador de la computadora y ejecuta las instrucciones escritas en el lenguaje de programación.





Autor: Leandro Alegsa
Actualizado: 09-07-2023

¿Cómo citar este artículo?

Alegsa, Leandro. (2023). Definición de código binario. Recuperado de https://www.alegsa.com.ar/Dic/codigo_binario.php

Diccionario informático



 


articulos
Asistente IA
Escribe tu consulta sobre informática y tecnologías al asistente de Inteligencia Artificial
¡te responderá en segundos!




* ACLARACIÓN: el asistente ha sido entrenado para responder tus dudas con muy buenos resultados, pero puede equivocarse, esta tecnología aún está en desarrollo. Te sugiero dejar tu email para que te contactemos para corregir la respuesta de la IA: leemos todas las consultas y respuestas.


Comentarios relacionados

  • ¿Sabe cómo se llama el sistema de numeración que utilizamos para entendernos con la computadora?

    Sí el sistema de numeración que utilizamos para entendernos con la computadora es el sistema binario. Este sistema utiliza solo dos dígitos, 0 y 1, para representar toda la información en las computadoras. Cada dígito en el sistema binario se conoce como un bit, y es la base fundamental para el funcionamiento de los sistemas de cómputo modernos.
Usa nuestro buscador para definiciones, informática y tecnologías