DICCIONARIO DE INFORMÁTICA Y TECNOLOGÍA
  ¿Qué significa Compresión Huffman? - Información sobre Compresión Huffman

Definición de Compresión Huffman

Leandro Alegsa (Contacto) 05-12-2010

Envíanos un mensaje


Enviar
Anuncios

Algoritmo para la compresión de archivos sin pérdida de datos desarrollado por David Huffman. Para la compresión se basa en la frecuencia de ocurrencia de un símbolo en un archivo que será comprimido. El algoritmo Huffman está basado en codificación estadística, lo que significa que la probabilidad de un símbolo tiene una directa relación con el tamaño de su representación. Hay mayor probabilidad de ocurrencia de un símbolo, mientras más corto sea el tamaño de su representación en bits.

En cualquier fichero, ciertos caracteres son usados más que otros. Usando representación binaria, el número de bits requeridos para representar cada caracter depende del número de caracteres que tienen que ser representados. Por ejemplo, si se usa un bit, significa que pueden representarse como máximo dos caracteres (0 un caracter, y 1 el otro). Si se usan dos bits significa que pueden representarse cuatro caracteres (00, 01, 10, 11, cada uno representa un caracter), y así sucesivamente.

La compresión Huffman es un sistema de longitud variable que asigna los códigos más pequeños a aquellos caracteres más frecuentemente usados y los códigos más largos a aquellos menos frecuentes. Esto sirve para reducir el tamaño de los archivos.

Veamos un ejemplo. Supongamos que en un archivo de datos se tiene la siguiente información: AAAAAABBBBCC. Donde A tiene una frecuencia de 6, B de 4 y C de 2. Cada caracter es representado usando una longitud fija de códigos de dos bits, entonces el número de bits requeridos para almacenar el archivo sería 24, por ejemplo (2 bits x 6) + (2 bits x 4) + (2 bits x 2) = 24 bits.

Si esa información es comprimida usando compresión Huffman, el caracter más frecuente debería ser representado por los bits más pequeños como sigue:

A por el código 0 (1 bit)
B por el código 10 (2 bits)
C por el código 11 (2 bits)
Por lo tanto el tamaño del archivo pasará a ser de 18, (1 bit x 6) + (2 bits x 4) + (2 bits x 2) = 18 bits

O sea: 000000101010101111

En el ejemplo anterior, los caracteres que se repetían más frecuentemente son asignados al código más pequeño, resultando en un menor número de bits en el archivo final comprimido.





¿Mejoramos la definición?
Puntos: 0 (0 votos)






Respondemos tus consultas o comentarios a continuación:


¿Dudas? ¿necesita más información? Escriba y responderemos a tu email: clic aquí



 




  Diccionario de informática
  Búsqueda por letras:

A - B - C - D - E - F - G - H - I - J - K - L - M - N - O - P - Q - R - S - T - U - V - W - X - Y - Z - 0,9
 
Búsqueda por categorías
:

Almacenamiento - Aplicaciones - Audio - Compresión - Desarrollo web - Discos ópticos - Inteligencia Artificial - Memorias - Microprocesadores - Seguridad informática - Sistemas de archivos - Terminología de programación - UNIX - Windows - ver categorías

 
Búsqueda por palabras:






Preguntas

No hay ningún comentario todavía

Todos los derechos reservados © 1998 - 2017 - ALEGSA - Santa Fe, Argentina.
Políticas del sitio web - Contacto - Publicidad