DICCIONARIO DE INFORMÁTICA Y TECNOLOGÍA
  ¿Qué significa mito de los megahercios? - Información sobre mito de los megahercios

Definición de mito de los megahercios

Leandro Alegsa (Contacto) 2019-06-03

Envíanos un mensaje


Enviar
Anuncios

El mito del megahercio, o menos comúnmente el mito del gigahercio, se refiere a la idea errónea de usar sólo la velocidad del reloj (por ejemplo, medida en megahercios o gigahercios) para comparar el rendimiento de diferentes microprocesadores. Mientras que las velocidades de reloj son una forma válida de comparar el rendimiento de diferentes velocidades del mismo modelo y tipo de procesador, otros factores como la cantidad de unidades de ejecución, la profundidad de la tubería, la jerarquía de la caché, la predicción de ramas y los conjuntos de instrucciones pueden afectar en gran medida al rendimiento al considerar diferentes procesadores.

Por ejemplo, un procesador puede necesitar dos ciclos de reloj para sumar dos números y otro ciclo de reloj para multiplicar por un tercer número, mientras que otro procesador puede hacer el mismo cálculo en dos ciclos de reloj. Las comparaciones entre los diferentes tipos de procesadores son difíciles porque el rendimiento varía dependiendo del tipo de tarea. Un punto de referencia (en inglés benchmark) es una forma más completa de medir y comparar el rendimiento del ordenador.

El mito comenzó alrededor de 1984 al comparar el Apple II con el IBM PC. El argumento era que el PC era cinco veces más rápido que el Apple II, ya que su procesador Intel 8088 tenía una velocidad de reloj de aproximadamente 4,7 veces la velocidad de reloj del MOS Technology 6502 utilizado en el Apple. Sin embargo, lo que realmente importa no es cuán finamente divididas están las instrucciones de una máquina, sino cuánto tiempo se tarda en completar una tarea determinada.

Considere la instrucción LDA # (Load Accumulator Immediate). En un 6502 esa instrucción requiere dos ciclos de reloj, o 2 μs a 1 MHz. Aunque los ciclos de reloj del 8088 de 4.77 MHz son más cortos, el LDA # necesita al menos 4 de ellos, por lo que necesita 4 / 4.77 MHz = 0.84 μs al menos. Así que, en el mejor de los casos, esa instrucción se ejecuta sólo un poco más de 2 veces más rápido en el PC IBM original que en el Apple II.

Microprocesador Intel.
Microprocesador Intel.


Historia del mito

La arquitectura de CPU basada en x86 CISC que Intel introdujo en 1978 se utilizó como estándar para el PC IBM basado en DOS, y sus desarrollos siguen dominando el mercado de Microsoft Windows. Se utilizó una arquitectura basada en IBM RISC para la CPU de PowerPC que fue lanzada en 1992. En 1994 Apple Computer introdujo los ordenadores Macintosh que utilizan estas CPUs PowerPC. Inicialmente, esta arquitectura cumplió con las expectativas de rendimiento, y se desarrollaron diferentes gamas de CPUs PowerPC, que a menudo ofrecían diferentes rendimientos a la misma velocidad de reloj. Del mismo modo, en ese momento el Intel 80486 se vendía junto con el Pentium, que ofrecía casi el doble de rendimiento que el 80486 a la misma velocidad de reloj.

El surgimiento del mito

El mito surgió porque la velocidad del reloj se tomaba comúnmente como una simple medida del rendimiento del procesador, y fue promovido en la publicidad y por los entusiastas sin tener en cuenta otros factores. El término se utilizó en el contexto de la comparación de ordenadores Apple Macintosh basados en PowerPC con ordenadores basados en Intel. El marketing basado en el mito llevó a que se diera mayor prioridad a la velocidad del reloj que al rendimiento real, y a que AMD introdujera números de modelo que dieran una velocidad de reloj teórica basada en el rendimiento comparativo para superar una deficiencia percibida en su velocidad de reloj real.

Adaptaciones modernas del mito

Con la llegada de los procesadores multihilo y multinúcleo, el mito ha suscitado más ideas erróneas sobre la medición del rendimiento en los procesadores multinúcleo. Mucha gente cree que un procesador de cuatro núcleos que funcione a 3 GHz resultaría en un rendimiento general de 12 GHz de CPU. Otros pueden decir que el rendimiento general es de hecho de 3 GHz, con cada núcleo funcionando a 750 MHz. Ambas ideas son incorrectas. A menudo el mismo usuario que hace estas comparaciones estará comparando múltiples marcas de CPU, las cuales no harán la misma cantidad de trabajo por ciclo en cualquier caso. Mientras que los rasgos de microarquitectura como la profundidad de la tubería juegan el mismo papel en el rendimiento, el diseño del procesamiento paralelo aporta otro factor a la imagen: la eficiencia del software.

Es cierto que un programa mal escrito se ejecutará mal incluso en un sistema de un solo núcleo, pero incluso un programa bien escrito que fue diseñado de forma lineal, a menudo (si no siempre) funcionará mejor en un sistema de un solo núcleo que en uno de varios núcleos cuando se ejecuta por sí solo. El rendimiento general de un sistema no puede juzgarse simplemente comparando la cantidad de núcleos de procesador y las velocidades de reloj, el software que se ejecuta en el sistema es también un factor importante de la velocidad observada. El mito de la importancia de la velocidad del reloj ha confundido a muchas personas en cuanto a cómo juzgan la velocidad de un sistema informático.

Desafíos al mito

Las comparaciones entre PowerPC y Pentium se habían convertido en un elemento básico de las presentaciones de Apple. En la conferencia magistral de la New York City Macworld Expo el 18 de julio de 2001, Steve Jobs describió un G4 de 867 MHz como una tarea que se completaba en 45 segundos, mientras que un Pentium 4 de 1,7 GHz tardaba 82 segundos en la misma tarea, diciendo que "el nombre que le hemos dado es el mito de los mitos de los megahercios". Luego introdujo al VP de hardware senior, Jon Rubinstein, quien impartió un tutorial en el que describió cómo las tuberías más cortas ofrecían un mejor rendimiento a la mitad de la velocidad del reloj. La caricatura en línea Joy of Tech presentó posteriormente una serie de caricaturas inspiradas en el tutorial de Rubinstein.


Intel alcanza su propio límite de velocidad

Desde aproximadamente 1995 a 2005, Intel anunció sus procesadores principales Pentium principalmente sobre la base de la velocidad del reloj solamente, en comparación con productos de la competencia como los de AMD. Los artículos de prensa predijeron que los procesadores de computadoras podrían funcionar a una velocidad de 10 a 20 gigahercios en las próximas décadas.

Esto continuó hasta el año 2005, cuando el Pentium Extreme Edition alcanzó los límites de disipación térmica a velocidades de casi 4 gigahercios. El procesador no podía ir más rápido sin requerir cambios complejos en el diseño de enfriamiento, tales como canales de enfriamiento microfluídico incrustados dentro del propio chip para eliminar el calor rápidamente.

A esto le siguió la introducción del procesador para equipos de desktop Core 2 en 2006, que supuso un cambio importante con respecto a los anteriores procesadores Intel para equipos de desktop, lo que permitió una disminución de casi el 50% en el reloj del procesador, al tiempo que se mantenía el mismo rendimiento.

El núcleo 2 tuvo sus comienzos en el procesador móvil Pentium M, donde la eficiencia energética era más importante que la potencia bruta, e inicialmente ofrecía opciones de ahorro de energía que no estaban disponibles en el Pentium 4 y el Pentium D.


La velocidad en la actualidad

En los años posteriores a la desaparición de la microarquitectura NetBurst y sus CPUs de 3+ GHz, las velocidades de reloj del microprocesador siguieron aumentando lentamente después de haber caído inicialmente alrededor de 1 GHz. Los avances de varios años en los procesos de fabricación y gestión de la energía (específicamente, la capacidad de establecer velocidades de reloj por núcleo) permitieron alcanzar velocidades de reloj tan altas o más altas que las del antiguo NetBurst Pentium 4s y Pentium Ds, pero con una eficiencia y un rendimiento mucho mayores. A partir de 2018, muchos microprocesadores Intel son capaces de superar una velocidad de reloj base de 4 GHz (Intel Core i7-7700K e i3-7350K tienen una velocidad de reloj base de 4,20 GHz, por ejemplo).

En 2011, AMD fue capaz de romper la barrera de 4 GHz para los microprocesadores x86 con el debut de las primeras CPU AMD FX basadas en Bulldozer. En junio de 2013, AMD lanzó el FX-9590 que puede alcanzar velocidades de hasta 5,0 GHz, pero han vuelto a surgir problemas similares con el uso de energía y la producción de calor.

Ni Intel ni AMD produjeron el primer microprocesador de la industria que rompiera las barreras de 4 GHz y 5 GHz. El IBM z10 alcanzó los 4,4 GHz en 2008, y el IBM z196 los 5,2 GHz en 2010, seguido del z12 que alcanzó los 5,5 GHz en otoño de 2012.


Terminología relacionada

Hertz

Megahertz

Velocidad del reloj

Benchmark (punto de referencia)

Rendimiento (informática)

Multinúcleo





¿Mejoramos la definición?
Puntos: 5 (1 votos)







Respondemos tus consultas o comentarios a continuación:


¿Dudas? ¿necesita más información? Escriba y responderemos a tu email: clic aquí



 




  Diccionario de informática
  Búsqueda por letras:

A - B - C - D - E - F - G - H - I - J - K - L - M - N - O - P - Q - R - S - T - U - V - W - X - Y - Z - 0,9
 
Búsqueda por categorías
:

Almacenamiento - Aplicaciones - Audio - Compresión - Desarrollo web - Discos ópticos - Inteligencia Artificial - Memorias - Microprocesadores - Seguridad informática - Sistemas de archivos - Terminología de programación - UNIX - Windows - ver categorías

 
Búsqueda por palabras:






Preguntas

No hay ningún comentario todavía

Todos los derechos reservados © 1998 - 2018 - ALEGSA - Santa Fe, Argentina.
Políticas del sitio web - Contacto - Publicidad