DESDE VON NEWMAN HASTA SKYLAKE
La arquitectura de Von Neumann fue ideada por John Von Neumann en la década de los 40 para un trabajo del gobierno americano, y hoy en día sigue vigente en la mayoría de los computadores modernos. Su misión es servir un esquema de funcionamiento genérico que permitiese a un ordenador ejecutar tareas sucesivamente, sin modificar la estructura física del equipo. Según esta organización, el ordenador dispone de una lista de instrucciones que un procesador interno va descifrando y más tarde ejecutando. Una vez que ha finalizado esa ejecución se pasa al siguiente elemento de la lista, y se repite el proceso. Para ello se necesitan tres componentes básicos:
- Una unidad de proceso que incluirá ALU y unidad de control.
- Dispositivos de memoria para almacenar información, bien temporal o final.
- Periféricos de entrada/salida para comunicarse con el usuario.
¿Y cómo trabajarían estos primeros computadores? Mediante el sistema binario. Se trata de un sistema de numeración con un funcionamiento similar al decimal al que estamos acostumbrados los seres humanos, pero utilizando únicamente el 0 y el 1.
El procesador dispone de una serie de circuitos electrónicos que son utilizados por los algoritmos, ideados por el ser humano para afrontar problema.
¿Qué es, entonces, un algoritmo?
Un algoritmo es una secuencia de órdenes o instrucciones que se dictan en un cierto orden. Es necesario que cada paso esté muy bien definido y que se siga un orden estricto para que la máquina sea capaz de ejecutarlo sin problemas.
En definitiva, el procesador se encarga de recibir secuencias de órdenes y ejecutarlas. Estas órdenes serán mayoritariamente matemáticas, pero también de almacenamiento o interrupciones del sistema. Las órdenes simples y atómicas se denominan instrucciones, que son las operaciones que un procesador es capaz de entender y ejecutar. Las instrucciones son operaciones muy simples pero con las que se construye todo, y un conjunto de estas instrucciones se denomina set de instrucciones o ISA. Por ejemplo, x86 es la ISA de los procesadores Intel o AMD domésticos actuales, los cuales a su vez utilizan múltiples microarquitecturas, y ARM es la ISA de los procesadores de Samsung, Qualcomm, Apple, etc. En posteriores artículos entraremos más a fondo en los diferentes juegos de instrucciones así como en las arquitecturas más representativas del mercado actual.
¿Y qué es una micro arquitectura?
Hablar de procesadores es una introducción esencial para continuar hablando de microarquitectura.¿Qué es una microarquitectura?
Un microprocesador no es sólo un cerebro que procesa información, sino mucho más. Está compuesto de registros (pequeñas memorias donde se almacenan datos), buffers, cachés, unidades de proceso, ALU etc. Todo esto se fabrica utilizando componentes electrónicos ciertamente pequeños (las arquitecturas actuales de nuestros ordenadores utilizan transistores de 22 nanómetros, 0.000022 milímetros) y no siempre nos encontraremos con todos. Es necesaria una organización y estructuración de todos los componentes a la que se denomina micro arquitectura.
La micro arquitectura pretende organizar todos los componentes internos de un procesador.
La microarquitectura pretende organizar todos los componentes internos de un procesador.
La microarquitectura pretende organizar todos los componentes internos de un procesador. Lo que tenéis aquí arriba es un diagrama de bloques de lo que nos encontraremos dentro del procesador, en este caso concreto de un Intel Core 2 Duo. Por ejemplo, la zona amarilla es la encargada de realizar las operaciones y la verde de almacenar las siguientes instrucciones a ser ejecutadas. Como véis es algo bastante complejo, y eso que no es más que un esquema muy general.
Uno de los aspectos más interesantes es que un mismo juego de instrucciones (ISA) puede ser ejecutado sobre diferentes microarquitecturas, que es lo que da lugar a las grandes rivalidades que por ejemplo tienen Intel y AMD bajo x86, o Samsung, Apple y Qualcomm con ARM. Sobre el estado actual del mercado y las grandes guerras en lo referente a las arquitecturas hablaremos en posteriores artículos.
Los primeros procesadores
Los primeros procesadores no funcionaban con transistores si no con válvulas de vacío, y fue la Segunda Guerra Mundial la que propició que los gobiernos investigasen en máquinas que fuesen capaces de operar con información de forma muy rápida en comparación con la velocidad de cálculo humana. Uno de los primeros equipos era el ENIAC, el primero que siguió la arquitectura de Von Neumann.
- Contenía 17.488 tubos de vacío, 70.000 resistencias y 10.000 condensadores, entre otros muchos componentes.
- Su peso total era de 27 toneladas, ocupando una superficie de 167 metros cuadrados.
- Para hacerla funcionar era necesario operar 6000 interruptores… manualmente, claro.
- Requería una potencia de 160 kiloVatios.
- Permitía operar hasta 5.000 sumas y 357 multiplicaciones por segundo.
Empezó a operar en 1946 tras casi tres años de diseño, desarrollo y fabricación por parte de J. Mauchly y J. Presper Eckert en la Universidad de Pennsylvania. Cesó su labor el 2 de octubre de 1955.
Si bien esta primera generación de computadores se caracterizó por trabajar con válvulas de vacío, programarse en código máquina o, a lo sumo, ensamblador, la segunda generación de procesadores evolucionó de forma muy notable debido a la escasa fiabilidad y durabilidad de las primeras propias válvulas. Empezó la carrera de los transistores, el almacenamiento magnético (es decir, los primeros discos duros), los lenguajes de alto nivel y los primeros sistemas operativos monousuario. Por entonces IBM ya llevaba varios años dando guerra y puso en el mercado una de las máquinas más avanzadas y exclusivas de la historia en su contexto, el IBM 7090 que es considerado como el primer ordenador con CPU de transistores de la historia. Era seis veces más potente que su antecesor (el IBM 709) y costaba la mitad, así que era una inversión asegurada.
Microprocesadores Skylake
Intel lanzó a principios de mes los dos primeros procesadores de su nuevamicroarquitectura Skylake pero no dio demasiados detalles sobre la misma. Al menos no muchos más de los que ya se conocían. En pleno congreso de desarrolladores de Intel (IDF), la compañía ha dado finalmente esos detalles adicionales.
Intel ha incidido en dos aspectos fundamentales: reducción de consumo y la GPU integrada. Este segundo aspecto le puede llevar en próximos años a competir directamente con Nvidia y AMD, y quién sabe, incluso a lanzar chips gráficos dedicados, lo que pondría más presión sobre AMD. Pero esto último es pura especulación mía o algo que me gustaría que ocurriera viendo la potencia de la Iris Pro 6200.
Reducir al máximo el consumo de sus procesadores, esa potencia es el TDP o potencia de diseño térmico, el calor que tiene que disipar la refrigeración del procesador para evitar que entre en efecto la ralentización o throttle de su funcionamiento para permitir que funcione por debajo de su temperatura máxima.
La potencia de una fuente se puede utilizar sin problemas como un valor con margen de seguridad para ir sobrado de fuente, pero por ejemplo el i7-6700K cuenta con un TDP de 91 W frente a los 84 W de un i7-4790K, lo que implica que tiene mayor potencial de overclocking, no que el 6700K vaya a consumir más con un funcionamiento normal sinoverclocking. Este punto ha suscitado diversos comentarios bastante desafortunados sobre el consumo de los nuevos procesadores Skylake.
La potencia del 6700K es similar a la del 4790K, pero consumiendo bastante menos. Eso también incluye disponer de hasta 2 MB de caché L2 por núcleo frente a 1,5 MB de Haswell, y destinar la caché de L4 (eDRAM) a otros usos dentro de los procesadores.
La grafica integrada del microprocesador:
No hay comentarios:
Publicar un comentario