Regla de Pollack


La regla de Pollack establece que "el aumento del rendimiento del microprocesador debido a los avances de la microarquitectura es aproximadamente proporcional a [la] raíz cuadrada del [aumento] de la complejidad". Esto contrasta con el aumento del consumo de energía, que es aproximadamente linealmente proporcional al aumento de la complejidad. La complejidad en este contexto significa la lógica del procesador, es decir, su área.

La regla, que es un término de la industria, lleva el nombre de Fred Pollack , ingeniero líder y miembro de Intel .

La regla de Pollack ganó cada vez más relevancia en 2008 debido a la amplia adopción de la computación de múltiples núcleos y la preocupación expresada por empresas e individuos por la enorme demanda de electricidad de las computadoras.

Una interpretación generosa de la regla permite el caso en el que un dispositivo ideal podría contener cientos de núcleos de baja complejidad, cada uno operando a muy baja potencia y juntos realizando grandes cantidades de trabajo (de procesamiento) rápidamente. Esto describe una matriz de procesadores masivamente paralelos (MPPA), que actualmente se utiliza en sistemas integrados y aceleradores de hardware .

Sin embargo, la Ley de Pollack, tal como se formuló originalmente, se consideró un límite en las mejoras de rendimiento para CPU individuales a medida que aumentaba el número de transistores, así como para sistemas multiprocesador.

Según la ley de Moore , cada nueva generación de tecnología duplica el número de transistores. Esto aumenta su velocidad en un 40% [ cita requerida ] . Por otro lado, la regla de Pollack implica que los avances en microarquitectura mejoran el rendimiento en otro 2 ≈ 41% . Por lo tanto, el aumento general del rendimiento es aproximadamente el doble, mientras que el consumo de energía permanece igual. En la práctica, sin embargo, implementar una nueva microarquitectura cada nueva generación es difícil, por lo que las ganancias de la microarquitectura suelen ser menores. [1]