Intel ha lanzado algunas CPU excelentes como parte de su línea de CPU para uso general, así como para servidores y estaciones de trabajo en los últimos años. Muchas de sus CPU de consumo masivo han llegado a nuestra lista de las mejores CPU, y algunas como elCore i9-13900Kincluso se adjudican la corona en cuanto a rendimiento. Esto ha sido una especie de regreso, ya que Intel ha tenido problemas tecnológicos durante años y, en 2022, finalmente sintió los devastadores efectos financieros de perder la ventaja en este espacio sobre sus competidores. Si miras hacia atrás en la historia de Intel, encontrarás toneladas de CPU horribles, y algunas de ellas te harán preguntarte cómo Intel comenzó a tener problemas financieros recientemente.

Relacionado
Las 7 mejores CPU de todos los tiempos

Puede que la CPU no sea tan emocionante, por eso siempre podemos saber cuando aparece una CPU realmente excelente.

Pentium 4

El primer gran desastre de Intel

Una CPU Intel Pentium 4.
Fuente:Wikipedia

A principios de la década de 2000, las CPU eran mucho más simples que hoy y la mayoría de las mejoras de generación en generación se centraban en las velocidades de reloj. De hecho, las CPU solían recibir su nombre en función de sus velocidades de reloj y nada más. Cuando Intel estaba desarrollando su arquitectura Net Burst de próxima generación, parecía obvio intentar perseguir la frecuencia, y la empresa tenía grandes planes, planes que se descarrilaron de forma igualmente importante.

AMD fue la primera compañía en lanzar una CPU de 1 GHz con el Athlon 1000, que se lanzó en marzo de 2000, pero Intel ya tenía los ojos puestos en la barrera de los 2 GHz. A finales de año, había lanzado sus primeras CPU Pentium 4,la más rápida de las cuales llegó a 1,5 GHz. En 2001,Intel fue el primero en alcanzar los 2 GHzcon su chip Pentium 4, y pronto le siguió unmodelo de 3 GHzen 2002.

Sin embargo, estas frecuencias tenían un precio muy alto. Intel se vio obligada a hacer que el flujo de trabajo de Net Burst fuera extraordinariamente largo, lo que significaba que las instrucciones por ciclo de reloj (IPC) del Pentium 4 eran muy inferiores a las de las CPU Intel más antiguas y a las de AMD.

Al principio, el plan de Intel estaba funcionando bien y los chips Pentium 4 normalmente superaban a los Athlon de AMD.Intel redobló su apuesta en su estrategiaal hacer que el pipeline de Net Burst fuera aún más largo para alcanzar velocidades de reloj más altas. Un Pentium 4 de 4 GHz iba a lanzarse en 2005, seguido por una CPU de 10 GHz en un futuro cercano. Sin embargo, la estrategia de Intel se basaba en el escalado de Dennard, que observó que la frecuencia aumentaba en cada generación sin necesidad de más potencia. En 2005, Intel había descubierto que el escalado de Dennard ya no se aplicaba y que incluso los 4 GHz eran difíciles de alcanzar, lo que llevó a lacancelación del Pentium de 4 GHz.

La decisión de Intel de reducir el IPC para alcanzar frecuencias más altas tuvo consecuencias desastrosas cuando esas ganancias de frecuencia se agotaron y AMD tomó la delantera en 2004. Intel terminó descartando Net Burst y diseñó una arquitectura completamente nueva que priorizaba el IPC sobre las ganancias de frecuencia, como la mayoría de las CPU modernas.

Itanio

Los sueños de 64 bits de Intel se evaporan

Una CPU Intel Itanium 2.
Fuente:Wikipedia

Al mismo tiempo que lanzaba Net Burst para ordenadores de sobremesa, Intel también estaba preparando un plan extremadamente ambicioso para las CPU de servidores. La arquitectura x86, que se utilizaba para las CPU de Intel y AMD, estaba limitada a la computación de 32 bits, y para el emergente mercado de servidores, Intel quería desarrollar procesadores de 64 bits con velocidades nunca antes vistas. Intel descartó la idea de fabricar una versión de 64 bits de x86 y se asoció con HP para crear la nueva arquitectura IA-64, que impulsaba las CPU Itanium. Los primeros chips Itanium estaban previstos para su lanzamiento en 1999.

Sin embargo, el desarrollo de Itanium tuvo problemas. Se retrasó hasta 2001 y el presupuesto empezó a dispararse. Cuando finalmente se lanzó en 2001, su rendimiento no era exactamente competitivo con otras CPU x86, y sólo la capacidad de Itanium para calcular en 64 bits fue un factor de venta importante. Pero Itanium tenía un defecto fundamental: no podía ejecutar software x86. Todo el software existente necesitaba ser reescrito para la arquitectura IA-64, lo que no era una tarea fácil.

Si Itanium impresionó fue simplemente por su negativa a morir.

En 2003, AMD había terminado su propia arquitectura de 64 bits llamada AMD64, que era una versión de x86 con soporte para 64 bits. Intel ya había decidido no utilizar esta estrategia por varias razones, pero en retrospectiva, quedó claro que Itanium fue un error, ya que los chips Opteron de AMD comenzaron a ganar cuota de mercado. AMD64 también contaba con el apoyo de importantes empresas de software como Microsoft, que eligió AMD64 como su arquitectura de 64 bits preferida. Al final, AMD64 se hizo tan popular que Intel tuvo que fabricar sus propios chips para servidores AMD64 llamados Xeon, y AMD64 se convirtió en x86-64.

Pero la cuestión es la siguiente: Xeon no sustituyó a Itanium. Intel y HP mantuvieron la esperanza durante años de que esta estrategia de arquitectura dual funcionaría, incluso cuando empresas como Dell e IBM dejaron de vender servidores Itanium. Itanium dejó de recibir actualizaciones anuales a mediados de la década de 2000, y su último chip se lanzó en 2017. Finalmente, se discontinuó en 2020, pero no antes deprovocar una demanda masiva entre Oracle y HPpor el soporte. Si Itanium fue impresionante, fue simplemente por su negativa a morir.

Átomo

Tan rápido como un átomo es grande

El logotipo de Intel Atom.
Fuente: Intel

Con el tiempo, Intel se rehizo de los fiascos de Pentium 4 e Itanium y volvió a su tradicional posición de liderazgo. A finales de la década de 2000, Intel vio oportunidades más allá de los equipos de sobremesa, portátiles y servidores, cuando dispositivos como el iPod se hicieron extremadamente populares. Pero Intel tenía aspiraciones más grandes que alimentar dispositivos que pudieran caber en el bolsillo; quería CPU Intel en cualquier dispositivo que pudiera tener un procesador. Intel necesitaba un chip que fuera pequeño, eficiente y lo suficientemente rápido para funcionar, por lo que en 2008, la empresa lanzó Atom.

Después de un par de años de trabajo para solucionar los problemas de los primeros chips Atom, Intel estaba listo para lanzar el Atom Z600, que se suponía que conquistaría el mercado de los teléfonos inteligentes de Arm. Su rendimiento era muy superior a todo lo que Arm podía ofrecer y tenía el mismo consumo de energía.Anandtechestaba seguro de que el Z600 cambiaría todoy dijo que "en cinco años el mercado de los teléfonos inteligentes no se parecerá a una extensión de lo que vemos hoy".

Entonces, ¿por qué tu teléfono o tostadora no tienen una CPU Atom? Quizás la razón más importante es que x86 nunca se había usado para teléfonos inteligentes u otros dispositivos, por lo que el software tendría que ser reescrito. Este fue básicamente el mismo error que cometió Intel con Itanium, ycanceló sus planes de teléfonos inteligentes después de seis años. Probablemente tampoco ayudó el hecho de que el único motivo de fama de Atom fueran los netbooks y los dispositivos de "Internet de las cosas".

Pero recientemente, Intel finalmente encontró un lugar para Atom en los dispositivos de red y sus nuevas CPU híbridas como la 13900K, que tiene 16 núcleos E derivados de las CPU Atom. Eso no cambia el hecho de que Atom fue un desastre durante más de una década, pero al menos ahora es útil para algo.

Núcleo i7-7700K

Intel deja de intentarlo

Una CPU Intel Kaby Lake de séptima generación.

Intel reemplazó Net Burst por Core, una arquitectura que encontró un equilibrio entre IPC y frecuencia, y fue un éxito inmediato. CPUs como el Core 2 Duo E6300 y el Core 2 Quad Q6600 eran mucho más rápidas queel decepcionante sucesor de Athlon de AMD, Phenom. El renovado ataque de Intel en PC culminó con el enfrentamiento entre su segunda generación de CPUs Sandy Bridge y FX Bulldozer de AMD en 2011, e Intel ganó fácilmente. Intel estaba en ascenso una vez más.

¿Cómo logró Intel mantener este impulso? Básicamente, lanzando la misma CPU una y otra vez. Eso no quiere decir que Intel no estuviera haciendo ningún progreso; la empresa siguió el modelo "tic-tac", en el que Intel lanzaba una CPU por generación con un nuevo nodo de fabricación (tic) y luego una CPU con una nueva arquitectura (tac), repitiéndose una y otra vez. Pero estos avances tecnológicos dejaron de traducirse en mejoras significativas de rendimiento y valor como en el pasado, y fue porque Intel ya no necesitaba competir.

El Core i7-7700K fue quizás el más famoso de estos chips, ya que era literalmente un Core i7-6700K con unos pocos MHz adicionales.

El resultado final fue el Kaby Lake de séptima generación, que se lanzó en 2017 y no fue ni un tic ni un tac, sino una "optimización", es decir, solo se trataba de CPU de última generación con velocidades de reloj más altas. El Core i7-7700K fue quizás el más infame de estos chips, ya que era literalmente un Core i7-6700K con algunos MHz adicionales.PCGamesN fue particularmente mordaz en su revisión, diciendo que era "una porción deprimente de silicio".

Esta historia tiene un final feliz porque AMD finalmente hizo su regreso dos meses después con el lanzamiento de sus CPU Ryzen 1000. Estos chips de primera generación no fueron ganadores en juegos, pero tenían un rendimiento multinúcleo asombroso. El Ryzen 7 1700 superó al 7700K en básicamente cualquier carga de trabajo multinúcleo con un costo similar. La guinda del pastel fue la prisa de Intel por sacar al mercado sus CPU de octava generación en el mismo año, lo que significó que Kaby Lake ni siquiera duró un año completo antes de que quedara obsoleto.

Núcleo i3-8121U

No hablamos de 10 nm

Aunque Intel se sentía cómoda lanzando la misma CPU dos veces seguidas, Kaby Lake nunca estuvo previsto que existiera. Intel siempre había tenido la intención de ceñirse al modelo tic-tac y lanzar una CPU de 10 nm después de la sexta generación, pero el desarrollo iba mal para el nodo de 10 nm de la compañía.El plan para 10 nm era extremadamente ambicioso. Se suponía que tendría casi el triple de densidad que 14 nm, además de su mayor eficiencia. Intel debería haber sabido que no debía hacer esto después deluchar por sacar sus CPU de 14 nm a tiempo, pero quería superioridad tecnológica, así que siguió adelante.

El objetivo original para los 10 nm era 2015, pero como los 14 nm se retrasaron, los 10 nm también lo hicieron. 2017 fue la nueva fecha de lanzamiento, pero en lugar de CPU de 10 nm, Intel lanzó su tercera y cuarta CPU de 14 nm. Finalmente, Intel lanzó una CPU de 10 nm basada en la arquitectura Cannon Lake, el Core i3-8121U, en 2018. Desafortunadamente, no marcó el comienzo de una nueva generación de CPU que utilizan tecnología de vanguardia, sino el final del liderazgo de Intel.

El Core i3-8121U en 2018 marcó el fin del liderazgo de Intel.

El 8121U fue una terrible demostración de los 10 nm yun producto terrible en sí mismo. El nodo de 10 nm estaba tan roto que Intel solo podía fabricar una pequeña CPU de doble núcleo con sus gráficos integrados desactivados intencionalmente, presumiblemente porque no funcionaban correctamente. Intel había mordido más de lo que podía masticar con los 10 nm, y las consecuencias de la arrogancia de la compañía cambiarían su trayectoria para siempre. Con los 10 nm estancados en el infierno del desarrollo, Intel solo podía confiar en los 14 nm para cualquier cosa que requiriera una cantidad significativa de rendimiento.

Como nota al margen, Intel enumera todas las CPU que lanzó en las últimas dos décadas en su sitio web, y aunquela página del 8121U todavía existe, la página de todaslas CPU Cannon Lake de 10 nmse ha eliminado, casi como si Intel estuviera avergonzado.

Núcleo i9-11900K

No se logró el despegue

Una CPU Intel Rocket Lake de 11.ª generación.
Fuente: Intel

Intel siguió adelante con los 14 nm durante años y, aunque cada generación aportaba más núcleos que la anterior, las ganancias de frecuencia de cada refinamiento de los 14 nm eran cada vez menores y la incorporación de más núcleos aumentaba drásticamente el consumo de energía. Cuando Intel lanzó sus CPU de décima generación (la sexta consecutiva en utilizar 14 nm), AMD ya estaba utilizando los 7 nm de TSMC para sus CPU Ryzen 3000.El Core i9-10900K de gama alta de Intel no pudo vencer al Ryzen 9 3900X de AMD, que ni siquiera era el buque insignia y no tenía soporte para PCIe 4.0, a diferencia de las CPU de AMD.

Si los 10 nm no eran una opción, entonces lo único que se podía hacer era introducir una nueva arquitectura. Intel decidió adaptar sus chips Ice Lake orientados a dispositivos móviles a los 14 nm, lo que supuso un aumento muy necesario del 19 % en el IPC. Tal vez Intel debería haberlo hecho antes en lugar de esperar a la séptima generación de CPU de 14 nm, pero más vale tarde que nunca, ¿no?

Las CPU Rocket Lake de 11.ª generación llegaron con una arquitectura completamente nueva, pero esto tuvo un precio. En primer lugar, la adaptación de una CPU diseñada para un nodo mucho más denso significaba que los núcleos eran enormes en 14 nm. En segundo lugar, el consumo de energía también aumenta en los procesos más antiguos, lo que hace que agregar más núcleos y aumentar la velocidad del reloj sea más desafiante. El resultado final fue el Core i9-11900K "insignia", que tenía unos miserables ocho núcleos y un tamaño de chip de 276 mm2, es decir, menos núcleos que el 10900K y, al mismo tiempo, más grande.

El 11900K estaba condenado al fracaso; era tecnológicamente atrasado y demasiado caro (539 dólares).Apenas podía igualar al Ryzen 7 5800X de 450 dólares(y mucho menos al Ryzen 9 5900X y 5950X) e incluso perdió ante el 10900K en todo lo que no fuera extremadamente monohilo. Es sorprendente que Intel haya gastado I+D en una CPU completamente nueva que ni siquiera pudo superar a su predecesora de manera convincente. Es posible que Rocket Lake se haya creado con el único propósito de obtener PCIe 4.0 en una CPU de escritorio Intel. Al menos el resto de la línea Rocket Lake era decente, ya que AMD dejó de competir en la gama baja y media.

Un regreso, ¿pero a qué precio?

Con sus CPU de 12.ª y 13.ª generación, Intel finalmente ha vuelto a liderar el rendimiento en PC, pero el daño ya estaba hecho. Se suponía que el proceso de 10 nm se lanzaría en 2015, pero recién se lanzó con éxito en 2021 con Alder Lake e Ice Lake para servidores. Siete años completos de CPU de 14 nm han reducido a Intel a una mera sombra de lo que fue, algo que no había sucedido cuando Intel cometió errores con Pentium 4, Itanium o Atom.

Un hilo conductor común entre todos estos fracasos es la imprudencia y la falta de precaución de Intel. Intel supuso que Pentium 4 sería fantástico y alcanzaría los 10 GHz, incluso los 30 GHz, sin problemas. Intel supuso que Itanium dominaría los centros de datos y nunca consideró seriamente la posibilidad de que nadie quisiera reescribir cada pieza de software x86. Intel supuso que Atom tendría éxito simplemente porque era una gran pieza de hardware. Intel supuso que sus ingenieros podían hacer cualquier cosa y apuntó a una ridícula ganancia generacional en 10 nm.

Relacionado
Las 8 peores GPU de todos los tiempos

Hay GPU malas y luego hay GPU que nunca olvidaremos por lo desastrosas que fueron.

1

Por otro lado, también es bastante irónico que dos de los fracasos más destacados de Intel hayan permitido a la empresa volver a la normalidad. Las CPU de arquitectura híbrida como la 13900K solo son posibles gracias a Atom, y sin núcleos E, estas CPU serían demasiado grandes y consumirían mucha energía. Los 10 nm también juegan un papel fundamental en el regreso de Intel, ya que colocan los chips de la empresa en una paridad aproximada con los fabricados en TSMC. Con suerte, este desastre con los 10 nm ha dado a Intel una nueva apreciación de cómo los planes pueden salir mal.