El de 2024 está siendo un bocado indigesto para Intel. El pasado 2 de agosto vivió su peor jornada bursátil de la historia. Su acción se desplomó un 26% en una sola sesión, después de unos resultados decepcionantes que fueron anunciados junto a un plan de recortes que incluía miles de despidos.
Para muchos, la multinacional, el mayor fabricante de circuitos integrados del mundo, había tocado fondo y la única opción posible era que empezase a asomar la cabeza. Pero nada de eso. Hace unos días, la firma de Santa Clara tenía cita con los inversores, y las cuentas trimestrales que presentó fueron aún peores que las anteriores: 16.600 millones marcados en rojo. Nunca en toda su historia habían cosechado un agujero de tal magnitud en 90 días.
Más de uno podría caer en el error de pensar que todo esto se debe a unas ventas terriblemente malas de la empresa dirigida por Pat Gelsinger. Pero no es así; un informe de Mercury Research señalaba que, cuando se trata de procesadores para PC de sobremesa, Intel todavía atesora más del 72% de cuota de mercado. Para portátiles, el dato es algo menor, pero también es mayoritaria. Si conserva esas cifras, ¿por qué parece estar atrapada en una crisis sin precedentes que pone en riesgo incluso su futura existencia?
No hay una única respuesta para esta pregunta. La compañía lleva meses atrapada en una tormenta perfecta, generada en gran parte por sus propios errores. A los californianos se les ha reprochado en los últimos años haber dejado pasar el tren de los smartphones para seguir centrándose en su negocio tradicional: el de los ordenadores y el de los servidores. No solo dejaron de lado los móviles; también las tarjetas gráficas, que han pasado en unos pocos años de ser un producto de nicho a ser el combustible necesario para conquistar la tecnología de moda: la inteligencia artificial generativa. ¿Qué ha ocurrido en el camino para que esto sucediera? Las GPU eran un producto que interesaba a públicos muy específicos, como los aficionados a los videojuegos o algunos editores de vídeo. Intel se limitó a cumplir, creando productos para el mercado de consumo general y dejando a Nvidia el camino libre.
Esta desconocida máquina decidirá la guerra de los microchips (y China no puede copiarla)Michael McloughlinPara fabricar algo tan diminuto como el procesador de un iPhone, se necesita un 'robot' de 180 toneladas. Y los únicos que pueden fabricarlos son unos holandeses que se han destapado como un actor crítico en la industria
La primera recompensa para Nvidia, que ha llegado a ser la compañía más valiosa del mundo, vino de la mano de Tesla, que escogió sus componentes para desarrollar sus sistemas de conducción autónoma. El premio gordo llegó cuando los investigadores de Google que desarrollaron los ‘transformers’, una tecnología vital para herramientas como ChatGPT o Gemini, lo hicieron pensando en que funcionara en una gráfica.
La batalla de las siglas
Aunque los de Santa Clara han hecho esfuerzos por reengancharse, su cuota en el mercado de las GPU es nula. Según Jon Peddie Research, de los 9,5 millones de gráficas vendidas en todo el mundo en el segundo trimestre de 2024, el 88% correspondió a Nvidia y aproximadamente el 12% a AMD. Eso deja a Intel una cuota del 0% en este segmento.
Los problemas de la multinacional no solo provienen de negocios que han dejado pasar, sino que también afectan al corazón de sus ingresos: los chips para ordenadores y servidores. Poco a poco, AMD ha ido quitándole pequeñas porciones de mercado. Según Mercury Research, en los últimos tres meses AMD ha pasado de un 20 a un 22,3% en el mercado de CPU para portátiles y del 23% al 29% en el de CPU para ordenadores de sobremesa. En servidores, ha conseguido arrebatar un punto de cuota.
Lisa Su, CEO de AMD. (Reuters/Ann Wang)Pero las siglas que suponen un mayor peligro para Intel no son las de AMD, sino las de ARM, una empresa de origen británico creadora de la arquitectura homónima, que se impuso a la hora de diseñar procesadores para dispositivos móviles. Como Intel miró para otro lado y decidió no explorar el mercado de los smartphones, ARM tuvo, al igual que Nvidia con las GPU, el camino libre. La gran virtud de la arquitectura ARM (un conjunto de normas de diseño de procesadores) es que ofrece una eficiencia energética única, aunque son más discretos en fuerza bruta. Algo idóneo para dispositivos como un iPhone, que no necesitan tanto músculo pero sí mucha autonomía.
La cuestión es que ARM echó a rodar y se convirtió en una bola de nieve que amenaza con arrasar a Intel y AMD en el medio plazo. Ya no es solo cosa de los terminales móviles; basta con fijarse en Apple, que ya utiliza este sistema para diseñar los cerebros de todos sus ordenadores. Un ejemplo perfecto del grado de madurez de los procesadores basados en la tecnología ARM son los últimos MacBook Pro, equipados con diferentes variantes de M4.
Son portátiles punteros, preparados para tareas muy pesadas como edición gráfica o de vídeo, y que ahora prometen tener una autonomía de hasta 24 horas. Ya hay fabricantes del universo Windows que están explorando esta vía alternativa a x86, la arquitectura que Intel lanzó en 2003 y que ha sido hegemónica durante más de 15 años en el mundo de los ordenadores de sobremesa y portátiles. También lo es en el mundo de los servidores. Pero esa superioridad podría acabar más pronto que tarde: se espera que para 2026 más de la mitad de los servidores que sostienen la nube utilicen chips ARM.
ARM, un peligro para todos
El propio Pat Gelsinger, CEO de Intel, ha despreciado en varias ocasiones esa tecnología. Pero en las últimas semanas, este discurso ha dado un giro de 180 grados. La compañía ha anunciado una alianza histórica con uno de sus mayores rivales, AMD, que también utiliza la arquitectura x86 para sus productos.
La alianza, que cuenta con socios como Lenovo o Microsoft, busca mejorar las posibilidades de esta tecnología, aumentando su escalabilidad, la creación de software y la personalización. Este punto es clave y es el motivo por el que empresas como Google o Apple decidieron diseñar sus propios procesadores, ya que necesitaban hacer ajustes muy concretos pensando en el aprendizaje profundo y, más recientemente, en las herramientas de IA.
Así pretende Intel volver a ser el gigante de los semiconductores que una vez fueThe Wall Street JournalEl CEO Pat Gelsinger traza un plan para alcanzar a sus rivales asiáticos con una serie de chips cada vez más potentes que cuentan con transistores diminutos
En resumen, Intel y AMD están buscando garantizar el futuro de la tecnología sobre la que han construido sus negocios.
Intel está en una posición delicada para el periodo que se avecina en la próxima década, algo que impacta directamente en el hecho de que haya presentado los peores resultados de su historia. ¿Por qué? Porque de los 16.600 millones de pérdidas que ha declarado, casi 10.000 corresponden a futuros beneficios fiscales descartados. ¿Qué significa esto? Cuando una multinacional de esta envergadura tiene pérdidas, las normas fiscales le permiten guardarlas como “activos fiscales en diferido”. Esto significa que si Intel generase beneficios en un plazo determinado podría usar esas pérdidas pasadas para pagar menos impuestos sobre esas ganancias. Ahora han decidido descartar ese comodín porque no esperan generar números verdes en el corto plazo.
Foto: EFE.La buena noticia, según explican en este artículo, es que esto no supone un movimiento de liquidez en la tesorería de la compañía. Una tesorería que ha visto cómo se han esfumado 2.800 millones por los 15.000 despidos ejecutados en los últimos tres meses. El resto de las pérdidas corresponde al deterioro de negocios que adquirió en el pasado (y que ahora están menos valorados) o al deterioro de equipos de fabricación. Todo esto ayuda a entender unas cuentas desastrosas, que escuecen aún más cuando se ve que hace un año, en el mismo periodo, ganaron 297 millones de dólares.
Lo impredecible de la apuesta ganadora de Gelsinger
Intel tiene varios planes para intentar recuperar unos laureles que se presentan más mustios que nunca. Uno de ellos pasa por sus fábricas. En el gremio de los microchips hay tres tipos de jugadores: los fabless, que solo diseñan; los foundries, que solo fabrican; y, por último, los IDM, que realizan el ciclo completo. En este último grupo hay únicamente dos: Samsung e Intel. La diferencia es que los coreanos hace mucho tiempo que decidieron fabricar para terceros. Algo que ahora también quiere hacer Intel, que hace meses puso en marcha un ambicioso plan para hacerlo, incluyendo importantes plantas tanto en EEUU como en Europa. El problema es que esto conlleva una enorme cantidad de recursos, y puede tardar varios años en dar frutos, ya que construir este tipo de infraestructuras es un proceso costoso y dilatado en el tiempo.
Para evitar que estos esfuerzos lastren el rendimiento del resto de la organización, Gelsinger decidió convertir esa división de fabricación en un negocio independiente. Eso permitiría, según su versión, explorar fuentes alternativas de financiación, entre otros beneficios. Por muy estratégica que sea esta apuesta, no se ha librado del proceso de eficiencia que ha puesto en marcha la dirección: los proyectos en Alemania y Polonia, financiados con miles de millones de fondos públicos, están en punto muerto hasta nuevo aviso.
Foto: Reuters/Andrew Kelly.El próximo va a ser un curso crucial para saber si Intel consigue despertar de esta pesadilla. La dirección tiene muchas esperanzas puestas en el proceso 18A de fabricación. Detrás de este críptico nombre, lo que se esconde no es otra cosa que la capacidad de crear chips en 1,8 nanómetros. Los nanómetros, junto al número de núcleos y la velocidad, son lo que determina cuán avanzado es un procesador. Cuanto menor es la cifra, más evolucionada es la pieza, ya que permite meter más transistores en el mismo espacio. Lograr producir ese tipo de semiconductores colocaría a Intel en una buena posición, ya que actualmente la industria está empezando a coquetear con el nodo de los 2 nanómetros.
Intel pretende que en la primera mitad de 2025 el proceso de fabricación ya estuviese en marcha y ya se pudiesen cumplir con los primeros encargos de terceros. El problema, según indicó Reuters recientemente, es que el proceso está lejos de estar afinado. Broadcom, empresa escogida para auditar las primeras pruebas, se mostraba francamente preocupada por la tasa de fallos, lo que da pie a que muchos piensen que los planes de la compañía se van a retrasar.
elconfidencial.com