<div class="semiton-wrapper" data-texto="¡OpenAI se pone el overol y va por sus propios chips! La empresa, creadora de ChatGPT, busca independizarse de Nvidia y aliarse con Broadcom para fabricar su propio hardware de IA. Se rumorea que la producción a gran escala podría comenzar el año próximo.
¡¿Será que Sam Altman se cansó de pedir fiado?! La movida es estratégica: menos dependencia y más control sobre el futuro de la IA. ¡Nvidia, temblá! ¡Se viene la competencia!
OpenAI sigue los pasos de Google y Amazon, que ya diseñan sus propios procesadores. ¡La carrera por la supremacía en la IA está que arde!
"> #Aquí va la noticia semitón#
OpenAI se prepara para fabricar sus propios chips de inteligencia artificial
La empresa OpenAI, responsable del popular ChatGPT, estaría planeando el lanzamiento de su propio chip de inteligencia artificial (IA), con miras a iniciar la producción masiva el próximo año. Según un informe del Financial Times, la compañía colaboraría con Broadcom en el diseño y fabricación del procesador, buscando así reducir su dependencia de Nvidia, el actual líder en el mercado de GPUs para IA.
Esta posible jugada maestra de OpenAI se da tras las declaraciones de Hock Tan, CEO de Broadcom, durante una reciente reunión con inversores. Tan insinuó que su empresa tiene acuerdos con varios clientes para desarrollar aceleradores de IA. "El trimestre pasado, uno de estos clientes emitió órdenes de producción a Broadcom. Ahora esperamos que las perspectivas de ingresos por IA para el año fiscal 2026 mejoren significativamente respecto a lo indicado previamente", afirmó. Los analistas del sector, con olfato de sabueso, apuntan a que ese cliente misterioso no sería otro que OpenAI.
La estrategia de OpenAI para asegurar su futuro en la IA
Desde hace un tiempo, la prensa especializada viene especulando sobre los planes de OpenAI para incursionar en la fabricación de chips propios. Ya en octubre de 2023, Reuters informaba que la empresa liderada por Sam Altman llevaba más de un año evaluando la posibilidad de fabricar procesadores a medida para sistemas inteligentes. Esta iniciativa respondería a la necesidad de enfrentar la escasez y los precios elevados de estos componentes, que, como diría un paisano, "están por las nubes".
La estrategia de OpenAI incluiría también la adquisición de startups especializadas en el diseño de semiconductores, el establecimiento de alianzas más estrechas con fabricantes y la diversificación de su red de proveedores. En enero de este año, Bloomberg reveló que Altman estaba buscando socios para levantar una red global de fábricas de chips, un proyecto de envergadura internacional que involucraría a gigantes como SoftBank Group Corp, Intel, Samsung, Microsoft y Taiwan Semiconductor Manufacturing Company (TSMC).
¿Un chip para uso interno?
Aunque los detalles técnicos del chip en cuestión aún son un secreto a voces, el informe del Financial Times sugiere que no estaría destinado a la venta al público, sino que se produciría exclusivamente para el uso interno de OpenAI. Esta estrategia es similar a la que han adoptado otras grandes tecnológicas como Google y Amazon, que diseñan y fabrican sus propios procesadores no como un negocio en sí mismo, sino como una forma de reducir costos, asegurar el suministro y evitar la dependencia de terceros como Nvidia.
Sam Altman ha manifestado en reiteradas ocasiones la "brutal escasez" y los "desorbitados costos" de los chips como un desafío central para el desarrollo de la IA. Actualmente, OpenAI opera sus tecnologías de IA generativa en una supercomputadora masiva creada por Microsoft, equipada con 10,000 unidades de procesamiento gráfico (GPU) de Nvidia. Un fierro, bah.
El costo de mantener esta infraestructura no es moco de pavo. Se estima que cada consulta respondida por ChatGPT cuesta alrededor de 4 centavos, según cálculos de Stacy Rasgon, analista de Bernstein. Si el volumen de consultas alcanzara una décima parte de la escala de búsquedas de Google, OpenAI necesitaría invertir la friolera de 48,100 millones de dólares en GPU iniciales y unos 16,000 millones anuales en chips para mantener el motor en marcha. Un presupuesto que haría temblar hasta al mismísimo Tío Rico McPato.
Este panorama explica el ímpetu de Altman por acelerar el diseño de procesadores propios. En 2023, ya advertía que el progreso de la inteligencia artificial dependería en gran medida de innovaciones en el diseño de chips y de la solidez de las cadenas de suministro. Consciente de la creciente demanda de hardware especializado, el directivo está buscando todas las vías posibles para evitar que la escasez se convierta en un freno para su ambicioso proyecto.
OpenAI, la mente maestra detrás de ChatGPT, planea lanzarse al ruedo de los chips de IA, buscando reducir su dependencia de Nvidia. La movida, en colaboración con Broadcom, podría significar un antes y un después en la industria. Se especula que la producción masiva arrancaría el año que viene.
Resumen generado automáticamente por inteligencia artificial
<div class="semiton-wrapper" data-texto="¡OpenAI se pone el overol y va por sus propios chips! La empresa, creadora de ChatGPT, busca independizarse de Nvidia y aliarse con Broadcom para fabricar su propio hardware de IA. Se rumorea que la producción a gran escala podría comenzar el año próximo.
¡¿Será que Sam Altman se cansó de pedir fiado?! La movida es estratégica: menos dependencia y más control sobre el futuro de la IA. ¡Nvidia, temblá! ¡Se viene la competencia!
OpenAI sigue los pasos de Google y Amazon, que ya diseñan sus propios procesadores. ¡La carrera por la supremacía en la IA está que arde!
"> #Aquí va la noticia semitón#
OpenAI se prepara para fabricar sus propios chips de inteligencia artificial
La empresa OpenAI, responsable del popular ChatGPT, estaría planeando el lanzamiento de su propio chip de inteligencia artificial (IA), con miras a iniciar la producción masiva el próximo año. Según un informe del Financial Times, la compañía colaboraría con Broadcom en el diseño y fabricación del procesador, buscando así reducir su dependencia de Nvidia, el actual líder en el mercado de GPUs para IA.
Esta posible jugada maestra de OpenAI se da tras las declaraciones de Hock Tan, CEO de Broadcom, durante una reciente reunión con inversores. Tan insinuó que su empresa tiene acuerdos con varios clientes para desarrollar aceleradores de IA. "El trimestre pasado, uno de estos clientes emitió órdenes de producción a Broadcom. Ahora esperamos que las perspectivas de ingresos por IA para el año fiscal 2026 mejoren significativamente respecto a lo indicado previamente", afirmó. Los analistas del sector, con olfato de sabueso, apuntan a que ese cliente misterioso no sería otro que OpenAI.
La estrategia de OpenAI para asegurar su futuro en la IA
Desde hace un tiempo, la prensa especializada viene especulando sobre los planes de OpenAI para incursionar en la fabricación de chips propios. Ya en octubre de 2023, Reuters informaba que la empresa liderada por Sam Altman llevaba más de un año evaluando la posibilidad de fabricar procesadores a medida para sistemas inteligentes. Esta iniciativa respondería a la necesidad de enfrentar la escasez y los precios elevados de estos componentes, que, como diría un paisano, "están por las nubes".
La estrategia de OpenAI incluiría también la adquisición de startups especializadas en el diseño de semiconductores, el establecimiento de alianzas más estrechas con fabricantes y la diversificación de su red de proveedores. En enero de este año, Bloomberg reveló que Altman estaba buscando socios para levantar una red global de fábricas de chips, un proyecto de envergadura internacional que involucraría a gigantes como SoftBank Group Corp, Intel, Samsung, Microsoft y Taiwan Semiconductor Manufacturing Company (TSMC).
¿Un chip para uso interno?
Aunque los detalles técnicos del chip en cuestión aún son un secreto a voces, el informe del Financial Times sugiere que no estaría destinado a la venta al público, sino que se produciría exclusivamente para el uso interno de OpenAI. Esta estrategia es similar a la que han adoptado otras grandes tecnológicas como Google y Amazon, que diseñan y fabrican sus propios procesadores no como un negocio en sí mismo, sino como una forma de reducir costos, asegurar el suministro y evitar la dependencia de terceros como Nvidia.
Sam Altman ha manifestado en reiteradas ocasiones la "brutal escasez" y los "desorbitados costos" de los chips como un desafío central para el desarrollo de la IA. Actualmente, OpenAI opera sus tecnologías de IA generativa en una supercomputadora masiva creada por Microsoft, equipada con 10,000 unidades de procesamiento gráfico (GPU) de Nvidia. Un fierro, bah.
El costo de mantener esta infraestructura no es moco de pavo. Se estima que cada consulta respondida por ChatGPT cuesta alrededor de 4 centavos, según cálculos de Stacy Rasgon, analista de Bernstein. Si el volumen de consultas alcanzara una décima parte de la escala de búsquedas de Google, OpenAI necesitaría invertir la friolera de 48,100 millones de dólares en GPU iniciales y unos 16,000 millones anuales en chips para mantener el motor en marcha. Un presupuesto que haría temblar hasta al mismísimo Tío Rico McPato.
Este panorama explica el ímpetu de Altman por acelerar el diseño de procesadores propios. En 2023, ya advertía que el progreso de la inteligencia artificial dependería en gran medida de innovaciones en el diseño de chips y de la solidez de las cadenas de suministro. Consciente de la creciente demanda de hardware especializado, el directivo está buscando todas las vías posibles para evitar que la escasez se convierta en un freno para su ambicioso proyecto.