<div class="semiton-wrapper" data-texto="Amazon, la que nos trae la mercadería, ahora pretende entregarnos también el cerebro. Tras invertir en Anthropic, AWS redobla la apuesta con IA propia: modelos, chips y agentes diseñados para fidelizar al cliente empresarial. Matt Garman, CEO de AWS, sentencia: la IA ya no es el postre, sino el condimento indispensable. "Hace dos años, se creaban aplicaciones de IA. Ahora, se crean aplicaciones que incorporan IA ”, declaró. Frente a Microsoft y Google, que acechan cual perros de presa, Garman promete una IA más barata y confiable. ¿Mera promesa o el nuevo paradigma? La compañía despidió a 14.000 personas para "invertir" en esta maravilla. Un equipo, por ejemplo, logró en 71 días y con seis personas lo que antes 30 tardaban 18 meses. ¿Eficiencia divina o la cruel optimización laboral? El futuro, como siempre, tiene más preguntas que respuestas. Y Garman, con Bedrock, quiere ser el oráculo. A prestar atención, o a ignorarlo. Total.">
Aunque la cuantiosa inversión de ocho mil millones de dólares de Amazon en Anthropic acaparó titulares, la verdadera ofensiva de la compañía en el campo de la inteligencia artificial se gesta en las entrañas de Amazon Web Services (AWS). La división de nube no solo invierte, sino que construye: modelos de base internos, nuevos chips, centros de datos de proporciones descomunales y agentes digitales diseñados estratégicamente para mantener a los clientes corporativos férreamente vinculados a su ecosistema. Una jugada maestra, según la compañía, para asegurar su supremacía mientras la IA se integra inexorablemente en el entramado empresarial.
En la antesala de la conferencia anual re:Invent en Las Vegas, Matt Garman, CEO de AWS, concedió una entrevista a WIRED, donde desgranó su visión sobre el futuro de la inteligencia artificial y los planes de Amazon para cimentar su liderazgo en el competitivo mercado de la nube, frente al empuje de gigantes como Microsoft y Google.
Garman deposita su confianza en la capacidad de AWS para ofrecer inteligencia artificial como un servicio más económico y robusto que el de sus competidores. Con Bedrock, la plataforma insignia de Amazon para el desarrollo de aplicaciones de IA, los clientes corporativos tendrían acceso a una vasta gama de modelos fundamentales de IA, preservando al mismo tiempo los habituales controles de datos, las robustas capas de seguridad y la probada fiabilidad que caracterizan a AWS. Un argumento que, de consolidarse, podría otorgarle a la compañía el dominio en esta nueva era tecnológica.
El directivo fue enfático al afirmar que la inteligencia artificial ha trascendido la categoría de experimento aislado para convertirse en una característica intrínseca de productos de mayor envergadura. “Hace dos años, se creaban aplicaciones de IA. Ahora, se crean aplicaciones que incorporan IA ” , declaró Garman. Y añadió, con un optimismo calculador: “Esa es la plataforma que hemos creado, y creo que es ahí donde AWS empieza a tomar la delantera”.
Los recientes anuncios en re:Invent refrendan esta dirección estratégica. Amazon desveló nuevos y eficientes modelos de IA dentro de su serie Nova, además de agentes capaces de operar de forma autónoma en labores de desarrollo de software y ciberseguridad. A esto se suma Forge, una innovadora propuesta que habilita a las empresas para entrenar sus propios modelos de IA de manera económica, utilizando sus propios datos.
Lo que está en juego para AWS es considerable. Si bien la división de nube de Amazon se erigió como referente durante la era de los smartphones, el panorama se modificó sustancialmente con la irrupción de ChatGPT. Desde entonces, competidores como Google Cloud y Microsoft Azure han exhibido tasas de crecimiento superiores, impulsados por su profunda integración con modelos de IA de vanguardia –la tecnología que sustenta a ChatGPT y Gemini, respectivamente–, cautivando así a empresas ávidas de explorar estas capacidades avanzadas.
Este acelerado ascenso de los rivales de AWS ha generado no pocas interrogantes sobre la estrategia global de Amazon en inteligencia artificial y sobre la proyección de la compañía en el lustro venidero.
Garman, acostumbrado a los vaivenes del mercado, asegura haber escuchado estas inquietudes durante años, aunque con menor frecuencia en los últimos meses. El CEO de AWS sostiene que la tendencia se revierte y esgrime los resultados del tercer trimestre de AWS, superiores a las previsiones, como una clara validación de la eficacia de su estrategia.
No obstante, una corriente de opinión entre otros referentes de la inteligencia artificial plantea un contrapunto. Argumentan que la IA no es una mera evolución, sino una transformación fundamental en la informática, que compelerá a las empresas a una reevaluación total de sus métodos de desarrollo de productos. En este escenario de cambio de paradigma, las capacidades de IA de punta podrían primar, dejando a los actores tradicionales como AWS en una posición potencialmente más vulnerable.
Eficiencia de la IA
La irrupción de la inteligencia artificial no solo redefine productos, sino que también impulsa significativas transformaciones organizacionales dentro de Amazon. En octubre, la compañía comunicó la decisión de prescindir de 14.000 empleados, en un movimiento que se atribuye en parte a la mayor inversión en IA. Estos ajustes de personal se sucedieron apenas meses después de que Andy Jassy, CEO de Amazon, adelantara que la IA reduciría la necesidad de fuerza laboral en determinadas áreas.
A nivel interno, Garman destaca cómo las herramientas de IA están acelerando drásticamente la labor de diversos equipos de ingeniería. Los empleados, en lugar de codificar manualmente, ahora se dedican a supervisar y dirigir conjuntos de agentes de inteligencia artificial. Un ejemplo palmario, según Garman, fue la reescritura de una extensa base de código interno en AWS. Se estimaba que la tarea demandaría la dedicación de 30 personas durante aproximadamente 18 meses. Sin embargo, gracias a la IA, el equipo logró completarla con solo seis individuos en un lapso de 71 días. Una muestra contundente del impacto transformador de la tecnología.
Amazon Web Services (AWS) redobla su apuesta en inteligencia artificial, invirtiendo en modelos internos, nuevos chips y centros de datos para afianzar su liderazgo en la nube. Matt Garman, CEO de AWS, posiciona la IA como un servicio fundamental y rentable a través de su plataforma Bedrock, buscando contener el avance de competidores como Microsoft y Google. La estrategia incluye el lanzamiento de modelos eficientes y agentes autónomos, mientras internamente la IA ya acelera procesos de ingeniería y reconfigura la estructura de personal.
Resumen generado automáticamente por inteligencia artificial
<div class="semiton-wrapper" data-texto="Amazon, la que nos trae la mercadería, ahora pretende entregarnos también el cerebro. Tras invertir en Anthropic, AWS redobla la apuesta con IA propia: modelos, chips y agentes diseñados para fidelizar al cliente empresarial. Matt Garman, CEO de AWS, sentencia: la IA ya no es el postre, sino el condimento indispensable. "Hace dos años, se creaban aplicaciones de IA. Ahora, se crean aplicaciones que incorporan IA ”, declaró. Frente a Microsoft y Google, que acechan cual perros de presa, Garman promete una IA más barata y confiable. ¿Mera promesa o el nuevo paradigma? La compañía despidió a 14.000 personas para "invertir" en esta maravilla. Un equipo, por ejemplo, logró en 71 días y con seis personas lo que antes 30 tardaban 18 meses. ¿Eficiencia divina o la cruel optimización laboral? El futuro, como siempre, tiene más preguntas que respuestas. Y Garman, con Bedrock, quiere ser el oráculo. A prestar atención, o a ignorarlo. Total.">
Aunque la cuantiosa inversión de ocho mil millones de dólares de Amazon en Anthropic acaparó titulares, la verdadera ofensiva de la compañía en el campo de la inteligencia artificial se gesta en las entrañas de Amazon Web Services (AWS). La división de nube no solo invierte, sino que construye: modelos de base internos, nuevos chips, centros de datos de proporciones descomunales y agentes digitales diseñados estratégicamente para mantener a los clientes corporativos férreamente vinculados a su ecosistema. Una jugada maestra, según la compañía, para asegurar su supremacía mientras la IA se integra inexorablemente en el entramado empresarial.
En la antesala de la conferencia anual re:Invent en Las Vegas, Matt Garman, CEO de AWS, concedió una entrevista a WIRED, donde desgranó su visión sobre el futuro de la inteligencia artificial y los planes de Amazon para cimentar su liderazgo en el competitivo mercado de la nube, frente al empuje de gigantes como Microsoft y Google.
Garman deposita su confianza en la capacidad de AWS para ofrecer inteligencia artificial como un servicio más económico y robusto que el de sus competidores. Con Bedrock, la plataforma insignia de Amazon para el desarrollo de aplicaciones de IA, los clientes corporativos tendrían acceso a una vasta gama de modelos fundamentales de IA, preservando al mismo tiempo los habituales controles de datos, las robustas capas de seguridad y la probada fiabilidad que caracterizan a AWS. Un argumento que, de consolidarse, podría otorgarle a la compañía el dominio en esta nueva era tecnológica.
El directivo fue enfático al afirmar que la inteligencia artificial ha trascendido la categoría de experimento aislado para convertirse en una característica intrínseca de productos de mayor envergadura. “Hace dos años, se creaban aplicaciones de IA. Ahora, se crean aplicaciones que incorporan IA ” , declaró Garman. Y añadió, con un optimismo calculador: “Esa es la plataforma que hemos creado, y creo que es ahí donde AWS empieza a tomar la delantera”.
Los recientes anuncios en re:Invent refrendan esta dirección estratégica. Amazon desveló nuevos y eficientes modelos de IA dentro de su serie Nova, además de agentes capaces de operar de forma autónoma en labores de desarrollo de software y ciberseguridad. A esto se suma Forge, una innovadora propuesta que habilita a las empresas para entrenar sus propios modelos de IA de manera económica, utilizando sus propios datos.
Lo que está en juego para AWS es considerable. Si bien la división de nube de Amazon se erigió como referente durante la era de los smartphones, el panorama se modificó sustancialmente con la irrupción de ChatGPT. Desde entonces, competidores como Google Cloud y Microsoft Azure han exhibido tasas de crecimiento superiores, impulsados por su profunda integración con modelos de IA de vanguardia –la tecnología que sustenta a ChatGPT y Gemini, respectivamente–, cautivando así a empresas ávidas de explorar estas capacidades avanzadas.
Este acelerado ascenso de los rivales de AWS ha generado no pocas interrogantes sobre la estrategia global de Amazon en inteligencia artificial y sobre la proyección de la compañía en el lustro venidero.
Garman, acostumbrado a los vaivenes del mercado, asegura haber escuchado estas inquietudes durante años, aunque con menor frecuencia en los últimos meses. El CEO de AWS sostiene que la tendencia se revierte y esgrime los resultados del tercer trimestre de AWS, superiores a las previsiones, como una clara validación de la eficacia de su estrategia.
No obstante, una corriente de opinión entre otros referentes de la inteligencia artificial plantea un contrapunto. Argumentan que la IA no es una mera evolución, sino una transformación fundamental en la informática, que compelerá a las empresas a una reevaluación total de sus métodos de desarrollo de productos. En este escenario de cambio de paradigma, las capacidades de IA de punta podrían primar, dejando a los actores tradicionales como AWS en una posición potencialmente más vulnerable.
Eficiencia de la IA
La irrupción de la inteligencia artificial no solo redefine productos, sino que también impulsa significativas transformaciones organizacionales dentro de Amazon. En octubre, la compañía comunicó la decisión de prescindir de 14.000 empleados, en un movimiento que se atribuye en parte a la mayor inversión en IA. Estos ajustes de personal se sucedieron apenas meses después de que Andy Jassy, CEO de Amazon, adelantara que la IA reduciría la necesidad de fuerza laboral en determinadas áreas.
A nivel interno, Garman destaca cómo las herramientas de IA están acelerando drásticamente la labor de diversos equipos de ingeniería. Los empleados, en lugar de codificar manualmente, ahora se dedican a supervisar y dirigir conjuntos de agentes de inteligencia artificial. Un ejemplo palmario, según Garman, fue la reescritura de una extensa base de código interno en AWS. Se estimaba que la tarea demandaría la dedicación de 30 personas durante aproximadamente 18 meses. Sin embargo, gracias a la IA, el equipo logró completarla con solo seis individuos en un lapso de 71 días. Una muestra contundente del impacto transformador de la tecnología.