El 30 de octubre, la capitalización de mercado de NVIDIA superó los 5 billones de dólares, convirtiéndose en la única empresa en el mundo en alcanzar este hito. Sin embargo, a pesar de la conmoción, surgió una gran confusión: si la industria de los chips de IA es tan rentable, ¿por qué solo NVIDIA está ganando dinero? La respuesta radica en la fortaleza que NVIDIA ha construido durante casi 20 años: CUDA, esta arquitectura unificada de dispositivos de computación ha asegurado a más de 4.5 millones de desarrolladores en todo el mundo.
Los rivales de Nvidia son todos expertos de alto nivel, ¿por qué aún nadie puede competir?
¿Realmente tiene NVIDIA competidores? Sí. Muchos. Y todos son expertos de primer nivel. Mirando a nuestro alrededor, al menos podemos contar tres “competidores” de gran peso. Por ejemplo, AMD. Ha sido un viejo rival de NVIDIA en el campo de los semiconductores durante décadas. En términos de tecnología y experiencia, es sin duda uno de los jugadores más calificados para enfrentarse a NVIDIA. Por ejemplo, Intel. Fue el “rey de los chips” en su momento. Tiene una gran capacidad de fabricación y una amplia base de clientes. Por ejemplo, Google. Prácticamente tiene recursos ilimitados y un equipo de IA de primer nivel en el mundo. Además, está desarrollando su propio chip de IA especializado.
Mira, entre estos tres gigantes, ¿cuál no tiene un nombre que resuena en todo el mundo? Sin embargo, esto también ha agudizado el problema: en la mesa de juego claramente todos son expertos, pero las fichas, parecen estar en manos de un solo jugador. ¿Por qué es eso?
Primero, la respuesta: porque NVIDIA utiliza un sistema con un alto “costo de migración”, mantiene a sus clientes firmemente atados. Podrías decir que eso se debe a que los chips de NVIDIA son los más rápidos y los mejores. Pero en realidad, esta respuesta no es lo suficientemente rigurosa. Imagina esta escena: la CEO de AMD, Lisa Su, entra a la oficina de OpenAI y le hace una propuesta muy atractiva al CEO Sam Altman. AMD tiene un nuevo chip GPU que es un 30% más eficiente que el B200 de NVIDIA, y además, es la mitad de precio.
Si ahora fueras Sam Altman, ¿firmarías esta “orden” o no? Adivino que, probablemente, Sam Altman no firmaría. Al menos, estaría muy, muy indeciso. ¿Por qué? Porque una opción más barata y eficiente está justo frente a él, ¿y eso no le hace sentir atraído? Porque el precio es solo una pequeña parte de todo el proceso. En la inversión en tecnología empresarial, se debe considerar desde el marco TCO (costo total de propiedad). No solo incluye el precio más directo, sino también varios costos indirectos y ocultos.
cárceles invisibles con costos de migración que alcanzan miles de millones de dólares
Si OpenAI realmente cambiara de NVIDIA a AMD, ¿qué sucedería? En resumen, los costos laborales, los costos de migración de código, los costos operativos y los costos de oportunidad aumentarían significativamente. Y cualquier cambio podría determinar directamente la vida o la muerte.
Piensa en ello, si cambias de plataforma, ¿qué pasará con esos mil ingenieros de primer nivel? ¿Acaso toda su experiencia de más de diez años se borrará de un día para otro, y tendrán que empezar a aprender desde cero? ¿Cuánto costará eso en capacitación? ¿Y qué pasa con esos millones de líneas de código? No es tan simple como “copiar y pegar”. Es como si quisieras cultivar lichis del sur en el norte. No se trata solo de desenterrar y llevarlos; también hay que hacer una gran cantidad de investigación, pruebas y gastar mucho tiempo. Así es la IA, al final, no se sabe si funcionará o no.
Además, el cambio de plataforma implica operar y mantener simultáneamente dos plataformas completamente diferentes. Los costos involucrados podrían duplicarse. Lo más grave, y también el mayor riesgo, es que el costo de oportunidad es demasiado alto. En la carrera de la IA, cada segundo cuenta. Si, debido al cambio de plataforma, se retrasa el desarrollo o el lanzamiento del modelo por varios meses, es muy probable que se pase de ser un líder de la industria a un seguidor.
Lista de costos ocultos para cambiar de plataforma de OpenAI
Costo de mano de obra: mil ingenieros reentrenados, experiencia reiniciada, costo de tiempo de varios años
Migración de código: cientos de miles de líneas de código CUDA necesitan ser reescritas, la prueba y validación son laboriosas.
Mantenimiento de dos plataformas: Durante el período de migración, se operan simultáneamente dos sistemas, lo que duplica los costos.
Costo de oportunidad: Un retraso en el progreso de I+D en comparación con los competidores puede hacer que uno pase de ser líder a ser seguidor.
Costo de riesgo: La falla en la migración puede resultar en una disminución del rendimiento del modelo, y el impacto comercial es difícil de estimar.
Por lo tanto, al sumar todos los costos directos e indirectos, se ha logrado el resultado de “bloquear al proveedor”. En otras palabras, estoy atando todo, desde el software hasta el hardware, firmemente contigo. A largo plazo, esta es la mejor solución para las empresas de IA, ya que no tendrán que preocuparse por el hardware durante el tiempo de contrato futuro. Ahora, al mirar de nuevo el pedido de AMD de “30% más de rendimiento y a la mitad de precio”, ¿todavía te parece atractivo? La respuesta es negativa. Los millones de dólares ahorrados en hardware son insignificantes en comparación con los posibles costos de migración que pueden alcanzar decenas de miles de millones de dólares y los riesgos estratégicos potenciales.
Windows de la era de AI del ecosistema CUDA
(fuente:X)
Hasta aquí, deberías haber descubierto que lo que realmente atrapa a los clientes de NVIDIA no es su hardware. Sino una “jaula” invisible e intocable. Esa es la CUDA, conocida como “la muralla de NVIDIA”. CUDA significa Compute Unified Device Architecture (Arquitectura Unificada de Dispositivos de Cómputo). En otras palabras, es un conjunto de herramientas de programación que permite a los programadores utilizar mejor las GPU de NVIDIA.
Si decimos que la GPU de Nvidia es el “ordenador principal” de la era de la IA, entonces CUDA es el “sistema Windows” de la era de la IA. Piénsalo, ¿por qué durante décadas, a pesar de que técnicamente podría ser mejor y es gratuito, Linux no ha podido desafiar el dominio de Windows en el mercado de escritorio personal? La respuesta no está en el sistema en sí, sino en el ecosistema.
Porque el enorme ecosistema de aplicaciones en Windows es demasiado poderoso. Desde la suite de Microsoft Office, hasta Adobe, y varios programas especializados de la industria, todos están intrínsecamente relacionados con todo el ecosistema. Imagina una empresa que necesita utilizar muchos programas especializados; ¿qué elección haría entre el costo de comprar una licencia de Windows y el costo de reentrenar a los empleados? La respuesta es evidente.
CUDA, así es, tiene un ecosistema de aplicaciones inmenso. Para muchas empresas y personas, esta es una opción imprescindible. Según estadísticas, hasta ahora, más de 4.5 millones de desarrolladores en todo el mundo están utilizando CUDA para desarrollar. Y en 2020, esta cifra era de 1.8 millones. La cantidad de descargas del paquete de herramientas CUDA alcanza cientos de miles cada mes.
20 años de apuestas desde que nadie las veía con buenos ojos hasta que se volvieron irremplazables
En 2006, cuando CUDA fue lanzado, nadie prestó atención, tanto Silicon Valley como Wall Street no lo veían con buenos ojos. En 2008, debido a la crisis financiera, las acciones de NVIDIA cayeron más del 80%, con una capitalización de mercado de alrededor de 4 mil millones. Incluso dentro de NVIDIA, había divisiones sobre el futuro de CUDA. Al mismo tiempo, el costo de desarrollar CUDA también fue muy alto. La primera GPU de NVIDIA que soportó CUDA fue la G80. Para desarrollar este chip, NVIDIA dedicó 4 años completos, con un costo que alcanzó los 475 millones de dólares, lo que representó un tercio del presupuesto total de I+D de esos 4 años.
En ese momento, realmente estaba en juego la vida o la muerte. ¿Qué hacer? Jensen Huang pensó en una solución: invertir dinero. El enfoque era invertir dinero en escuelas e instituciones de investigación. A través de donaciones y donaciones de equipos, permitió que CUDA ingresara a las universidades, primero cultivando usuarios en los campos de educación e investigación. Además, estableció varios centros de I+D y enseñanza de CUDA en todo el mundo, así como cursos de enseñanza. En ese momento, el costo de I+D invertido en CUDA era de más de 500 millones de dólares al año.
A pesar de gastar enormes esfuerzos, recursos materiales y financieros, CUDA no fue bien visto durante mucho tiempo. A principios de 2013, muchos analistas de inversión creían que solo al renunciar a CUDA y volver al negocio central de los videojuegos de PC, el precio de las acciones de NVIDIA podría aumentar. Incluso, algunos cuestionaban si Jensen Huang, el CEO, podría seguir al mando. Ahora, a la vista de los hechos, CUDA de NVIDIA fue una apuesta. Además, él acertó en su apuesta.
¿Por qué CUDA ha pasado de ser ignorado a ser muy solicitado? Porque los graduados que han aprendido CUDA han ingresado a empresas tecnológicas, y los recursos de la comunidad y las bibliotecas de código de CUDA se han vuelto cada vez más ricos. Para 2015, ya había 800 universidades en todo el mundo que ofrecían cursos de CUDA. Con el tiempo, los escenarios de uso de CUDA se han expandido desde las universidades a más campos como la medicina y el comercio. En cuanto a su conexión con el campo de la inteligencia artificial, se puede decir que es pura “coincidencia”.
En 2012, en una competencia global de reconocimiento de imágenes de IA organizada por la Universidad de Stanford, un grupo de tres personas de la Universidad de Toronto presentó una red neuronal de IA llamada AlexNet, ganando el campeonato. Además, su tasa de precisión fue un 41% más alta que la del segundo lugar. ¿Cómo lo lograron? El equipo dijo que usaron 2 GPU NVIDIA GTX 580, y también fueron el único equipo en toda la competencia que utilizó CUDA para entrenar la red neuronal.
En ese momento, Google también prestó atención a este equipo. Descubrieron que AlexNet, utilizando solo dos tarjetas gráficas GPU, obtenía resultados casi idénticos a los que Google había logrado entrenando con 16,000 CPU. Pronto, toda la industria se dio cuenta de que las GPU son el mejor hardware para soportar la IA. Y NVIDIA, muy probablemente, se convertirá en la clave para el desarrollo de la IA.
Lucha de los rivales: AMD de código abierto, Intel segmentado, Google desarrollado internamente
Una vez que entiendas CUDA, al observar a los competidores de NVIDIA, te darás cuenta de que cada uno de sus pasos está estrictamente controlado por NVIDIA. Por ejemplo, AMD eligió el código abierto. Desarrolló una plataforma de código abierto llamada ROCm, cuyo objetivo es reemplazar CUDA. Sin embargo, es como el “Linux de la era de la IA”, gratuito, de código abierto, con potencial técnico, y más barato. Pero para los usuarios, el costo de migración es demasiado alto.
Por ejemplo, Intel elige segmentar el mercado. Intel es muy inteligente, ya que reconoce directamente que NVIDIA está muy por delante en el mercado de alta gama de IA. Así que Intel posiciona su serie de chips Gaudi en los mercados de inferencia empresarial y entrenamiento de modelos pequeños y medianos. Pero esto también significa que Intel ha renunciado a la parte más rentable del mercado de chips de IA.
Por ejemplo, Google eligió una postura de confrontación. Investopedia ha reportado que la margen de beneficio bruto de Nvidia en la venta de GPU es de aproximadamente 80%, lo que en la industria se llama “impuesto de Nvidia”. Para evitar pagar un alto sobreprecio, Google comenzó a desarrollar internamente en 2015, utilizando una ecosistema de computación llamado TPU. En comparación, el TPU está profundamente vinculado a la plataforma interna de Google, lo que no afecta la posición de Nvidia.
Así que, como ves, esos competidores gigantes no están simplemente compitiendo en rendimiento, sino en estrategia. Todos están buscando formas de eludir CUDA, eludir Nvidia. Pero al menos por ahora, nadie puede desafiar. Todos los retadores están rodeando la montaña, esto en sí mismo es la más alta expresión de respeto hacia esta montaña difícil de escalar.
Consejos para emprendedores: la trampa es insustituible
NVIDIA pasó de ser ignorada a ser objeto de atención masiva hoy en día. Este camino ha sido realmente asombroso. En línea, algunas personas expresan su preocupación: el aumento de NVIDIA ha sido tan alto, es demasiado exagerado, ¿podría ser una burbuja? ¿Podría ser el segundo Cisco? Durante el período de la burbuja de Internet en el año 2000, Cisco era un proveedor de hardware de red, y en su punto máximo, su valoración superó 150 veces su relación precio-beneficio proyectada. Pero después de la explosión de la burbuja, cayó en picada.
En realidad, hay diferencias fundamentales. Cisco se enfrenta a un mercado de construcción “único”. Cuando se completó la “instalación de tuberías” de Internet en sus inicios, el crecimiento de Cisco se detuvo naturalmente. Por otro lado, NVIDIA se enfrenta a un mercado en constante crecimiento. Al menos en la actualidad, la IA sigue creciendo, por lo que esta “carrera armamentista” no muestra señales de un final. Más importante aún, los clientes de NVIDIA son gigantes como Microsoft, Google y Meta, que no escatiman en gastos. Para ellos, comprar chips de NVIDIA no es una opción, sino una necesidad para sobrevivir en la era de la IA.
Por supuesto, no podemos predecir lo que sucederá en el futuro. Quizás algún día, de repente aparezca un nuevo algoritmo que haga que las GPU también se vuelvan irrelevantes, cambiando por completo las reglas del juego. Pero al menos en este momento, podemos aprender una lección muy importante de Nvidia. ¿Cuál es tu foso? No se trata de preguntarse: “¿Es mi producto mejor, más rápido y más barato que el de la competencia?” Sino de preguntar: “¿Mi producto tiene un ecosistema del que los clientes no puedan separarse?”
En realidad, la capitalización de mercado de 5 billones de dólares de Nvidia es la respuesta más contundente a esta pregunta. Demuestra la lógica central más simple y, a la vez, más importante en el mundo empresarial. La muralla más profunda no se construye con precios y rendimiento, sino que debes volverte irremplazable.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¡NVIDIA crea olas de 5 billones de dólares! CUDA cierra la muralla y ninguna empresa de IA en el mundo puede escapar.
El 30 de octubre, la capitalización de mercado de NVIDIA superó los 5 billones de dólares, convirtiéndose en la única empresa en el mundo en alcanzar este hito. Sin embargo, a pesar de la conmoción, surgió una gran confusión: si la industria de los chips de IA es tan rentable, ¿por qué solo NVIDIA está ganando dinero? La respuesta radica en la fortaleza que NVIDIA ha construido durante casi 20 años: CUDA, esta arquitectura unificada de dispositivos de computación ha asegurado a más de 4.5 millones de desarrolladores en todo el mundo.
Los rivales de Nvidia son todos expertos de alto nivel, ¿por qué aún nadie puede competir?
¿Realmente tiene NVIDIA competidores? Sí. Muchos. Y todos son expertos de primer nivel. Mirando a nuestro alrededor, al menos podemos contar tres “competidores” de gran peso. Por ejemplo, AMD. Ha sido un viejo rival de NVIDIA en el campo de los semiconductores durante décadas. En términos de tecnología y experiencia, es sin duda uno de los jugadores más calificados para enfrentarse a NVIDIA. Por ejemplo, Intel. Fue el “rey de los chips” en su momento. Tiene una gran capacidad de fabricación y una amplia base de clientes. Por ejemplo, Google. Prácticamente tiene recursos ilimitados y un equipo de IA de primer nivel en el mundo. Además, está desarrollando su propio chip de IA especializado.
Mira, entre estos tres gigantes, ¿cuál no tiene un nombre que resuena en todo el mundo? Sin embargo, esto también ha agudizado el problema: en la mesa de juego claramente todos son expertos, pero las fichas, parecen estar en manos de un solo jugador. ¿Por qué es eso?
Primero, la respuesta: porque NVIDIA utiliza un sistema con un alto “costo de migración”, mantiene a sus clientes firmemente atados. Podrías decir que eso se debe a que los chips de NVIDIA son los más rápidos y los mejores. Pero en realidad, esta respuesta no es lo suficientemente rigurosa. Imagina esta escena: la CEO de AMD, Lisa Su, entra a la oficina de OpenAI y le hace una propuesta muy atractiva al CEO Sam Altman. AMD tiene un nuevo chip GPU que es un 30% más eficiente que el B200 de NVIDIA, y además, es la mitad de precio.
Si ahora fueras Sam Altman, ¿firmarías esta “orden” o no? Adivino que, probablemente, Sam Altman no firmaría. Al menos, estaría muy, muy indeciso. ¿Por qué? Porque una opción más barata y eficiente está justo frente a él, ¿y eso no le hace sentir atraído? Porque el precio es solo una pequeña parte de todo el proceso. En la inversión en tecnología empresarial, se debe considerar desde el marco TCO (costo total de propiedad). No solo incluye el precio más directo, sino también varios costos indirectos y ocultos.
cárceles invisibles con costos de migración que alcanzan miles de millones de dólares
Si OpenAI realmente cambiara de NVIDIA a AMD, ¿qué sucedería? En resumen, los costos laborales, los costos de migración de código, los costos operativos y los costos de oportunidad aumentarían significativamente. Y cualquier cambio podría determinar directamente la vida o la muerte.
Piensa en ello, si cambias de plataforma, ¿qué pasará con esos mil ingenieros de primer nivel? ¿Acaso toda su experiencia de más de diez años se borrará de un día para otro, y tendrán que empezar a aprender desde cero? ¿Cuánto costará eso en capacitación? ¿Y qué pasa con esos millones de líneas de código? No es tan simple como “copiar y pegar”. Es como si quisieras cultivar lichis del sur en el norte. No se trata solo de desenterrar y llevarlos; también hay que hacer una gran cantidad de investigación, pruebas y gastar mucho tiempo. Así es la IA, al final, no se sabe si funcionará o no.
Además, el cambio de plataforma implica operar y mantener simultáneamente dos plataformas completamente diferentes. Los costos involucrados podrían duplicarse. Lo más grave, y también el mayor riesgo, es que el costo de oportunidad es demasiado alto. En la carrera de la IA, cada segundo cuenta. Si, debido al cambio de plataforma, se retrasa el desarrollo o el lanzamiento del modelo por varios meses, es muy probable que se pase de ser un líder de la industria a un seguidor.
Lista de costos ocultos para cambiar de plataforma de OpenAI
Costo de mano de obra: mil ingenieros reentrenados, experiencia reiniciada, costo de tiempo de varios años
Migración de código: cientos de miles de líneas de código CUDA necesitan ser reescritas, la prueba y validación son laboriosas.
Mantenimiento de dos plataformas: Durante el período de migración, se operan simultáneamente dos sistemas, lo que duplica los costos.
Costo de oportunidad: Un retraso en el progreso de I+D en comparación con los competidores puede hacer que uno pase de ser líder a ser seguidor.
Costo de riesgo: La falla en la migración puede resultar en una disminución del rendimiento del modelo, y el impacto comercial es difícil de estimar.
Por lo tanto, al sumar todos los costos directos e indirectos, se ha logrado el resultado de “bloquear al proveedor”. En otras palabras, estoy atando todo, desde el software hasta el hardware, firmemente contigo. A largo plazo, esta es la mejor solución para las empresas de IA, ya que no tendrán que preocuparse por el hardware durante el tiempo de contrato futuro. Ahora, al mirar de nuevo el pedido de AMD de “30% más de rendimiento y a la mitad de precio”, ¿todavía te parece atractivo? La respuesta es negativa. Los millones de dólares ahorrados en hardware son insignificantes en comparación con los posibles costos de migración que pueden alcanzar decenas de miles de millones de dólares y los riesgos estratégicos potenciales.
Windows de la era de AI del ecosistema CUDA
(fuente:X)
Hasta aquí, deberías haber descubierto que lo que realmente atrapa a los clientes de NVIDIA no es su hardware. Sino una “jaula” invisible e intocable. Esa es la CUDA, conocida como “la muralla de NVIDIA”. CUDA significa Compute Unified Device Architecture (Arquitectura Unificada de Dispositivos de Cómputo). En otras palabras, es un conjunto de herramientas de programación que permite a los programadores utilizar mejor las GPU de NVIDIA.
Si decimos que la GPU de Nvidia es el “ordenador principal” de la era de la IA, entonces CUDA es el “sistema Windows” de la era de la IA. Piénsalo, ¿por qué durante décadas, a pesar de que técnicamente podría ser mejor y es gratuito, Linux no ha podido desafiar el dominio de Windows en el mercado de escritorio personal? La respuesta no está en el sistema en sí, sino en el ecosistema.
Porque el enorme ecosistema de aplicaciones en Windows es demasiado poderoso. Desde la suite de Microsoft Office, hasta Adobe, y varios programas especializados de la industria, todos están intrínsecamente relacionados con todo el ecosistema. Imagina una empresa que necesita utilizar muchos programas especializados; ¿qué elección haría entre el costo de comprar una licencia de Windows y el costo de reentrenar a los empleados? La respuesta es evidente.
CUDA, así es, tiene un ecosistema de aplicaciones inmenso. Para muchas empresas y personas, esta es una opción imprescindible. Según estadísticas, hasta ahora, más de 4.5 millones de desarrolladores en todo el mundo están utilizando CUDA para desarrollar. Y en 2020, esta cifra era de 1.8 millones. La cantidad de descargas del paquete de herramientas CUDA alcanza cientos de miles cada mes.
20 años de apuestas desde que nadie las veía con buenos ojos hasta que se volvieron irremplazables
En 2006, cuando CUDA fue lanzado, nadie prestó atención, tanto Silicon Valley como Wall Street no lo veían con buenos ojos. En 2008, debido a la crisis financiera, las acciones de NVIDIA cayeron más del 80%, con una capitalización de mercado de alrededor de 4 mil millones. Incluso dentro de NVIDIA, había divisiones sobre el futuro de CUDA. Al mismo tiempo, el costo de desarrollar CUDA también fue muy alto. La primera GPU de NVIDIA que soportó CUDA fue la G80. Para desarrollar este chip, NVIDIA dedicó 4 años completos, con un costo que alcanzó los 475 millones de dólares, lo que representó un tercio del presupuesto total de I+D de esos 4 años.
En ese momento, realmente estaba en juego la vida o la muerte. ¿Qué hacer? Jensen Huang pensó en una solución: invertir dinero. El enfoque era invertir dinero en escuelas e instituciones de investigación. A través de donaciones y donaciones de equipos, permitió que CUDA ingresara a las universidades, primero cultivando usuarios en los campos de educación e investigación. Además, estableció varios centros de I+D y enseñanza de CUDA en todo el mundo, así como cursos de enseñanza. En ese momento, el costo de I+D invertido en CUDA era de más de 500 millones de dólares al año.
A pesar de gastar enormes esfuerzos, recursos materiales y financieros, CUDA no fue bien visto durante mucho tiempo. A principios de 2013, muchos analistas de inversión creían que solo al renunciar a CUDA y volver al negocio central de los videojuegos de PC, el precio de las acciones de NVIDIA podría aumentar. Incluso, algunos cuestionaban si Jensen Huang, el CEO, podría seguir al mando. Ahora, a la vista de los hechos, CUDA de NVIDIA fue una apuesta. Además, él acertó en su apuesta.
¿Por qué CUDA ha pasado de ser ignorado a ser muy solicitado? Porque los graduados que han aprendido CUDA han ingresado a empresas tecnológicas, y los recursos de la comunidad y las bibliotecas de código de CUDA se han vuelto cada vez más ricos. Para 2015, ya había 800 universidades en todo el mundo que ofrecían cursos de CUDA. Con el tiempo, los escenarios de uso de CUDA se han expandido desde las universidades a más campos como la medicina y el comercio. En cuanto a su conexión con el campo de la inteligencia artificial, se puede decir que es pura “coincidencia”.
En 2012, en una competencia global de reconocimiento de imágenes de IA organizada por la Universidad de Stanford, un grupo de tres personas de la Universidad de Toronto presentó una red neuronal de IA llamada AlexNet, ganando el campeonato. Además, su tasa de precisión fue un 41% más alta que la del segundo lugar. ¿Cómo lo lograron? El equipo dijo que usaron 2 GPU NVIDIA GTX 580, y también fueron el único equipo en toda la competencia que utilizó CUDA para entrenar la red neuronal.
En ese momento, Google también prestó atención a este equipo. Descubrieron que AlexNet, utilizando solo dos tarjetas gráficas GPU, obtenía resultados casi idénticos a los que Google había logrado entrenando con 16,000 CPU. Pronto, toda la industria se dio cuenta de que las GPU son el mejor hardware para soportar la IA. Y NVIDIA, muy probablemente, se convertirá en la clave para el desarrollo de la IA.
Lucha de los rivales: AMD de código abierto, Intel segmentado, Google desarrollado internamente
Una vez que entiendas CUDA, al observar a los competidores de NVIDIA, te darás cuenta de que cada uno de sus pasos está estrictamente controlado por NVIDIA. Por ejemplo, AMD eligió el código abierto. Desarrolló una plataforma de código abierto llamada ROCm, cuyo objetivo es reemplazar CUDA. Sin embargo, es como el “Linux de la era de la IA”, gratuito, de código abierto, con potencial técnico, y más barato. Pero para los usuarios, el costo de migración es demasiado alto.
Por ejemplo, Intel elige segmentar el mercado. Intel es muy inteligente, ya que reconoce directamente que NVIDIA está muy por delante en el mercado de alta gama de IA. Así que Intel posiciona su serie de chips Gaudi en los mercados de inferencia empresarial y entrenamiento de modelos pequeños y medianos. Pero esto también significa que Intel ha renunciado a la parte más rentable del mercado de chips de IA.
Por ejemplo, Google eligió una postura de confrontación. Investopedia ha reportado que la margen de beneficio bruto de Nvidia en la venta de GPU es de aproximadamente 80%, lo que en la industria se llama “impuesto de Nvidia”. Para evitar pagar un alto sobreprecio, Google comenzó a desarrollar internamente en 2015, utilizando una ecosistema de computación llamado TPU. En comparación, el TPU está profundamente vinculado a la plataforma interna de Google, lo que no afecta la posición de Nvidia.
Así que, como ves, esos competidores gigantes no están simplemente compitiendo en rendimiento, sino en estrategia. Todos están buscando formas de eludir CUDA, eludir Nvidia. Pero al menos por ahora, nadie puede desafiar. Todos los retadores están rodeando la montaña, esto en sí mismo es la más alta expresión de respeto hacia esta montaña difícil de escalar.
Consejos para emprendedores: la trampa es insustituible
NVIDIA pasó de ser ignorada a ser objeto de atención masiva hoy en día. Este camino ha sido realmente asombroso. En línea, algunas personas expresan su preocupación: el aumento de NVIDIA ha sido tan alto, es demasiado exagerado, ¿podría ser una burbuja? ¿Podría ser el segundo Cisco? Durante el período de la burbuja de Internet en el año 2000, Cisco era un proveedor de hardware de red, y en su punto máximo, su valoración superó 150 veces su relación precio-beneficio proyectada. Pero después de la explosión de la burbuja, cayó en picada.
En realidad, hay diferencias fundamentales. Cisco se enfrenta a un mercado de construcción “único”. Cuando se completó la “instalación de tuberías” de Internet en sus inicios, el crecimiento de Cisco se detuvo naturalmente. Por otro lado, NVIDIA se enfrenta a un mercado en constante crecimiento. Al menos en la actualidad, la IA sigue creciendo, por lo que esta “carrera armamentista” no muestra señales de un final. Más importante aún, los clientes de NVIDIA son gigantes como Microsoft, Google y Meta, que no escatiman en gastos. Para ellos, comprar chips de NVIDIA no es una opción, sino una necesidad para sobrevivir en la era de la IA.
Por supuesto, no podemos predecir lo que sucederá en el futuro. Quizás algún día, de repente aparezca un nuevo algoritmo que haga que las GPU también se vuelvan irrelevantes, cambiando por completo las reglas del juego. Pero al menos en este momento, podemos aprender una lección muy importante de Nvidia. ¿Cuál es tu foso? No se trata de preguntarse: “¿Es mi producto mejor, más rápido y más barato que el de la competencia?” Sino de preguntar: “¿Mi producto tiene un ecosistema del que los clientes no puedan separarse?”
En realidad, la capitalización de mercado de 5 billones de dólares de Nvidia es la respuesta más contundente a esta pregunta. Demuestra la lógica central más simple y, a la vez, más importante en el mundo empresarial. La muralla más profunda no se construye con precios y rendimiento, sino que debes volverte irremplazable.