IA

El CEO de Nvidia afirma que sus chips de IA evolucionan más rápido que la Ley de Moore

📺 ¡Rebajas LG! Mediamarkt tira los precios de TVs, frigoríficos y más durante 3 días [ Saber más ]

La innovación en el mundo de la tecnología no se detiene, y Nvidia parece estar liderando el camino.

Según su CEO, Jensen Huang, los chips de inteligencia artificial (IA) de la compañía están avanzando a un ritmo que supera los estándares establecidos por la famosa Ley de Moore, un principio que guió el progreso en la computación durante décadas.

TE INTERESA:
Fugatto: La herramienta de IA que promete sonidos nunca antes escuchados

 

¿Qué es la Ley de Moore?

La Ley de Moore fue propuesta por Gordon Moore, cofundador de Intel, en 1965. Establecía que el número de transistores en un chip de computadora se duplicaría aproximadamente cada año, lo que también duplicaría su rendimiento.

Este principio impulsó grandes avances en la tecnología a lo largo de décadas, haciendo los dispositivos más potentes y accesibles. Sin embargo, en los últimos años, esta tendencia ha mostrado signos de desaceleración.

 

Nvidia: Innovando más allá del estándar

Jensen Huang asegura que Nvidia no solo está manteniendo el ritmo, sino superándolo. En una reciente entrevista, Huang destacó que los sistemas de Nvidia avanzan «mucho más rápido que la Ley de Moore». Un ejemplo de ello es el GB200 NVL72, su último superchip para centros de datos, que es entre 30 y 40 veces más rápido en tareas de inferencia de IA que su predecesor, el H100.

Según Huang, este progreso no se debe únicamente al desarrollo de chips más potentes, sino a la capacidad de Nvidia para innovar en toda la «pila tecnológica», incluyendo la arquitectura, los sistemas, las bibliotecas y los algoritmos.

 

Respondiendo a las dudas sobre el futuro de la IA

En un momento en que algunos expertos cuestionan si los avances en IA se están ralentizando, Huang rechaza esa idea. Según él, hay tres «leyes de escalado de IA» que están impulsando el progreso:

  1. Pre-entrenamiento: El proceso inicial donde los modelos aprenden patrones a partir de grandes cantidades de datos.

  2. Post-entrenamiento: Ajustes específicos utilizando métodos como la retroalimentación humana.

  3. Computación en tiempo de inferencia: La capacidad de un modelo de tomar más tiempo para «razonar» al responder preguntas.

Huang subraya que la computación en tiempo de inferencia es crucial, y que el rendimiento mejorado de los chips reducirá los costos de estas tareas, haciendo que la IA sea más accesible.

 

Desafíos de la inferencia y el camino hacia adelante

Aunque los modelos de IA que utilizan computación en tiempo de inferencia son costosos de operar hoy en día, Nvidia confía en que su tecnología ayudará a reducir significativamente estos costos. Un ejemplo notable es el modelo o3 de OpenAI, cuyo alto costo operativo ha generado preocupaciones. Huang asegura que con chips más avanzados, estos costos disminuirán con el tiempo, permitiendo que más personas y empresas adopten esta tecnología.

 

Más allá de los límites conocidos

El progreso de Nvidia no solo es notable por su velocidad, sino por su alcance. Según Huang, los chips de la compañía han mejorado 1,000 veces en los últimos 10 años, un ritmo que supera ampliamente los estándares establecidos por la Ley de Moore. Esta trayectoria sugiere que Nvidia seguirá desempeñando un papel clave en la evolución de la IA, impactando tanto en la industria como en nuestra vida cotidiana.

Con su capacidad para innovar en múltiples niveles y un enfoque claro en el rendimiento y la accesibilidad, Nvidia está redefiniendo lo que es posible en el mundo de la tecnología. Según Huang, «aún estamos en los comienzos de lo que la IA puede lograr».

🎄 ¡Rebajas CDKeyLord! ¡Consigue Windows 10/11 y Office a precios de escándalo! [ Saber más ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario