Pero para Nvidia, la empresa que se volvió el gran termómetro financiero de este auge, el negocio que redefine su siguiente década no está sólo en las pantallas ni en el texto, sino en las máquinas que tendrán que entender el mundo físico y actuar dentro de él. Esto de acuerdo con Ian Buck, vicepresidente de computación hiperescalable y de alto rendimiento (CUDA, por sus siglas en inglés).
“El futuro más lucrativo de la IA no pasa únicamente por modelos entrenados con el internet, sino por sistemas capaces de aprender en simulación para luego conducir un auto, mover un robot, asistir en una fábrica o interactuar en un hospital”, señaló Buck en una entrevista con Expansión.
El ejecutivo plantea una transición que ayuda a entender por qué Nvidia habla cada vez menos sólo de GPUs y cada vez más de plataformas completas.
Durante años, la empresa construyó su poder en los videojuegos, centros de datos, el entrenamiento de modelos y la capa de software que volvió a la división que lidera Buck casi indispensables.
“El origen de CUDA fue como una apuesta de largo plazo por librerías, compiladores y comunidad técnica, cuando todavía no era un negocio obvio. Esa lógica, sin embargo, ya no alcanza para el corazón de la robótica, la conducción autónoma y la simulación industrial”, precisó Buck.
A diferencia de los modelos entrenados sobre texto e imagen para conversar con humanos, estos sistemas buscan entender las reglas del entorno, como la física, la distancia, el movimiento, la relación entre objetos, la secuencia de eventos.