Artyom La latencia no es un problema cuando el server lo tienes al lado.
No todo el mundo tiene el server al lado, yo mismo estoy en África... Seguramente a un Australianos tampoco le mole.
La latencia si representa un coñazo con la IA, lo primero es que el servidor tiene que recibir tu orden, ejecutar el juego y generar el frame, y enviarlo a nuestra casa, eso ya es la primera latencia (la que tenemos todos ahora mismo si juegas en la nube) y ya se nota, si le sumas algo como RTX neural faces la cosa sería...
Enviar la petición, generar el frame (hasta aquí es lo mismo), a lo que se tendría que añadir que la IA ejecute RTX neural faces (más ms y más latencia), que los combinase (más ms aún), y ya de nuevo volveríamos a la parte compartida de enviar el frame final a tu pantalla.
No vas a tardar lo mismo que ejecutando a nivel local, de hecho por eso mismo NVidia se rompió el culo para a nivel local intentar reducir las latencias utilizando Nvidia Reflex, ya que el uso de DLSS ya añade milisegundos de latencia, si agregas generación de frames más milisegundos, y si añades algo como Neural faces aún más... Y si encima sumas a todo eso la latencia de la red... Si logras tener un hardware que hace lo mismo en menos tiempo y en tu casa te libras de un servidor que puede estar saturado.
Pues no se macho, pero vamos a volver a la época del CS 1.6 como cuando la red fallaba, pegabas un tiro, y lo veías aparecer a los dos segundo porque la red no aguantaba ni con su alma.
Cada proceso que añadas va a dar latencia y va a hacer más peticiones (y cuanta más gente lo haga más saturado va a estar todo), así que si yo tengo un hardware en mi casa que me lo hace de inmediato no tardaré nada y no dependeré de esa red... Pero el ejemplo más sencillo lo tenemos ahora con la generación de imágenes o vídeo, donde hay colas de espera porque la capacidad es limitada, y eso que en una caso que no necesitas una respuesta rápida en tiempo real (como es el caso de los videojuegos).
Yo para hacer este vídeo hubiese tenido que esperar mil colas de espera o pagar y gastar tokens como un cabrón, generar 6 minutos descartando las partes que no te convencen al final te saldría bastante caro utilizando RunwayML o alguna cosa similar...
Lo hice a nivel local, con menos tiempos de espera, sin gastar en tokens, y sin pagar una mierda a nadie (excepto la factura de la luz).
No, la intención de NVidia con la IA no es que te conectes a la nube de Microsoft, la intención de NVidia es venderte su hardware para que la tengas en tu casa, e ir mejorando una y otra vez el hardware para vendértelo cada 2 o 4 años...