Bueno, hay nueva IA gratuita de generación de vídeo que funciona en modo local y que se une a la otra que estoy utilizando últimamente (Hunyuan).
En este caso es "Cosmos" de NVidia, y su particularidad es que a pesar de tener menos calidad que Hunyuan tiene la capacidad de hacer img2vid, vamos... Que puedes meterle una foto o imagen y la pone a moverse.
Aquí probé a meter una imagen de la serie Shogun y una foto de Sydney Sweeney...
El rayo raro es porque el prompt que metió la LLM indicaba que se transformara en algo futurista, pero como el vídeo es corto en eso se quedó 😂
La ventaja es que puedes elegir el último fotograma de un vídeo y hacerlo más largo, y repetir la operación tantas veces como quieras.
El problema es que me parece muy inestable... Dejo el último vídeo inspirado en Warhammer 40K que hice con Hunyuan, el cual con Cosmos hubiese tardado la vida porque el cabrón es una tómbola en sus resultados (la mitad de las veces te sale bien y la mitad mal) sin embargo Hunyuan suele tener una tasa más aceptable en su calidad).
Hacer un vídeo similar con Cosmos me hubiese llevado el doble de disgustos y el doble de tiempo... Hubiese sido una tortura 😂
El problema es que Hunyuan carece por completo de img2vid, así que si quieres alargar un vídeo o animar alguna imagen que ya tengas pues te tienes que joder (hay gente que trastea y hace trucos para intentarlo, pero no son reales y cambian la imagen).
Por su parte Cosmos aparte de generar vídeo a texto (como Hunyuan) tiene img2img, pero su contrapartida es que a cambio hace muchas cosas raras y no es tan bueno como Hunyuan (las manos fallan más, hace más cosas raras, es más lento, y la lía mucho más en general).
Resumiendo, si alguien quiere un modelo de imagen a vídeo en modo local Cosmos de momento es lo que hay (pero lo cierto es que hay mucho margen de mejora), para todo lo demás a nivel local Hunyuan es lo mejor que tenemos ahora mismo.