Un par de videitos.
Éste explica la estructura del pensamiento. Básicamente tiene una fórmula matemática que, tal y como lo explica, se parece más al razonamiento humano que a una máquina en sí. Capaz de reforzar argumentos lógicos por sí mismos a base del datatest construido.
Éste comenta la trampa de las 2000 NVidias, y es que han reforzado los algoritmos previos con ésto. Previsamente, éstos algoritmos estaban entrenados con una capacidad de cálculo mucho mayor. Aún así lo que hace está abierto y tiene un paper adjunto aparte, que lo hace mucho más transparente que muchas IAs americanas.
afinkado Ahora están como locos tratando de replicar lo que ha hecho DeepSeek, si en unas semanas o meses se consiguen resultados similares es una gran noticia reducir el coste de entrenamiento de estos modelos x50. Aunque igual para NVidia no es tan gran notícia.
Es un puñetazo en la mesa de forma brutal. Aunque al ser open source mejorarán todas, ésto ayudará democratizar muchos LLMs al hacerlos más asequibles.
Aparte de demostrar que la carrera de la IA no está para nada decidida, van a perjudicar a NVidia de forma indirecta (al no necesitar tanta GPU).