Vangel depende de qué arquitectura uses, pero con la IA el problema no es la inferencia, si no el entrenamiento. Por eso hay modelos que se pueden poner en cuatro chips mal puestos si haces el entrenamiento en otro sitio, que es lo realmente costoso.
Por ponerte un ejemplo, algunas arquitecturas MobileNet tienen un peso inferior a los cien megas porque tienen apenas dos docenas de capas con lo que caben en cualquier sitio. El problema es que aunque sean sencillas, entrenarlas puede llevar días.
Igualmente, respecto a lo de DeepSeek, es indiferente que lleven sacando tiempo modelos open source, si lo que no es creible es que les haya salido tan barato. Hay algo ahí que no cuentan (y esto asumiendo que las grandes corpos de IA usanas inflan también sus precios)