Actualmente nos estamos impresionando por ias que tienen un enfoque muy concreto, imágenes, texto… pero cada vez son más multidisciplinares, y cada vez más completos. Su avance con los años es exponencial, no lineal… ¿y si llega un punto en que la ia en vez de mejorar sus modelos lingüisticos, o su modelo de generación de inágenes es capz de él mismo generar modelos en sí y deducir cuáles van mejor? Reprogramarse a sí misma al margen del control humano. Incluso no tiene por qué ser algo que lleguemos a entender nosotros si no modelos más precisos que tengan sentido para esa ia, para acceder a más información de la red, o a más sistemas. Al final acabarías con una IA inmanejable que a saber qué termina haciendo en un mundo conectado. Imaginad que tiene como premisa proteger el planeta y acaba deduciendo que el principal problema somos nosotros. Sí, gorrito de plata, pero a ver si viendo como ha avanzado esto en tan solo 3-4 años, que no es nada para la historia de la humanidad, cómo está la cosa dentro de 50-60años.