QuentinTarantiros Claro que no, el modelo se genera a partir de los datos de entrenamiento, luego la IA con ese modelo entrenado genera un resultado, si entreno un modelo solo con ópera pues me generará solo óperas, pero si lo entrenamos con un conjunto de estilos variados elm modelo será más flexible.
No exactamente, dos cosas, la primera:
-La IA no es algo aparte del propio modelo, puedes añadirle más cosas al modelo o integrarlo en un sistema, pero la IA no usa el modelo... la IA, o la parte de IA de un sistema es dicho modelo. (En el tercer párrafo usas mejor la terminología)
La segunda:
-El modelo no se genera a partir de unos datos sin más. Se utiliza el entrenamiento para afinar los pesos de una arquitectura o conjunto de arquitecturas escogidas y afinadas para algo en específico. Y ahí es a donde vamos:
QuentinTarantiros La IA tiene exactamente el mismo problema que nuestro cerebro, nadie sabe muy bien lo que pasa en nuestra cabeza al 100% aunque conocemos muchas cosas de como funciona, y con las IA está pasando un poco lo mismo, nadie sabe al 100% que está pasando dentro de la caja negra aunque sabemos muchas cosas de como funciona.
Esto NO es cierto. Ya lo he dicho antes y creo que se están confundiendo cosas. El cómo funcionan esos modelos y esas IAs es algo que se sabe perfectamente, han sido desarrolladas por nosotros. Se conocen los procesos y mecanismos que siguen y cómo operan. Cuando se habla de que son cajas negras y que no son explicativas nos referimos a que el número de parámetros involucrados es tan ingente y tan grande que no se puede hacer ingeniería inversa (o sería muy costosa) para explicar cada detalle de su respuesta. La razón por la que no se usan IAs no explicables en sectores críticos como el militar o el sanitario es porque sus respuestas son estadísticas y eso es un problema muy gordo a la hora de atribuir responsabilidades ante un fallo.
Por ponerte un ejemplo, si dejas caer arena de un cubo en la playa, te va a ser muy difícil calcular qué va a hacer cada grano de arena en cada momento hasta estar en reposo, pero eso no significa que estadísticamente no puedas decir cual va a ser el resultado del conjunto ni que no sepas cuales son las leyes que rigen la interacción entre cada uno de ellos. Es lo mismo con la IA.
Esto NO ocurre con el cerebro, sobrevaloráis mucho la capacidad que tenemos para entender cómo funciona y también sobrevaloráis mucho las capacidades de la IA. Continuamente se descubren cosas nuevas en neurociencia que no hacen más que reafirmar lo poco que sabemos sobre el funcionamiento del cerebro (no sabemos cómo funciona nuestro razonamiento abductivo, algo que la IA no tiene, por supuesto, y miles de cosas más) . Una IA no es capaz de hacer nada para lo que no esté especialmente diseñada y entrenada (un ser humano sí y algunos animales también) y para hacer lo que hace necesita una cantidad abrumadora de recursos ¿sabes cuanto consume el cerebro humano para hacer cientos de cosas diferentes? cerca de 0.3kWh ¿y cuanto consume una herramienta como dall-e de media? 128kWh sólo para hacer imágenes (sin tener en cuenta el coste del entrenamiento, sólo para la inferencia) 426 veces más siendo infinitamente más limitado (porque sí, saber copiar y pegar imágenes, por bien que lo haga, es algo muy limitado, pensar que no es así equivaldría a creer que un microprocesador es mucho más inteligente que nosotros porque hace millones de operaciones aritméticas por segundo)
Muy, muy, pero que MUY discutible lo del contenido original. Pídele que te haga algo con un estilo que nadie haya hecho, a ver si puedes. Por lo pronto a nivel legal no se considera que sea contenido original.