ragnarok21 Entonces crees que pueden perder juicios como el de Wall Street Journal contra OpenAI? Porque está claro que han usado sus artículos para entrenar los modelos pero también pueden argumentar que no es tan diferente de alguien leyéndolos y haciendo su propio artículo juntando ideas.
Lo de que no es muy diferente a que lo lean es fácil de rebatir, aunque supongo que contraargumentarían con cosas que no tengo en en cuenta ahora. Utilizamos la palabra "aprender" como analogía respecto a los procesos humanos, pero una IA nunca llega a aprender lo que lee. De ahí su tendencia a alucinar. Si yo te doy a leer un texto donde dice que los reptiles son de sangre fría, acabarás aprendiendo algo. La IA aprenderá a predecir cuando debe decir que un reptil tiene sangre fría, aunque no sepa ni que es un reptil, ni la sangre ni el frío.
Pero dejando a un lado el tema técnico, ahora mismo hay una jurisprudencia en EEUU que podría servir de base para que ganen esos casos que mencionas. El problema para mí más que jurídico es fáctico. Hay ese miedo de "poner freno al progreso". Es curioso como para montar una panadería tienes que someterte a unas normas, pero con las IA la corriente de que no tiene sentido ha calado mucho. Y eso es algo que influye a jueces y legisladores. Alemanía, Francia e Italia querían poner menos trabas a IAs como ChatGP.
Luego el tema Ragnarok es que citan incluso información de los muros de pago. Información actual. Eso es un punto débil que les costará resolver. Han sido poco sutiles de tal forma que es demasiado evidente que no están respetando las condiciones de uso. Por algo Microsoft ha llegado ya a acuerdos con Axel Spring y con otros grupos para poder usas sus datos. Porque han empezado a ver las orejas al lobo. Con esos acuerdos pueden defender más que tal información no la han sacado de los demandantes sino de aquellos a los que pagan. Pero claro esto es ahora, los acuerdos no existían en general en la fase del entrenamiento.