Fireshot-V bueno Gonzark, se ve que no estamos hablando de lo mismo, dije 7 veces más o menos que mi punto es en el aprendizaje de la IA y no en lo que hace con lo aprendido, y paso de quedarme en un bucle sinceramente.
En ese punto si que seguía hablando del aprendizaje (en lo del tratamiento). Para aprender la IA trata los datos y el tratamiento de datos tiene su regulación. Una IA cuando le das un cuadro, lo trata, no lo mira. Por otro lado, la IA no aprende como el ser humano. La descripción que haces en sus términos más elementales puede parecerse, pero hay muchos elementos que la singularizan.
Por eso te puede hacer un informe espectacular y luego cometer un error de bulto (soy consciente de que también a los seres humanos les pasa, pero no hablamos de los mismos tipos de errores, porque lo que en el ser humano es un descuido, en el de la IA es algo deliberado). Porque "no aprende", o aprende como hacen algunos seres humanos. Por pura mememorista, sin asimilar bien lo leído. A un estudiante de Derecho le das a leer cientos de libros y aprende Derecho, una IA cuando lee cientos libros de Derecho nunca llega a "aprender" porque ahora mismo no "razonan" como un ser humano.
Un experimento. Si yo escribo una novela en el presente y lo hago imitando a Cervantes e introduzco algún elemento moderno. ¿Qué crees que pasaría? ¿Al ver la palabra lavadora detectaría que es moderno o el resto le despistarían y se quedaría con que el habla es antigua? Las IA aprenden muy rápido, pero hoy por hoy sus puntos ciegos reflejan las diferencias con los humanos. Porque a un ser humano le basta la palabra lavadora para comprender que el texto es moderno. La IA, por como aprende, no siempre tendrá con eso suficiente. Al caso de las personas negras y los gorilas me remito. ¿Cómo aprendió que era un gorila para que no pueda ver que un ser humano no lo es? Se que son IAs ya muy antiguas para los estándares actuales. Pero esas IAs primitivas ya clasificaban las fotos más rápido que cualquier ser humano. Ya eran prodigiosas a su manera, pero también mostraban algunos fallos que todavía hoy se dan, aunque con menos frecuencia. Y para mi el problema es de base, porque solo superficialmente IAs y seres humanos aprenden igual. Como lee un libro una IA y como lee un libro una persona no es igual.
He visto ya los resultados de IAs legales y sus fallos no son propios de alguien que hubiera leído todo lo que ha leído. Un ser humano nunca cometería ese error, pero una IA sí. Cuanto mejores son, menos caen en eso, pero al final está en la raíz de su proceso de aprendizaje. Tienen ventajas respecto a los seres humanos porque pueden asimilar cantidades de información ingentes mucho más rápido que un ser humano, pero también es un proceso más "tonto".
Fireshot-V . ¿Por qué entonces para que aprenda una IA de literatura tengo que tener el copyright de esos libros?
Porque un ser humano corrompe la información cuando la aprende, mientras que IA la trata de forma integra. Una persona al leer un libro aprende de él, pero pierde muchos datos en el camino. Porque el olvido forma parte de los mecanismos del cerebro. Yo he leído tu mensaje y he aprendido cosas, pero me quedo con el sentido general, no con el todo. Una IA por su capacidad, puede no perder nada. También por eso el entrenamiento en sus primeras fases ha tenido que ser más tutorizado. Porque para aprender que era un árbol podía caer mucho en el "literalismo" de las imágenes de muestra. Un ser humano no necesita que le recuerden que las ramas de los arboles no crecen siempre de la misma forma, determinadas IA sí. Ahora que ya han superado esas fases iniciales, no son tan habituales esos errores de bultos, pero las legales cometen fallos de ese tipo. Porque no comprenden la información. La IA simula comprender la información, pero su manera de aprender se basa más en procesos estadísticos que en una lectura crítica de lo que se le trasmite. El ser humano tiene un juicio crítico en el aprendizaje, que la IA solo tiene en la medida que el programador se lo trasmita.
https://elpais.com/tecnologia/2018/01/14/actualidad/1515955554_803955.html
A las IA se les da mucho mejor replicar que a los seres humanos por la forma en que aprenden. Porque una persona que aprenda de Picasso, no necesariamente será capaz de hacer un cuadro igual que él suyo al 100%. Una IA sí. Y no estoy hablando aquí del resultado, sino de como el aprendizaje luego afecta a los resultados.
https://www.hd-tecnologia.com/un-youtuber-muestra-como-chatgpt-puede-ser-enganada-para-obtener-claves-de-activacion-de-windows-95/
Un caso de engaño de una IA que a mi forma de ver refleja que no aprenden igual que nosotros. A la IA le pides la tarea ilegal, y se niega. Pero se la descompones en partes y no se entera.
Si yo le digo "hazme una bomba" dirá "no". Pero descompuesta parte por parte, es posible que no se de cuenta de que todo suma una bomba y que está ejecutando una orden ilegal. Que la polvora que le he pedido no es para hacer un castillo de fuegos artificiales. Un ser humano que hubiera aprendido de que se compone una bomba, deduciría tras una primera petición ilegal, que la polvora es para la bomba. O incluso sin la primera petición ilegal, conforme se fueran acumulando ingredientes, al final las pistas le llevarían antes de conluir el proceso a ver que es una bomba y debe parar. Algunas IA parece que no son conscientes de ello y están siendo utilizadas para llevar a cabo actos ilegales.
Esto son resultados, lo se, pero de nuevo que puedan generar esos resultados tiene que ver con el hecho de que solo fingen entender la información que manejan. No hay una conciencia real ahí y eso influye en como se asimila la información.
Un ultimo ejemplo. Al generar imagenes vemos aun fallos importantes como dos focos de luz, sombras dibujadas de forma distinta según el objeto, dobles manos derechas, etc. Son fallos que se dan menos y cada vez se darán menos. Pero un ser humano que hubiera visto todas las imagenes que una IA, sabría cosas básicas. Una IA te puede hacer un dibujo de altisimo nivel con errores de primaria. Y eso, una vez más, tiene que ver por la forma de "aprender". Porque una IA y una persona viendo un dibujo no van a extraer la misma información, ni la van a analizar de la misma forma. Quizá en un futuro se creen IAs humanas, que piensen igual que los humanos, pero con capacidad de asimilación propias de una IA. Pero de momento no es así ni remotamente.
Y llegamos a lo que te decía al final. Como las IA no son personas sino maquinas, todos los datos que se les aportan, se consideran que son tratados. Hablamos de aprendizaje por analogía al ser humano, pero juridicamente el aportar información una IA tiene el mismo tratamiento que si metes información a un programa. Es como la gasolina de una maquina. No se piensa en ella como una persona que aprende, sino como una maquina a la que se le alimenta con datos, con valor económico que hay que pagar. Igual que si cogieras las manzanas del vecino.
No tiene sentido tratar igual el proceso de aprendizaje humano que el robótico como si fueran lo mismo, porque no lo son fuera de un esquema muy básico.
QuentinTarantiros Los estilos no se patentan ni plagian, por ejemplo tienes mucho artistas que utilizan un estilo cubista, pero el estilo cubista no es propiedad de Picasso.
Los estilos no se plagian, pero si dibujas al 100% como otra persona, eso es algo más que estilo. Ya se han visto IAs que han aprendido solo en base a un autor, de modo que hacen calcos (con errores) de ese trabajo. No es que se parezca. Es su dibujo. Uno puede ser cubista y no poner las rayas al mismo grosor que Picasso. O no poner exactamente la misma cantidad de pintura. Una IA sí. Porque no funcionamos igual. Un ser humano tiene factores que una IA no. Dos personas que cojan el pincel y hagan el mismo dibujo no lo harán exactamente igual. Factores como el pulso, el carácter, etc. Uno cogerá más pintura, otro menos. A primera vista parecerán idénticos, pero luego habrá muchas pequeñas diferencias. Por eso las falsificaciones a ojos de expertos no son fáciles de colar, salvo cuando las hacen falsificadores de gran nivel, que pueden captar todo esos manierismos. Una IA no tiene problemas de pulso con el pincel o el ratón, ni todo ese tipo de pequeñas cosas que podrían introducir variaciones.