Yo estaba viéndome este video, muy interesante sobre la IA, pero sigo estando seguro de que la IA va a seguir cagándola en algún punto del proceso. Da igual lo compleja que la hagas
La suposición de que corregir los errores es darle más potencia a la IA, lo único que va a crear es nuevos problemas donde también se equivocará. O incluso cambiarle el dataset, o la manera en la que "piensa", pero los errores son inevitables. Incluso si entrenas una IA para reconocer estos errores y crear soluciones, también la cagará
Puedes tener una IA que evolucione tanto que se cargue a la humanidad de manera inconsciente. Sí, quizá. Pero no vas a tener nunca jamás una IA que esté exenta de cagarla en algún punto del proceso.
Y si además el proceso se vuelve tan complejo que ni siquiera los humanos te puedan decir cómo puñetas la ha cagado, entonces jamás tendrás a una IA que pueda pasar con éxito más allá de ese punto. Incluso si se pone a sacar soluciones por fuerza bruta, los humanos ya no te pueden ayudar a marcar las soluciones válidas y las inválidas.
A lo que dice en el final del video sobre que en el conocimiento conjunto de la humanidad, siempre hay un humano que sabe hacer una de las cosas. Yo creo firmemente que suplantar a esa persona que sabe hacer X, por una IA, que además la puede cagar. En algún momento de toda esa complejidad va a cargarse el "algoritmo de la humanidad"