sora63 Unos pocos, los que usen bien la IA, tengan autocontrol... Tendrán mucha información y capacidad de análisis.
Venía a decir algo así. De hecho venía a tirarme un triple:
Bien usada (lo cual implica saber mínimamente como funciona por debajo (Tokenización, trainings, embeddings, ...); cosa que no es fácil, también hay que decirlo) solo se me ocurren dos cosas comparables en la historia: la imprenta e internet.
Neiugla Yo en mi sector no le veo ningún uso de momento, creo que quizá es demasiado técnico/específico a nivel de leyes y normativa. A veces cuando he tenido dudas se las he planteado y, tras soltarme toda la parrafada, me he ido a las fuentes que cita y el contenido de las mismas difería enormemente de lo que el chatgpt me había dicho, o directamente me citaba leyes que estaban derogadas o me cogía una frase, me la descontextualizaba por completo y se inventaba el resto.
Mira, un ejemplo perfecto del "bien usada y sabiendo como funciona". Al final, simplificando mucho, un LLM tipo chat GPT solo es un mondongo gigantesco de información que interpreta un input y te tira un output palabra a palabra asumiendo que palabra es más probable que venga en base a ese mondongo gigantesco de información.
Si le preguntas cosas muy específicas es posible que no tenga esa información, pero si información parecida, y a partir de ahí se va a inventar todo ya que son las palabras más "probables" que aparecen.
Sin hacer segundos checks, puede ser un peligro, si.