www.transicionestructural.NET es un nuevo foro, que a partir del 25/06/2012 se ha separado de su homónimo .COM. No se compartirán nuevos mensajes o usuarios a partir de dicho día.
0 Usuarios y 1 Visitante están viendo este tema.
Cita de: Cadavre Exquis en Marzo 28, 2023, 07:14:54 amhttps://www.pressreader.com/spain/la-vanguardia-dinero/20230326/page/17/textviewGPT-4 está aquí: ¿qué vamos a hacer?Saludos.A mí en particular me llama la atención lo del tema legal.En un ámbito en el que hay que ser puntilloso e ir a la literalidad del texto, vamos a utilizar una técnica que es fundamentalmente incontrolable.Eso quiere decir que van a aparecer casos en los que cuando haya que hacer un recurso o cualquier texto del estilo, habrá que sacar el texto que se quiera y luego habrá que repasar minuciosamente el texto de salida, no vaya a ser que por una alteración de la redacción o directamente una invención del modelo la interpretación del texto en cuestión no tenga nada que ver con lo que debería decir, o también citas no literales de la ley, inferencias ilógicas, y otro montón de artefactos conocidos que no se deben a lo "currado" que está el modelo, sino a la limitación de esta técnica.Si yo escribo un documento, y luego tengo que pasar horas revisando que no haya una trampa, y además esa trampa está hábilmente camuflada por la aparente coherencia del texto, en la práctica no estoy mejor que antes. De hecho estoy peor.En la programación pasa tres cuartos de lo mismo, aunque en este caso los errores son más sencillos de observar, ya que el programa no hará lo que debe hacer. Lo que mucha gente no parece haberse enterado es que escribir código es mucho más fácil que leerlo. Si tengo que andar buscando zancadillas en el código, no ahorro gran cosa. Además, la fiabilidad de lo producido dependerá directamente de lo frecuentes y correctas que sean las respuestas relacionadas en el corpus de texto que utilice para entrenar el modelo (y obviando asuntos como la arquitectura general del proyecto en el que esté trabajando, que el modelo no tiene cómo saber). Por lo que si lo que le solicito es algo único o en un lenguaje poco popular, va a fallar mucho más.Esta situación será similar a la de los coches autónomos: está de puta madre el 99% del tiempo, pero el 1% restante que sería trivial para un humano para la máquina es imposible o confuso por que esta técnica no da para más (falta, como digo, el sentido común y no hay un modelo mental como tal). Y resulta que ese 1%, el "trivial", es imprescindible para que sirva para tareas significativas o críticas.
https://www.pressreader.com/spain/la-vanguardia-dinero/20230326/page/17/textviewGPT-4 está aquí: ¿qué vamos a hacer?Saludos.
Si yo escribo un documento, y luego tengo que pasar horas revisando que no haya una trampa, y además esa trampa está hábilmente camuflada por la aparente coherencia del texto, en la práctica no estoy mejor que antes. De hecho estoy peor.En la programación pasa tres cuartos de lo mismo, aunque en este caso los errores son más sencillos de observar, ya que el programa no hará lo que debe hacer. Lo que mucha gente no parece haberse enterado es que escribir código es mucho más fácil que leerlo. Si tengo que andar buscando zancadillas en el código, no ahorro gran cosa. Además, la fiabilidad de lo producido dependerá directamente de lo frecuentes y correctas que sean las respuestas relacionadas en el corpus de texto que utilice para entrenar el modelo (y obviando asuntos como la arquitectura general del proyecto en el que esté trabajando, que el modelo no tiene cómo saber). Por lo que si lo que le solicito es algo único o en un lenguaje poco popular, va a fallar mucho más.
Cita de: pollo en Marzo 28, 2023, 12:54:10 pmSi yo escribo un documento, y luego tengo que pasar horas revisando que no haya una trampa, y además esa trampa está hábilmente camuflada por la aparente coherencia del texto, en la práctica no estoy mejor que antes. De hecho estoy peor.En la programación pasa tres cuartos de lo mismo, aunque en este caso los errores son más sencillos de observar, ya que el programa no hará lo que debe hacer. Lo que mucha gente no parece haberse enterado es que escribir código es mucho más fácil que leerlo. Si tengo que andar buscando zancadillas en el código, no ahorro gran cosa. Además, la fiabilidad de lo producido dependerá directamente de lo frecuentes y correctas que sean las respuestas relacionadas en el corpus de texto que utilice para entrenar el modelo (y obviando asuntos como la arquitectura general del proyecto en el que esté trabajando, que el modelo no tiene cómo saber). Por lo que si lo que le solicito es algo único o en un lenguaje poco popular, va a fallar mucho más.con la incorporación de modelos GPT y similares puede ocurrir como con la fiebre del outsourcingen ambos casos, se basan en observaciones positivas que son reales, como son las diferencias salariales y el hecho de que los resultados son muy positivos en determinadas circunstanciasen ambos casos, se ignoran observaciones negativas como son la existencia de fricción en las comunicaciones, el hecho de que no se pueda garantizar un rendimiento dado, o que el trabajo compuesto por dos trabajos separados puede costar tanto o más coordinarlo que hacerlo desde ceroyo a veces pregunto cosas a chatGPT y me sorprendo de lo bien que me puede funcionar en algunas ocasiones, y esto es habiendo investigado en transformers y antes en LSTMs etc, a los mismos insiders les sorprende lo bien que funcionan los modelos LLM para ciertas cosas y cómo parece que esconden ciertos modelos de computación emergentes que están implícitos en las propias redes de alguna forma, a través del lenguajepero en otras ocasiones, sencillamente no me da un resultado satisfactorio, y no parece que con la tecnología actual lo pueda dar¿qué ocurre si lo convierto en una dependencia total y me deshago de mis "armas" para atajar ciertos problemas que son imprescindibles de resolver? pues que estoy en la mierda porque la cadena simplemente se rompe, el producto simplemente no sale, y ahora tengo que volver a re-adquirir como sea dichas armas, que pueden ser simplemente cosas olvidadas o empleados despedidos¿y qué ocurrirá en la empresa?pues los managers masters del universo culparán a los de abajo, como siempreel outsourcing no funcionando, cuando no funciona, es culpa de los managers de abajo que no saben coordinar las cosas, e incluso cuando se cancele todo el outsourcing se olvidará quién tomó la decisióny cuando los prompts a GPT o el LLM que sea no funcionen, la culpa será de que los que hacen prompts no son buenos prompt engineers, o los que hacen el tuning no son buenos haciendo tuning de modelos, o el middle manager que fuera escogió un LLM equivocado, etc
¿qué ocurre si lo convierto en una dependencia total y me deshago de mis "armas" para atajar ciertos problemas que son imprescindibles de resolver? pues que estoy en la mierda porque la cadena simplemente se rompe, el producto simplemente no sale, y ahora tengo que volver a re-adquirir como sea dichas armas, que pueden ser simplemente cosas olvidadas o empleados despedidos
Daniel Capó¿Un futuro brillante o un cuento de hadas tecnológico?«La Inteligencia Artificial será tanto un compañero de viaje como un desafío a superar. Bienvenidos a un tiempo y a un mundo desconocidos sin vuelta atrás»https://theobjective.com/elsubjetivo/opinion/2023-03-29/ia-futuro-brillante-cuento-hadas-tecnologico/
[...] Me niego a llamar a todo esto inteligencia artificial. Por supuesto que hay y habrá avances. Hace no demasiado tiempo en las empresas había profesionales específicamente entrenados en "editar" documentos triviales. Hace ya bastante que tenemos herramientas que permiten a cualquiera editar esos documentos sin ayuda de esos profesionales y, además, guardarlos en repositorios y hacerlos accesibles a otros usuarios según un sistema de permisos y mil otras virguerías. Bien, pues habrá un futuro en el que no tendrás ni que escribirlos, le darás dos prompts y los hará el ordenador y tu los revisarás y cambiarás dos palabras y según un sistema automatizado ya se encargará él de guardarlos donde haga falta y transmitirlos a quién sea.
Hay una solución: el problema está en la definición de inteligencia, ¿no?;pues definamos INTELIGENCIA como TODO AQUELLO QUE NO SABE HACER UNA MÁQUINA.
Welcome to the exciting dirigibles era of AIhttps://dileeplearning.substack.com/p/welcome-to-the-exciting-dirigibles-500