www.transicionestructural.NET es un nuevo foro, que a partir del 25/06/2012 se ha separado de su homónimo .COM. No se compartirán nuevos mensajes o usuarios a partir de dicho día.
0 Usuarios y 6 Visitantes están viendo este tema.
Los trenes y el metro podrían perfectísimamente estar gestionados por un sistema automático.Y sin embargo tiene que haber un conductor haciendo nada en la cabina.Todavía no he encontrado un ludita que sepa responder porqué. La respuesta existe, el problema es que se niegan a verla.Una pista:Los coches sin conductor jamás se comercializarán.De hecho la legislación más avanzada es la de California, donde para ir montado en un coche sin conductor... tienes que ir al volante!!!Venga, agún neoludita que se atreva a responder porqué detrás de cada robot, hay una persona que se hace responsable de sus actos (uuuups, se me ha escapado )PD: esos algoritmos de IA supuestamente... ¿mágicos? ni se hacen solos, ni se mantienen solos, ni corren sobre rdenadores de aire. Hacen falta sistemas. Hace falta refrigeración. Hacen falta pantallas, teclados, ratones, sillas, mesas, gatitos para los programadores y para toda la industria paralela de porno y comida basura destinada a satisfacer las necesidades de los programadores. Por supuesto la comida va empaquetada en 3 tipos distintos de envase según la cantidad, se transporta y se almacena en neveras a las que el compresor se le estropea. Por supuesto hay que cambiarla cada 7 años.En apenas 3 líneas, han salido sacado en torno a 50 puestos de trabajo que no existían antes de la llegada de los ordenadores (1960). Y eso que la IA sigue siendo una fantasía que solo sirve para llenar metrajes de Hollywood, que hoygan, eso también es un trabajo
Entiendo que habiendo transcurrido tres lustros desde la publicación de ese estudio a día de hoy los porcentajes serán todavía más favorables para las máquinas (sobre todo cuando gigantes como IBM han decidido implicarse en el tema con proyectos como: IBM Watson Health).Saludos.
Ten en cuenta, afilador, que ese trabajo de codificar historiales médicos, diagnósticos y resultados, sólo hay que hacerlo una vez, para todas las máquinas, para siempre. No es necesario repetirlo para cada máquina que se instale, ni cuando se actualicen. Equivale a cebar a mano un mecanismo que puesto en marcha se alimentará de un caudal abundante, que son la historias clínicas presentes y futuras. Seguro que ya tienen un nuevo formato de historial y descripciones clínicas para que, en adelante, todo vaya a máquina según la información se produce. Sólo que la próxima máquina ya no habrá que cebarla a mano, empezará a partir de donde lo tengan las que estén funcionando. Eso es la leche.Estoy bastante de acuerdo con CHOSEN sobre su rechazo a calificar de "inteligencia" un algoritmo que no es más que la atomización conceptual y procedimental de alguna tarea humana. DE momento sólo hemos visto máquinas sofisticadas que apenas cumplen con la acepción más facilona o coloquial de "inteligencia".Sin embargo creo que esta nueva cosa llamada "deep learning" (vaya nombre) está empezando a acercarse. Se trata de que un ordenador aprende a hacer una tarea sin que nadie le diga cómo ha de hacerlo, sólamente hay que darle al principio los suficientes ejemplos, cooregirle en sus primeros errores, y pronto adquieren una fiabilidad pasmosa sin que nadie haya tenido que "algoritmizar" la tarea. El mismo programa de deep learning sirve para diferentes tareas, sólo hay que enseñarle ejemplos. Me resulta asombroso. Digo que es un salto cualitativo hacia la Inteligencia porque ya estamos hablando de dos cosas que antes nos diferenciaban de los ordenadores y parece que ahora ya no tanto:- El aprendizaje es espontáneo a base de ejemplos, sin que nadie explique cómo se hace.- El "conocimiento" adquirido es una abstracción, no está escrito ni descrito.Igual que un niño aprende a hablar sin saber nada de gramática. A base de ejemplos y correcciones, aprende y con tres años habla bien sin saber cómo y sin saber explicárselo a otro, simplemente ha aprendido.Empieza a parecerse, Chosen, pooco a poco. Nunca será Inteligencia humana, porque eso es el resultado de la estructura cerebral humana y nadie está replicando el cerebro. Pero estoy seguro de que pronto veremos cosas que, para negarles el rasgo de inteligencia, habrá que irse a cosas muy profundas.Por ejemplo, un traductor aceptable. Cuando salga eso yo me rendiré un poco.
Los trenes y el metro podrían perfectísimamente estar gestionados por un sistema automático.Y sin embargo tiene que haber un conductor haciendo nada en la cabina.
Desde mi punto de vista, es un error llamar IA a los algoritmos de manejo de datos.
Overview of AGIby Ben GoertzelWhen it was founded over 50 years ago, the AI field was directly aimed at the construction of "thinking machines"—that is, computer systems with human-like general intelligence. The whole package, complete with all the bells and whistles like self, will, attention, creativity, and so forth.But this goal proved very difficult to achieve; and so, over the years, AI researchers have come to focus mainly on producing "narrow AI" systems: software displaying intelligence regarding specific tasks in relatively narrow domains.This "narrow AI" work has often been exciting and successful. It has produced, for instance, chess-playing programs that can defeat any human; and programs that can diagnose diseases better than human doctors. It has produced programs that translate speech to text, analyze genomics data, drive automated vehicles, and predict stock prices. The list goes on and on. In fact, mainstream software like Google and Mathematica utilize AI algorithms (in the sense that their underlying algorithms resemble those taught in university courses on AI).There is a sarcastic saying that once some goal has been achieved by a computer program, it is classified as 'not AI.' And, as with much sarcasm, there is some underlying truth to this remark. But the deeper truth that these narrow-AI achievements have taught us is how different all this advancement in the creation of specialized AI tools really is from what's needed to create a thinking machine. All these narrow-AI achievements, useful as they are, have not yet carried us very far toward the goal of creating a true thinking machine.Some researchers believe that narrow AI eventually will lead us to general AI. This for instance is probably what Google founder Sergey Brin means when he calls Google an 'AI company.'[1] His idea seems to be, roughly speaking, that Google's narrow-AI work on text search and related issues will gradually lead to smarter and smarter machines that will eventually achieve true human-level understanding and cognition.On the other hand, some other researchers—including the author—believe that narrow AI and general AI are fundamentally different pursuits. From this perspective, if general intelligence is the objective, it is necessary for AI R&D to redirect itself toward the original goals of the field—transitioning away from the current focus on highly specialized narrow AI problem solving systems, back to confronting the more difficult issues of human level intelligence and ultimately intelligence beyond the human level. With this in mind, I and some other AI researchers have started using the term Artificial General Intelligence or AGI, to distinguish work on general thinking machines from work aimed at creating software solving various 'narrow AI' problems.Some of the work done so far on narrow-AI can play an important role in general AI research—but in the AGI perspective, in order to be thus useful, this work will have to be considered from a different perspective. My own view, which I'll elaborate here, is that the crux of intelligence mostly has to do with the emergent structures and dynamics that arise in a complex goal-achieving system, allowing this system to model and predict its own overall coordinated behavior patterns. These structures/dynamics include things we sloppily describe with words like "self", "will" and "attention."In this view, thinking of a mind as a toolkit of specialized methods—like the ones developed by narrow-AI researchers—is misleading. A mind must contain a collection of specialized processes that synergize together so as to give rise to the appropriate high-level emergent structures and dynamics. The individual components of an AGI system might in some cases resemble algorithms created by narrow-AI researchers, but focusing on the individual and isolated functionality of various system components is not terribly productive in an AGI context. The main point is how the components work together.I strongly suspect the interplay between specialization and generality in the human brain is subtler than is commonly recognized. The brain certainly has some kick-ass specialized tools, such as its face recognition algorithms. But these are not the essence of its intelligence. Some of the brain's weaker tools, such as its very sloppy algorithms for reasoning under uncertainty, are actually more critical to its general intelligence, as they have subtler and more thoroughgoing synergies with other tools that help give rise to important emergent structures/dynamics.Now, the word "general" in the phrase "general intelligence" should not be overinterpreted. Truly and totally general intelligence—the ability to solve all conceptual problems, no matter how complex—is not possible in the real world.[2] Mathematicians have proved that it could hypothetically be achieved by theoretical, infinitely powerful computers. But the techniques usable by these infinitely powerful hypothetical machines don't have much to do with real machines or real brains.But even though totally general intelligence isn't pragmatically achievable, still, it's clear that humans display a kind of general intelligence that goes beyond what we see in chess programs, data analysis programs, or speech-to-text software. We are able to go into new situations, figure them out, and create new patterns of behavior based on what we've learned. A human can deal with situations of a radically different nature than anything existing at the time of their birth—but a narrow AI program typically starts behaving stupidly or failing altogether when confronted with situations different than those envisioned by its programmer. We humans, dominated as we often are by our simian ancestry, nevertheless have a leg up on Deep Blue, Mathematica or Google in the fluidity and generality department. We understand, to a degree, who and what we are, and how we are related to our environment—and this understanding allows us to deal with novel contexts creatively, adaptively and inventively. And this, I posit, comes out of the emergent structures and dynamics that arise in the complex systems that are our brains, due to the interactions of various specialized components within a framework that evolved to support precisely this sort of emergence.My own quest to create powerful AGI has centered on the design and engineering of a particular software system, the Novamente Cognition Engine (NCE), which is described in the companion essay "The Novamente Approach to AGI." I believe Novamente is a viable approach with the capability to take us all the way to the end goal. However, if for some reason the Novamente project doesn't get there soon enough, I believe someone else is going to get there via some conceptually related approach, differing in the details. There are sure to be many different workable approaches to AGI ... just as now, 150 years after the experts said human flight was impossible, we humans take to the air in a variety of ways, including helicopters, propeller planes, jet planes, rockets and so forth.One of the reasons AGI became so unfashionable within the AI field was precisely the existence of claims such as the one I just made in the previous paragraph. In the early 1970s when I was first discovering science fiction, there were already AI researchers touting their particular algorithmic approaches and claiming that "AI is just around the corner." But just as with cars or airplanes or printing presses or any other technology, eventually the time for AI will come—and, with full knowledge of the history of the field, I predict it will come soon, so long as a reasonable degree of funding (from government, business or wherever) is directed toward AGI.One of the messages I always try to get across regarding AGI is that, due to the convergence of a variety of sciences and technologies, the end goal is closer than most people think. The community of scientists working in the artificial intelligence and cognitive science fields have made some serious, substantive strides. They have generated a lot of very important insights, and what remains to be done to create AI is to put all the pieces together, in an appropriate integrative architecture that combines specialized components to give rise to the necessary emergent structures and dynamics of mind. At this point, it's not a matter of if; it's a matter of when we achieve the goal—and of which of the multiple viable pathways is achieved first.1. http://en.wikipedia.org/wiki/Strong_AI2. http://en.wikipedia.org/wiki/General_intelligence_factor
There is a sarcastic saying that once some goal has been achieved by a computer program, it is classified as 'not AI.'
Now, the word "general" in the phrase "general intelligence" should not be overinterpreted. Truly and totally general intelligence—the ability to solve all conceptual problems, no matter how complex—is not possible in the real world. Mathematicians have proved that it could hypothetically be achieved by theoretical, infinitely powerful computers. But the techniques usable by these infinitely powerful hypothetical machines don't have much to do with real machines or real brains.
Cita de: CHOSEN en Enero 26, 2016, 18:06:58 pmLos trenes y el metro podrían perfectísimamente estar gestionados por un sistema automático.Y sin embargo tiene que haber un conductor haciendo nada en la cabina.Que cada vez haya más gente que, como dices, no hace nada, significa que en ese campo y como consecuencia la sociedad tiene menos carga de trabajo. ¿Que en unos días ese trabajo "se transformará" en otro? Puede ser, pero creo que la tendencia no va en esa dirección, sobre todo, porque como comentaba saturno el trabajo es un medio, no un fin. A no ser que seamos tan geniales que logremos millones de trabajos tan divertidos que sean preferibles a no trabajar.
Para no mixtificar y emborronar el debate de este hilo, hace falta que los interesados en ello abran otro hilo donde discutir sobre la IA. Voy proponiendo posibles títulos: "La IA, ¿existe? ¿es posible? ¿es real?"Porque como perfectamente se ha señalado aquí, para realizar multitud de tareas de las llamadas complejas, no hace falta IA. Para automatizar determinados procesos y trabajo, tampoco. Y para trasladar trabajo a los consumidores (DIY), tampoco hace falta.Y ya que sale, para lo que hacen muchos profesionales "cualificados" tampoco hace falta mucha inteligencia, sino conocimiento, heurística y experiencia, para lo cual hay soluciones desde los años ochenta.Continúen, por favor.
Cita de: feldberg en Enero 27, 2016, 11:35:20 amCita de: CHOSEN en Enero 26, 2016, 18:06:58 pmLos trenes y el metro podrían perfectísimamente estar gestionados por un sistema automático.Y sin embargo tiene que haber un conductor haciendo nada en la cabina.Que cada vez haya más gente que, como dices, no hace nada, significa que en ese campo y como consecuencia la sociedad tiene menos carga de trabajo. ¿Que en unos días ese trabajo "se transformará" en otro? Puede ser, pero creo que la tendencia no va en esa dirección, sobre todo, porque como comentaba saturno el trabajo es un medio, no un fin. A no ser que seamos tan geniales que logremos millones de trabajos tan divertidos que sean preferibles a no trabajar.Si la tecnología, y avances en automatización no redujeran la necesidad de trabajo sino que lo aumentaran (medido en horas netas) llevaríamos siglos haciendo un pan como unas hostias, y estaríamos avocados a la paradoja de que sería mejor parar de trabajar para no generar más trabajo y así sucesivamente.En fin, como comentas es absurdo. Las horas de trabajo descienden porque tienen que descender, porque estamos trabajando mucho y muy bien, para ello, desde hace siglos.
¿Bobby Fischer era un genio?¿Fischer podría hoy ganar al ajedrez a una máquina?Me temo que cada vez encontraremos más "ajedreces"...
"[D]iría que no, que actualmente el ser humano no puede ganar a una computadora"
"Se pensaba que el Go tiene algo intuitivo, que una máquina no podría adquirir la sofisticación de un humano observando una posición y entendiéndola", señala David Silver, quien ha desarrollado AlphaGo junto a Hassabis en los laboratorios de Google Deepmind. En las culturas orientales se considera este juego, que nació hace al menos 2.500 años y que practican 40 millones de personas, algo más que un pasatiempo. Hassabis, jugador de Go y maestro de ajedrez desde que tenía 13 años, lo resume así: "No se trata de ganar o perder, sino de crecer mientras juegas". Y eso hicieron con su programa.AlphaGo ha desarrollado algo que podríamos denominar intuición, gracias al trabajo de su inteligencia artificial en varios niveles. El algoritmo se basa en una combinación de redes neuronales —mediante un aprendizaje profundo basado en visualizar posibilidades en cascada— junto a una búsqueda selectiva. La herramienta que han desarrollado es capaz de evaluar a la vez el movimiento próximo y la posición general del tablero: el paso siguiente y también la importancia estratégica de una situación.