www.transicionestructural.NET es un nuevo foro, que a partir del 25/06/2012 se ha separado de su homónimo .COM. No se compartirán nuevos mensajes o usuarios a partir de dicho día.
0 Usuarios y 4 Visitantes están viendo este tema.
Cita de: Starkiller en Marzo 31, 2014, 18:59:10 pmEl ajedrez no representa inteligencia.La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.Una de las formas de analizar una posición es imaginar una disposición de piezas acorde a la posición que ofrezca ventaja, y analizar cómo llegar a ella, es decir, se empieza el análisis por el final.Ver la posición final ganadora y analizar los variables para llegar, es curiosamente el ejercicio espiritual y mental de practica habitual en el foro, se desea un final la TE, y se analizan los caminos para llegar.Pd: He sido campeón regional jugando al ajedrez, hace años que lo dejé.
El ajedrez no representa inteligencia.La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.
Lo que está sucediendo es que nos están sometiendo a un proceso de *saqueo* CALCADO, a los procesos neoliberales que practicaron con latinoamérica con la excusa de la "crisis de la deuda" desde los 70, 80 y 90
Cita de: Starkiller en Marzo 31, 2014, 18:59:10 pmEl ajedrez no representa inteligencia.La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.Una de las formas de analizar una posición es imaginar una disposición de piezas acorde a la posición que ofrezca ventaja, y analizar cómo llegar a ella, es decir, se empieza el análisis por el final.
inteligencia.(Del lat. intelligentĭa).1. f. Capacidad de entender o comprender. LA IA ES SÓLO FACHADA. *2. f. Capacidad de resolver problemas. LA IA ES UNA REALIDAD3. f. Conocimiento, comprensión, acto de entender. (el acto de la acepción 1, deberían ir pegadas)4. f. Sentido en que se puede tomar una sentencia, un dicho o una expresión. (no aplicable a la discusión)5. f. Habilidad, destreza y experiencia. LA IA ES UNA REALIDAD6. f. Trato y correspondencia secreta de dos o más personas o naciones entre sí. (no aplicable)7. f. Sustancia puramente espiritual. LA IA ES SÓLO FACHADA.
Cita de: Datum en Marzo 31, 2014, 20:21:21 pmCita de: Starkiller en Marzo 31, 2014, 18:59:10 pmEl ajedrez no representa inteligencia.La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.Una de las formas de analizar una posición es imaginar una disposición de piezas acorde a la posición que ofrezca ventaja, y analizar cómo llegar a ella, es decir, se empieza el análisis por el final.Ver la posición final ganadora y analizar los variables para llegar, es curiosamente el ejercicio espiritual y mental de practica habitual en el foro, se desea un final la TE, y se analizan los caminos para llegar.Pd: He sido campeón regional jugando al ajedrez, hace años que lo dejé.El último que me ganó lo hizo con los ojos vendados .
El ajedrez no representa inteligencia.La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.Contra esa forma, ejecutada correctamente, nadie puede ganar. como mucho, se puede forzar tablas.El problema esta en que no existe la potencia de cálculo para hacer eso; luego lo que se hace es un método heurístico* de corte de ramas.Y dependiendo exclusivamente de la calidad de ese método heurístico, y de la potencia de computación, así de bueno es el cacharro que juega.Con esto lo que quiero decir es que es necio medir la inteligencia por un juego en el que el jugador definitivo es, matemáticamente, una máquina.Además, que cojones, si los ajedrecistas profesionales funcionan igual: predicen muchas jugadas de adelanto, y saben podar rápidamente el arbol (Si hago estas quince jugadas se que pierdo, estas veinte no tienen sentido, me quedan estas tres para elegir).Por otro lado, teniendo en cuenta que trabajo en cosillas remótamente relacionadas, mi opinión acerca del tema es:1. Ni la IA es una panacea que vayamos a ver a corto plazo...2. Ni es el montón de humo que afirma pollo.Por ejemplo, creo que es realtivamente factible que en menos de diez años tengamos un software que te permita manejar verbalmente la domótica de tu casa, que te grabe tu programa preferido, que si le pides la cotización de la bolsa de Tombuctu sepa buscartela en internet, y que incluso ahga charcarrillos contigo.¿Eso es una IA? No, es un interfaz de comandos natural, con capacidad de simulación de personalidad. Un montón de trucos, cuentas de la vieja y ñapas que, en conjunto, funcionarán razonablemente bien.________*Heurístico, en informática, es la forma técnica de decir "A calzón quitaó", "por la cuenta de la vieja" o "me da a mi que va a ser mas o menos así...".
El ajedrez es ante todo un deporte intelectual donde la habilidad prima.También hay quien asevera que es una ciencia.Y como todos los deportes si se entrenan desde edades tempranas mejor que mejor, de hecho los grandes maestros fueron grandes jugadores de niños (algún que otro crío de 10 años me ha puesto en más de un compromiso).También hay quienes lo consideran un arte.Sin plan y estrategia ya puedes ser todo lo inteligente que quieras que tienes todos los números para perder.Con lo psicológico también juegas; en el momento que has detectado una falta en el juego influye en el posterior desarrollo de la partida. Esto es algo que Deep Blue no lo sufrirá. Luego tenemos la personalidad, y esta sí está codificada en según qué partidas por la máquina; no es lo mismo estudiar una partida de Capablanca (verdadero artista del ajedrez) que otra de karpov (técnico y analítico). Cuando estudias este juego sabes diferenciar las partidas de estos genios de la misma forma que distingues a Bach de Beethoven.Y todo ello sin contar la preparación física. Un simple resfriado afecta en el juego e influye en el resultado. Pero quiero hacer hincapié en la personalidad del jugador. Si eres agresivo en la vida tus partidas se ejecutarán combativas, si por el contrario eres apocado tus partidas se desarrollarán temerosas y, sobre todo, traicioneras; suelen ser jugadores que diseñan emboscadas.
Cita de: Datum en Marzo 31, 2014, 20:21:21 pmCita de: Starkiller en Marzo 31, 2014, 18:59:10 pmEl ajedrez no representa inteligencia.La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.Una de las formas de analizar una posición es imaginar una disposición de piezas acorde a la posición que ofrezca ventaja, y analizar cómo llegar a ella, es decir, se empieza el análisis por el final.Pero eso tiene en cuenta el jugador que tienes en frente.Como nadie puede hacer el cálculo perfecto, se toman mil estrategias. Y todas ellas tienen un enorme componente intelectual y un gran mérito.Pero matemáticamente, y si se tuviera toda la potencia de computación pura (matemática) necesaria, se podría hacer el programa de ajedrez imbatible.Lo que pasa es que no se tiene.No niego la enorme capacidad intelectual requerida para jugar al ajedrez sin ser seres perfectos matemáticos, ni la enorme nobleza del juego (Aunque yo personalmente soy mas de Go, pero eso son gustos). Lo que intento decir es que un juego que es matemáticamente modelable hasta su última consecuencia, no es el mejor ejemplo para representar la inteligencia consciente.
Cita de: Starkiller en Marzo 31, 2014, 20:35:28 pmCita de: Datum en Marzo 31, 2014, 20:21:21 pmCita de: Starkiller en Marzo 31, 2014, 18:59:10 pmEl ajedrez no representa inteligencia.La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.Una de las formas de analizar una posición es imaginar una disposición de piezas acorde a la posición que ofrezca ventaja, y analizar cómo llegar a ella, es decir, se empieza el análisis por el final.Pero eso tiene en cuenta el jugador que tienes en frente.Como nadie puede hacer el cálculo perfecto, se toman mil estrategias. Y todas ellas tienen un enorme componente intelectual y un gran mérito.Pero matemáticamente, y si se tuviera toda la potencia de computación pura (matemática) necesaria, se podría hacer el programa de ajedrez imbatible.Lo que pasa es que no se tiene.No niego la enorme capacidad intelectual requerida para jugar al ajedrez sin ser seres perfectos matemáticos, ni la enorme nobleza del juego (Aunque yo personalmente soy mas de Go, pero eso son gustos). Lo que intento decir es que un juego que es matemáticamente modelable hasta su última consecuencia, no es el mejor ejemplo para representar la inteligencia consciente.Te explico por encima el concepto de la diferencia entre máquina y humano.Lo primero es salir cuanto antes de la teoría de apertura con alguna linea que ofrezca igualdad, se consigue que la máquina no use los libros de teoría de apertura y la base de datos.Se intenta llevar el juego a un estilo posicional, donde el puro calculo no lleva a posiciones ganadoras, se obliga a la máquina a valorar posiciones y lo que más le jode, elaborar un plan..Se intenta conseguir ligera ventaja sin meterse en lineas que lleven a variantes forzadas donde predomine el calculo, y así poco a poco aumentando la ligera ventaja se intentan conseguir ventaja definitiva y explotarla. Tuve cierta amistad con GM (Gran maestro) rusos que jugaban en equipos locales cobrando y te puedo asegurar que no pude apreciar fuera del tablero más inteligencia de lo normal.
Así que no, no es humo, pero sí que hay mucha venta de humo, y en mi opinión demasiada confianza en los sistemas "inteligentes". A mí al menos siempre me han acabado decepcionando, y tengo por seguro que nunca confiaría mi vida a algo lo suficientemente complejo como para que su creador no pueda comprender el 100% de lo que hace su programa por dentro si lo para con un debugger.Esto es algo que se ve rápidamente con cosas como el reconocimiento de rostros, en el que ya dejamos el mundo de la infalibilidad reconfortante de los programas clásicos y ya entramos en el terreno de las tasas de acierto y error.
A mí al menos siempre me han acabado decepcionando, y tengo por seguro que nunca confiaría mi vida a algo lo suficientemente complejo como para que su creador no pueda comprender el 100% de lo que hace su programa por dentro si lo para con un debugger.
El problema es que el significado nunca o casi nunca es equivalente, ya que hay multitud de matices, connotaciones y problemas a la hora de traducir, ya que un ordenador traduce palabras y frases y un traductor bueno (no alguien que chapurrea) traduce conceptos y además usa contexto, tiene cultura, y entiende lo que está traduciendo, cosas imprescindibles para traducir algo correctamente.
In a unique laboratory in Sussex, England, a computer carefully scrutinized every member of large and diverse set of candidates. Each was evaluated dispassionately, and assigned a numeric score according to a strict set of criteria. This machine's task was to single out the best possible pairings from the group, then force the selected couples to mate so that it might extract the resulting offspring and repeat the process with the following generation. As predicted, with each breeding cycle the offspring evolved slightly, nudging the population incrementally closer to the computer's pre-programmed definition of the perfect individual.The candidates in question were not the stuff of blood, guts, and chromosomes that are normally associated with evolution, rather they were clumps of ones and zeros residing within a specialized computer chip. As these primitive bodies of data bumped together in their silicon logic cells, Adrian Thompson —the machine's master— observed with curiosity and enthusiasm.Dr. Adrian Thompson is a researcher operating from the Department of Informatics at the University of Sussex, and his experimentation in the mid-1990s represented some of science's first practical attempts to penetrate the virgin domain of hardware evolution. The concept is roughly analogous to Charles Darwin's elegant principle of natural selection, which describes how individuals with the most advantageous traits are more likely to survive and reproduce. This process tends to preserve favorable characteristics by passing them to the survivors' descendants, while simultaneously suppressing the spread of less-useful traits.Dr. Thompson dabbled with computer circuits in order to determine whether survival-of-the-fittest principles might provide hints for improved microchip designs. As a test bed, he procured a special type of chip called a Field-Programmable Gate Array (FPGA) whose internal logic can be completely rewritten as opposed to the fixed design of normal chips. This flexibility results in a circuit whose operation is hot and slow compared to conventional counterparts, but it allows a single chip to become a modem, a voice-recognition unit, an audio processor, or just about any other computer component. All one must do is load the appropriate configuration.The informatics researcher began his experiment by selecting a straightforward task for the chip to complete: he decided that it must reliably differentiate between two particular audio tones. A traditional sound processor with its hundreds of thousands of pre-programmed logic blocks would have no trouble filling such a request, but Thompson wanted to ensure that his hardware evolved a novel solution. To that end, he employed a chip only ten cells wide and ten cells across —a mere 100 logic gates. He also strayed from convention by omitting the system clock, thereby stripping the chip of its ability to synchronize its digital resources in the traditional way.He cooked up a batch of primordial data-soup by generating fifty random blobs of ones and zeros. One by one his computer loaded these digital genomes into the FPGA chip, played the two distinct audio tones, and rated each genome's fitness according to how closely its output satisfied pre-set criteria. Unsurprisingly, none of the initial randomized configuration programs came anywhere close. Even the top performers were so profoundly inadequate that the computer had to choose its favorites based on tiny nuances. The genetic algorithm eliminated the worst of the bunch, and the best were allowed to mingle their virtual DNA by swapping fragments of source code with their partners. Occasional mutations were introduced into the fruit of their digital loins when the control program randomly changed a one or a zero here and there.For the first hundred generations or so, there were few indications that the circuit-spawn were any improvement over their random-blob ancestors. But soon the chip began to show some encouraging twitches. By generation #220 the FPGA was essentially mimicking the input it received, a reaction which was a far cry from the desired result but evidence of progress nonetheless. The chip's performance improved in minuscule increments as the non-stop electronic orgy produced a parade of increasingly competent offspring. Around generation #650, the chip had developed some sensitivity to the 1kHz waveform, and by generation #1,400 its success rate in identifying either tone had increased to more than 50%.Finally, after just over 4,000 generations, test system settled upon the best program. When Dr. Thompson played the 1kHz tone, the microchip unfailingly reacted by decreasing its power output to zero volts. When he played the 10kHz tone, the output jumped up to five volts. He pushed the chip even farther by requiring it to react to vocal "stop" and "go" commands, a task it met with a few hundred more generations of evolution. As predicted, the principle of natural selection could successfully produce specialized circuits using a fraction of the resources a human would have required. And no one had the foggiest notion how it worked.Dr. Thompson peered inside his perfect offspring to gain insight into its methods, but what he found inside was baffling. The plucky chip was utilizing only thirty-seven of its one hundred logic gates, and most of them were arranged in a curious collection of feedback loops. Five individual logic cells were functionally disconnected from the rest —with no pathways that would allow them to influence the output— yet when the researcher disabled any one of them the chip lost its ability to discriminate the tones. Furthermore, the final program did not work reliably when it was loaded onto other FPGAs of the same type.It seems that evolution had not merely selected the best code for the task, it had also advocated those programs which took advantage of the electromagnetic quirks of that specific microchip environment. The five separate logic cells were clearly crucial to the chip's operation, but they were interacting with the main circuitry through some unorthodox method —most likely via the subtle magnetic fields that are created when electrons flow through circuitry, an effect known as magnetic flux. There was also evidence that the circuit was not relying solely on the transistors' absolute ON and OFF positions like a typical chip; it was capitalizing upon analogue shades of gray along with the digital black and white.Today, researchers are just beginning to explore the real-world potential of evolving circuitry. Engineers are experimenting with rudimentary adaptive hardware systems which marry evolvable chips to conventional equipment. Such hybrids quickly adapt to new demands by constantly evolving and adjusting their control code. The space exploration industry is intrigued by the technology —an evolving system could dynamically reprogram itself to avoid any circuits damaged by radiation, reducing the need for heavy shielding and redundant systems. Similarly, researchers speculate that robots might one day use evolution-inspired systems to quickly adapt to unforeseen obstacles in their environment.Modern supercomputers are also contributing to artificial evolution, applying their massive processing power to develop simulated prototypes. The initial designs are thoroughly tested within carefully crafted virtual environments, and the best candidates are used to breed successive batches until a satisfactory solution has evolved. These last-generation designs are then fabricated and tested in the real world. NASA recently used this approach to produce the antenna for a spacegoing vessel, resulting in flamboyant-yet-effective shapes that vaguely resemble organic lifeforms —unlike anything an engineer would design without the benefit of mood-altering drugs. Scientists hope to eventually use genetic algorithms to improve complex devices such as motors and rockets, but progress is dependent upon the development of extremely accurate simulations.The two best antenna designs produced by NASA's artificial evolution softwareThese evolutionary computer systems may almost appear to demonstrate a kind of sentience as they dispense graceful solutions to complex problems. But this apparent intelligence is an illusion caused by the fact that the overwhelming majority of design variations tested by the system —most of them appallingly unfit for the task— are never revealed. According to current understanding, even the most advanced microchips fall far short of the resources necessary to host legitimate intelligence. On the other hand, at one time many engineers might have insisted that it's impossible to train an unclocked 10x10 FPGA to distinguish between two distinct audio tones.There is also an ethical conundrum regarding the notion that human lives may one day depend upon these incomprehensible systems. There is concern that a dormant "gene" in a medical system or flight control program might express itself without warning, sending the mutant software on an unpredictable rampage. Similarly, poorly defined criteria might allow a self-adapting system to explore dangerous options in its single-minded thrust towards efficiency, placing human lives in peril. Only time and testing will determine whether these risks can be mitigated. If evolvable hardware passes muster, the Sussex circuits may pave the way for a new kind of computing. Given a sufficiently well-endowed Field-Programmable Gate Array and a few thousand exchanges of genetic material, there are few computational roles that these young and flexible microchips will be unable to satisfy. While today's computers politely use programmed instructions to solve predictable problems, these adaptable alternatives may one day strip away such limits and lay bare the elegant solutions that the human mind is reluctant —or powerless— to conceive on its own.Written by Alan Bellows, posted on 27 June 2007. Alan is the founder/designer/head writer/managing editor of Damn Interesting.
Cita de: pollo en Marzo 31, 2014, 22:07:04 pmAsí que no, no es humo, pero sí que hay mucha venta de humo, y en mi opinión demasiada confianza en los sistemas "inteligentes". A mí al menos siempre me han acabado decepcionando, y tengo por seguro que nunca confiaría mi vida a algo lo suficientemente complejo como para que su creador no pueda comprender el 100% de lo que hace su programa por dentro si lo para con un debugger.Esto es algo que se ve rápidamente con cosas como el reconocimiento de rostros, en el que ya dejamos el mundo de la infalibilidad reconfortante de los programas clásicos y ya entramos en el terreno de las tasas de acierto y error.A ver, una cosa es lo que venden (El mero nombre de IA es engañoso), y otra, lo que hay.Pero vamos, que las simulaciones de x que hay son lo que son, valen para lo que valen, y avanza el tema bastante rápido. Ha estado bloqueado por mucho tiempo por diversos motivos: sin un buen reconocimiento de voz y un buen reconocimiento visual, las principales aplicaciones de ese software carecen de sentido. Ahora que eso se ha desbloqueado, debría haber muchos avances (Ya los habría habido de no ser por el gordo apestoso de Ballmer). Acerca de entenderlo... entiendes porque hace lo que hace. Coño, si tu mismo lo buscas. Otra cosa es que sea matemático, o, sobre todo, que sea intuitivo de primeras. Pero que no sea evidente, sobre todo para una mente matemática, que sea difuso, no quiere decir que sea imprevisible.
Cita de: pollo en Marzo 31, 2014, 22:07:04 pmA mí al menos siempre me han acabado decepcionando, y tengo por seguro que nunca confiaría mi vida a algo lo suficientemente complejo como para que su creador no pueda comprender el 100% de lo que hace su programa por dentro si lo para con un debugger.Sé que es un poco "a traición", pero... si consideramos que el "software" que nos gobierna a nosotros es tan complejo que, como se ha comentado en varios posts anteriores, no hemos sido capaces de comprender apenas nada sobre su funcionamiento... ¿le parece razonable confiar su vida a sí mismo? ¿Quién le dice a usted que la próxima vez que esté esperando a que se ponga en verde el semáforo para cruzar un paso de cebra, el software complejísimo que le mantiene con vida no va a entrar en el la rama equivocada del "if" y le va a impulsar a arrojarse justo delante del coche que se acerca por la izquierda a 90 km/h? Supongo que la respuesta es que, aunque teóricamente podría suceder, en la práctica, la parte del software que llevamos "hardcodeada" gracias a unos cuantos miles de millones de años de evolución (Lego lo ha mencionado en varias ocasiones y yo, a partir de ahora, me referiría a esa parte de nuestro software como nuestro firmware) está ya muy depurada y, salvo por problemas mentales realmente serios, casi seguro que esa parte del firmware que llamamos "instinto de conservación" le mantendrá a salvo de un accidente probablemente mortal.Cita de: pollo en Marzo 31, 2014, 22:28:43 pmEl problema es que el significado nunca o casi nunca es equivalente, ya que hay multitud de matices, connotaciones y problemas a la hora de traducir, ya que un ordenador traduce palabras y frases y un traductor bueno (no alguien que chapurrea) traduce conceptos y además usa contexto, tiene cultura, y entiende lo que está traduciendo, cosas imprescindibles para traducir algo correctamente.Aquí estoy totalmente de acuerdo con usted, el verdadero problema de una traducción es que el traductor debe contar con la cultura y los conocimientos precisos para ubicar la obra completa en su contexto. Algunas veces bastará con hacer una traducción prácticamente literal de una frase, otras necesitará situar la frase en el contexto del párrafo, en el del capítulo e, incluso, en el libro entero, pero una traducción realmente buena debe ir incluso más allá de la obra concreta que se está traduciendo, la obra debe ser ubicada entre el resto de las obras del autor y, este, en el lugar, la época y las circunstancias en las que sus obras fueron redactadas.La traducción de una obra como, por ejemplo, "Los miserables" de Víctor Hugo exige necesariamente un conocimiento muy profundo del autor y de sus circunstancias así como del contexto histórico (social, político, etc.) en el que fue escrita.Pero, aun siendo cierto lo dicho anteriormente, como se ha comentado en varios posts en las últimas dos páginas, la calidad de las traducciones de Google o la capacidad de Watson para desentrañar los juegos de palabras y los dobles sentidos (que son casi una norma no escrita en el concurso de Jeopardy), son suficientemente buenas como para que la máquina -que estoy de acuerdo con ustedes en que no es inteligente y se limita, mediante algoritmos muy sofisticados eso sí, a rastrear enormes bases de datos (entre las cuales, por supuesto, está la Wikipedia, una gigantesca base de datos en la que los humanos ya nos hemos encargado de enlazar los conceptos mediante hiperenlaces y, creando, cuando es necesario, innumerables páginas de desambiguación que son una herramienta valiosísima para dichos algoritmos a la hora de resolver preguntas con dosbles -o triples- sentidos y/o preguntas trampa) y, como decía, al final "da el pego" hasta el punto de vencer a las dos personas que más lejos habían llegado hasta entonces en el famoso concurso.Que sí, que Watson no sabe hacer una paella (yo, sinceramente, tampoco y por supuesto que podría aprender, pero tendría que burscar la receta en algún sitio... ¿quizás en la Wikpedia? ) pero como bien comenta Lego, quizás algún día alguien se plantée crear un interface web para Watson con el fin de que Asimo pueda interpretar frases con doble sentido mientras hace una paella según las instrucciones de la WIkipedia y, cuando Asimo te pregunte si te ha gustado y le digas que "está para chuparse los dedos" te dará las gracias en vez de pensar que te falta un tornillo Y aunque suponga cambiar un poco de tema -aunque no tanto, porque los algoritmos evolutivos son, junto con las redes neuronales, otro de los métodos más empleados en el campo de la IA- ¿Qué opinan ustedes de esto?On the Origin of CircuitsCitarIn a unique laboratory in Sussex, England, a computer carefully scrutinized every member of large and diverse set of candidates. Each was evaluated dispassionately, and assigned a numeric score according to a strict set of criteria. This machine's task was to single out the best possible pairings from the group, then force the selected couples to mate so that it might extract the resulting offspring and repeat the process with the following generation. As predicted, with each breeding cycle the offspring evolved slightly, nudging the population incrementally closer to the computer's pre-programmed definition of the perfect individual.The candidates in question were not the stuff of blood, guts, and chromosomes that are normally associated with evolution, rather they were clumps of ones and zeros residing within a specialized computer chip. As these primitive bodies of data bumped together in their silicon logic cells, Adrian Thompson —the machine's master— observed with curiosity and enthusiasm.Dr. Adrian Thompson is a researcher operating from the Department of Informatics at the University of Sussex, and his experimentation in the mid-1990s represented some of science's first practical attempts to penetrate the virgin domain of hardware evolution. The concept is roughly analogous to Charles Darwin's elegant principle of natural selection, which describes how individuals with the most advantageous traits are more likely to survive and reproduce. This process tends to preserve favorable characteristics by passing them to the survivors' descendants, while simultaneously suppressing the spread of less-useful traits.Dr. Thompson dabbled with computer circuits in order to determine whether survival-of-the-fittest principles might provide hints for improved microchip designs. As a test bed, he procured a special type of chip called a Field-Programmable Gate Array (FPGA) whose internal logic can be completely rewritten as opposed to the fixed design of normal chips. This flexibility results in a circuit whose operation is hot and slow compared to conventional counterparts, but it allows a single chip to become a modem, a voice-recognition unit, an audio processor, or just about any other computer component. All one must do is load the appropriate configuration.The informatics researcher began his experiment by selecting a straightforward task for the chip to complete: he decided that it must reliably differentiate between two particular audio tones. A traditional sound processor with its hundreds of thousands of pre-programmed logic blocks would have no trouble filling such a request, but Thompson wanted to ensure that his hardware evolved a novel solution. To that end, he employed a chip only ten cells wide and ten cells across —a mere 100 logic gates. He also strayed from convention by omitting the system clock, thereby stripping the chip of its ability to synchronize its digital resources in the traditional way.He cooked up a batch of primordial data-soup by generating fifty random blobs of ones and zeros. One by one his computer loaded these digital genomes into the FPGA chip, played the two distinct audio tones, and rated each genome's fitness according to how closely its output satisfied pre-set criteria. Unsurprisingly, none of the initial randomized configuration programs came anywhere close. Even the top performers were so profoundly inadequate that the computer had to choose its favorites based on tiny nuances. The genetic algorithm eliminated the worst of the bunch, and the best were allowed to mingle their virtual DNA by swapping fragments of source code with their partners. Occasional mutations were introduced into the fruit of their digital loins when the control program randomly changed a one or a zero here and there.For the first hundred generations or so, there were few indications that the circuit-spawn were any improvement over their random-blob ancestors. But soon the chip began to show some encouraging twitches. By generation #220 the FPGA was essentially mimicking the input it received, a reaction which was a far cry from the desired result but evidence of progress nonetheless. The chip's performance improved in minuscule increments as the non-stop electronic orgy produced a parade of increasingly competent offspring. Around generation #650, the chip had developed some sensitivity to the 1kHz waveform, and by generation #1,400 its success rate in identifying either tone had increased to more than 50%.Finally, after just over 4,000 generations, test system settled upon the best program. When Dr. Thompson played the 1kHz tone, the microchip unfailingly reacted by decreasing its power output to zero volts. When he played the 10kHz tone, the output jumped up to five volts. He pushed the chip even farther by requiring it to react to vocal "stop" and "go" commands, a task it met with a few hundred more generations of evolution. As predicted, the principle of natural selection could successfully produce specialized circuits using a fraction of the resources a human would have required. And no one had the foggiest notion how it worked.Dr. Thompson peered inside his perfect offspring to gain insight into its methods, but what he found inside was baffling. The plucky chip was utilizing only thirty-seven of its one hundred logic gates, and most of them were arranged in a curious collection of feedback loops. Five individual logic cells were functionally disconnected from the rest —with no pathways that would allow them to influence the output— yet when the researcher disabled any one of them the chip lost its ability to discriminate the tones. Furthermore, the final program did not work reliably when it was loaded onto other FPGAs of the same type.It seems that evolution had not merely selected the best code for the task, it had also advocated those programs which took advantage of the electromagnetic quirks of that specific microchip environment. The five separate logic cells were clearly crucial to the chip's operation, but they were interacting with the main circuitry through some unorthodox method —most likely via the subtle magnetic fields that are created when electrons flow through circuitry, an effect known as magnetic flux. There was also evidence that the circuit was not relying solely on the transistors' absolute ON and OFF positions like a typical chip; it was capitalizing upon analogue shades of gray along with the digital black and white.Today, researchers are just beginning to explore the real-world potential of evolving circuitry. Engineers are experimenting with rudimentary adaptive hardware systems which marry evolvable chips to conventional equipment. Such hybrids quickly adapt to new demands by constantly evolving and adjusting their control code. The space exploration industry is intrigued by the technology —an evolving system could dynamically reprogram itself to avoid any circuits damaged by radiation, reducing the need for heavy shielding and redundant systems. Similarly, researchers speculate that robots might one day use evolution-inspired systems to quickly adapt to unforeseen obstacles in their environment.Modern supercomputers are also contributing to artificial evolution, applying their massive processing power to develop simulated prototypes. The initial designs are thoroughly tested within carefully crafted virtual environments, and the best candidates are used to breed successive batches until a satisfactory solution has evolved. These last-generation designs are then fabricated and tested in the real world. NASA recently used this approach to produce the antenna for a spacegoing vessel, resulting in flamboyant-yet-effective shapes that vaguely resemble organic lifeforms —unlike anything an engineer would design without the benefit of mood-altering drugs. Scientists hope to eventually use genetic algorithms to improve complex devices such as motors and rockets, but progress is dependent upon the development of extremely accurate simulations.The two best antenna designs produced by NASA's artificial evolution softwareThese evolutionary computer systems may almost appear to demonstrate a kind of sentience as they dispense graceful solutions to complex problems. But this apparent intelligence is an illusion caused by the fact that the overwhelming majority of design variations tested by the system —most of them appallingly unfit for the task— are never revealed. According to current understanding, even the most advanced microchips fall far short of the resources necessary to host legitimate intelligence. On the other hand, at one time many engineers might have insisted that it's impossible to train an unclocked 10x10 FPGA to distinguish between two distinct audio tones.There is also an ethical conundrum regarding the notion that human lives may one day depend upon these incomprehensible systems. There is concern that a dormant "gene" in a medical system or flight control program might express itself without warning, sending the mutant software on an unpredictable rampage. Similarly, poorly defined criteria might allow a self-adapting system to explore dangerous options in its single-minded thrust towards efficiency, placing human lives in peril. Only time and testing will determine whether these risks can be mitigated. If evolvable hardware passes muster, the Sussex circuits may pave the way for a new kind of computing. Given a sufficiently well-endowed Field-Programmable Gate Array and a few thousand exchanges of genetic material, there are few computational roles that these young and flexible microchips will be unable to satisfy. While today's computers politely use programmed instructions to solve predictable problems, these adaptable alternatives may one day strip away such limits and lay bare the elegant solutions that the human mind is reluctant —or powerless— to conceive on its own.Written by Alan Bellows, posted on 27 June 2007. Alan is the founder/designer/head writer/managing editor of Damn Interesting.Después de 4.100 generaciones el Dr. Adrian Thompson se encontró con que tenía delante un FGPA capaz de distinguir la palabra "stop" de la palabra "go", que aparentemente utilizaba únicamente 37 puertas lógicas de las 100 de que disponía y en el que la mayoría de las puertas lógicas estaban interconectadas formando bucles de realimentación aparte de otras cinco puertas lógicas que, en principio, estaban totalmente desconectadas de las anteriores pero que, sorprendentemente, provocaban que el diseño dejase de funcionar si se deshabilitaba cualquiera de ellas.Un ejemplo en el que se logra crear "inteligencia" (por supuesto muy limitada, pero conozco cucarachas que no responden ante un "stop" y un "go", igual es que no saben inglés... ) sin una programación previa y en donde, como ocurre con los seres vivos, el resultado final es el resultado de seguir un proceso de "ensayo, error" durante unas cuantas miles de generaciones.Muchas gracias y un saludo a todos por contribuir al debate.
Me refiero a cosas como que cuando entrenas una red neuronal, los pesos que tiene como resultado del entrenamiento no puedes interpretarlos de ninguna forma que te permita entender porqué funciona como funciona (si te la sueltan sin decirte nada). Tú puedes ver un programa y figurarte lo que hace. Lo que no puedes es ver los pesos de una red neuronal y saber para qué sirve. Cuando el sistema es inabarcable o funciona de forma que la lógica es indirecta, como en este caso, no puedes establecer por qué falla en el caso de que falle.No es posible depurar o mejorar el entrenamiento de un sistema de aprendizaje de este tipo a base de mirar el estado, porque ese estado no representa nada que podamos entender de forma directa (no tiene un modelo conceptualizable, mientras que el mecanismo sobre el que se sustenta sí). De hecho el problema de hacer ingeniería inversa con nuestro cerebro es exactamente ese. Podemos entender cómo funciona una neurona. Es extremadamente difícil saber cómo funciona cada una de ellas de forma conjuntada y de qué forma esa orquestación produce resultados, o almacena recuerdos.La alta complejidad es un impedimiento, y no siempre se puede usar fuerza bruta. Por eso, aunque sepamos una cantidad inmensa de detalles sobre la física newtoniana, es extremadamente difícil hacer por ejemplo un modelo del clima planetario: al final siempre se te escapan cosas, porque no puedes tenerlo todo en cuenta, y cualquier detalle que falte puede ser extremadamente importante.