* Blog


* Últimos mensajes


* Temas mas recientes

PPCC: Pisitófilos Creditófagos. Otoño 2024 por asustadísimos
[Hoy a las 15:43:53]


Geopolitica siglo XXI por el malo
[Octubre 28, 2024, 13:38:31 pm]


STEM por Marv
[Octubre 26, 2024, 21:33:10 pm]


XTE Central 2025 : Art. 47 CE por saturno
[Octubre 26, 2024, 17:18:06 pm]


A brave new world: La sociedad por venir por Cadavre Exquis
[Octubre 25, 2024, 20:11:21 pm]


Coches electricos por Cadavre Exquis
[Octubre 25, 2024, 16:55:54 pm]


Autor Tema: AGI  (Leído 66294 veces)

0 Usuarios y 1 Visitante están viendo este tema.

Saturio

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 859
  • -Recibidas: 26752
  • Mensajes: 3463
  • Nivel: 663
  • Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #180 en: Mayo 29, 2023, 13:26:30 pm »



Todo lo que escupe una maquinita tiene que verificarse.

Pues hombre, no. Para eso existen las auditorías de sistemas y en general, las configuraciones sólidas. También el análisis de riesgos ayuda...¿Qué me puede pasar si esto está mal?

Si usas un software que en realidad desconoces para hacer una tarea para la que no está diseñado las posibilidades de cagarla son máximas.

Gracias al cielo no es necesario repasar todos los cálculos estructurales que nos da una máquina o todas las nóminas que nos genera una máquina.



Benzino Napaloni

  • Inmoindultado
  • ****
  • Gracias
  • -Dadas: 932
  • -Recibidas: 17272
  • Mensajes: 2050
  • Nivel: 195
  • Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #181 en: Mayo 29, 2023, 15:08:18 pm »



Todo lo que escupe una maquinita tiene que verificarse.

Pues hombre, no. Para eso existen las auditorías de sistemas y en general, las configuraciones sólidas. También el análisis de riesgos ayuda...¿Qué me puede pasar si esto está mal?

Si usas un software que en realidad desconoces para hacer una tarea para la que no está diseñado las posibilidades de cagarla son máximas.

Gracias al cielo no es necesario repasar todos los cálculos estructurales que nos da una máquina o todas las nóminas que nos genera una máquina.

Todo eso es muy tentador saltárselo, porque "es un coste". "Nunca pasa nada, ¿qué puede salir mal si nos lo quitamos?".

En las tecnológicas tenemos un proceso de integración continua (o deberíamos). No se incluye nada a producción si no ha pasado antes los filtros de calidad aprobados. Nada es nada.

En empresas más cutres más de una vez he visto tentaciones de saltarse esto. Afortunadamente en todos los casos la cantidad de errores fue tal y tan súbita, que el listillo de turno se tuvo que volver a la caverna rápido.


Un ejemplo más bestia de eso fue Boeing. Documental en Netflix para quien quiera verlo. Hubo vuelos de prueba con una escalera cerca de un motor. Una mala caída, y adiós avión. Eso ha pasado.

Todo ha de verificarse. Y el filtro más efectivo, al menos uno de ellos, es conocerse al dedillo el producto, y sospechar cada vez que aparezca algo infrecuente.

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 29090
  • -Recibidas: 30366
  • Mensajes: 3562
  • Nivel: 472
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #182 en: Mayo 29, 2023, 17:22:50 pm »



Todo lo que escupe una maquinita tiene que verificarse.

Pues hombre, no. Para eso existen las auditorías de sistemas y en general, las configuraciones sólidas. También el análisis de riesgos ayuda...¿Qué me puede pasar si esto está mal?

Si usas un software que en realidad desconoces para hacer una tarea para la que no está diseñado las posibilidades de cagarla son máximas.

Gracias al cielo no es necesario repasar todos los cálculos estructurales que nos da una máquina o todas las nóminas que nos genera una máquina.
Hay una "pequeñita" diferencia.

Un algoritmo determinístico siempre va a dar el mismo resultado. Uno no determinístico no.
Los primeros los puedes verificar y en determinadas circunstancias garantizar. Los segundos (en los que entrarían estas "IA") no.

Se puede garantizar que Excel va a sumar correctamente dos números dentro de los valores permitidos, y si no lo hiciese, es posible corregirlo de forma verificable.

Lo que no puedo garantizar (y nunca podré) es que uno de estos modelos me dé una respuesta correcta para cualquier consulta que le haga. No hay determinismo. Por tanto no puedo corregir errores (sólo puedo intentar hacerlo más fiable) ni tampoco puedo verificar que los cambios que he hecho corrijan nada en particular (porque tampoco hay unas entradas específicas contra las que poder verificar).

Toda tu premisa es inaplicable a este caso. No puedes auditar esto. ¿Le haces un examen a ver cuánta nota saca? ¿Le haces consultas sobre temas clave? No tiene ningún sentido.

Benzino Napaloni

  • Inmoindultado
  • ****
  • Gracias
  • -Dadas: 932
  • -Recibidas: 17272
  • Mensajes: 2050
  • Nivel: 195
  • Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #183 en: Mayo 29, 2023, 17:33:04 pm »
Hay una "pequeñita" diferencia.

Un algoritmo determinístico siempre va a dar el mismo resultado. Uno no determinístico no.
Los primeros los puedes verificar y en determinadas circunstancias garantizar. Los segundos (en los que entrarían estas "IA") no.

Se puede garantizar que Excel va a sumar correctamente dos números dentro de los valores permitidos, y si no lo hiciese, es posible corregirlo de forma verificable.

Lo que no puedo garantizar (y nunca podré) es que uno de estos modelos me dé una respuesta correcta para cualquier consulta que le haga. No hay determinismo. Por tanto no puedo corregir errores (sólo puedo intentar hacerlo más fiable) ni tampoco puedo verificar que los cambios que he hecho corrijan nada en particular (porque tampoco hay unas entradas específicas contra las que poder verificar).

Toda tu premisa es inaplicable a este caso. No puedes auditar esto. ¿Le haces un examen a ver cuánta nota saca? ¿Le haces consultas sobre temas clave? No tiene ningún sentido.

Precisamente por esto la programación ha dado un giro en los últimos años.

Hace ya tiempo se estilaba el paradigma funcional. Funciones, trozos de código haciendo tareas delimitadas, y que también podían funcionar como funciones matemáticas como tales. Unas entradas, una salida.

Era un sistema robusto pero que no escalaba a desarrollos más grandes, por lo tedioso que podía llegar a ser. Eso motivó el desarrollo de la Programación Orientada a Objetos. Un objeto es formalmente una colección de posibles estados y de posibles operaciones sobre los mismos. Con encapsulamiento, se expone una interfaz de uso y se ocultan los detalles de implementación.

¿Problema? Que al introducir un estado, una función se vuelve imposible de probar. Una función pura (matemática) tiene una correspondencia perfecta entre las entradas y la salida. La salida sólo depende de las entradas y no de la historia pasada (estado).

Al final se ha tenido que volver a la programación funcional (evolucionada). Precisamente para intentar aislar al estado, que en alguna parte hay que tenerlo, y que el código que lo procese sea tan funcional (stateless) como sea posible. Porque sin eso no hay Dios que pruebe nada. La combinación de las entradas y los posibles estados genera un espacio de prueba completamente inabarcable.

Con lo que lo de la IA, ya ven qué perspectivas tiene. La programación ordinaria volviendo a estándares viejos, y alguno creyendo que pronto habrá robots camareros. Con dos narices.

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 29090
  • -Recibidas: 30366
  • Mensajes: 3562
  • Nivel: 472
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #184 en: Mayo 29, 2023, 18:15:29 pm »
Hay una "pequeñita" diferencia.

Un algoritmo determinístico siempre va a dar el mismo resultado. Uno no determinístico no.
Los primeros los puedes verificar y en determinadas circunstancias garantizar. Los segundos (en los que entrarían estas "IA") no.

Se puede garantizar que Excel va a sumar correctamente dos números dentro de los valores permitidos, y si no lo hiciese, es posible corregirlo de forma verificable.

Lo que no puedo garantizar (y nunca podré) es que uno de estos modelos me dé una respuesta correcta para cualquier consulta que le haga. No hay determinismo. Por tanto no puedo corregir errores (sólo puedo intentar hacerlo más fiable) ni tampoco puedo verificar que los cambios que he hecho corrijan nada en particular (porque tampoco hay unas entradas específicas contra las que poder verificar).

Toda tu premisa es inaplicable a este caso. No puedes auditar esto. ¿Le haces un examen a ver cuánta nota saca? ¿Le haces consultas sobre temas clave? No tiene ningún sentido.

Precisamente por esto la programación ha dado un giro en los últimos años.

Hace ya tiempo se estilaba el paradigma funcional. Funciones, trozos de código haciendo tareas delimitadas, y que también podían funcionar como funciones matemáticas como tales. Unas entradas, una salida.

Era un sistema robusto pero que no escalaba a desarrollos más grandes, por lo tedioso que podía llegar a ser. Eso motivó el desarrollo de la Programación Orientada a Objetos. Un objeto es formalmente una colección de posibles estados y de posibles operaciones sobre los mismos. Con encapsulamiento, se expone una interfaz de uso y se ocultan los detalles de implementación.

¿Problema? Que al introducir un estado, una función se vuelve imposible de probar. Una función pura (matemática) tiene una correspondencia perfecta entre las entradas y la salida. La salida sólo depende de las entradas y no de la historia pasada (estado).

Al final se ha tenido que volver a la programación funcional (evolucionada). Precisamente para intentar aislar al estado, que en alguna parte hay que tenerlo, y que el código que lo procese sea tan funcional (stateless) como sea posible. Porque sin eso no hay Dios que pruebe nada. La combinación de las entradas y los posibles estados genera un espacio de prueba completamente inabarcable.

Con lo que lo de la IA, ya ven qué perspectivas tiene. La programación ordinaria volviendo a estándares viejos, y alguno creyendo que pronto habrá robots camareros. Con dos narices.
Yo creo que es posible crear algo pseudointeligente de verdad. Pero desde luego no con este método de ahora. Y seguirá teniendo los mismos problemas, lo único que si se consigue que razone y tenga cierto grado de sentido común y de conciencia del contexto y de sus propios errores, se habrá conseguido avanzar mucho en su utilidad.

Viendo el panorama, dudo mucho que haya el caldo de cultivo para que prosperen desarrollos alternativos a lo que está de moda. Pero bueno, se verá.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 21202
  • -Recibidas: 49808
  • Mensajes: 11223
  • Nivel: 624
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #185 en: Junio 04, 2023, 20:07:56 pm »
Citar
Big Tech Isn't Prepared for AI's Next Chapter: Open Source
Posted by EditorDavid on Sunday June 04, 2023 @11:34AM from the opening-AI dept.

Security guru Bruce Schneier and CS professor Jim Waldo think big tech has underestimated the impact of open source principles on AI research:
Citar
In February, Meta released its large language model: LLaMA. Unlike OpenAI and its ChatGPT, Meta didn't just give the world a chat window to play with. Instead, it released the code into the open-source community, and shortly thereafter the model itself was leaked. Researchers and programmers immediately started modifying it, improving it, and getting it to do things no one else anticipated. And their results have been immediate, innovative, and an indication of how the future of this technology is going to play out. Training speeds have hugely increased, and the size of the models themselves has shrunk to the point that you can create and run them on a laptop. The world of A.I. research has dramatically changed.

This development hasn't made the same splash as other corporate announcements, but its effects will be much greater. It will wrest power from the large tech corporations, resulting in both much more innovation and a much more challenging regulatory landscape. The large corporations that had controlled these models warn that this free-for-all will lead to potentially dangerous developments, and problematic uses of the open technology have already been documented. But those who are working on the open models counter that a more democratic research environment is better than having this powerful technology controlled by a small number of corporations...

Building on public models like Meta's LLaMa, the open-source community has innovated in ways that allow results nearly as good as the huge models — but run on home machines with common data sets. What was once the reserve of the resource-rich has become a playground for anyone with curiosity, coding skills, and a good laptop.

Bigger may be better, but the open-source community is showing that smaller is often good enough. This opens the door to more efficient, accessible, and resource-friendly LLMs.
Low-cost customization will foster rapid innovation, the article argues, and "takes control away from large companies like Google and OpenAI." Although this may have one unforeseen consequence...

"Now that the open-source community is remixing LLMs, it's no longer possible to regulate the technology by dictating what research and development can be done; there are simply too many researchers doing too many different things in too many different countries."

Thanks to long-time Slashdot reader mrflash818 for submitting the article
Saludos.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 21202
  • -Recibidas: 49808
  • Mensajes: 11223
  • Nivel: 624
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #186 en: Junio 04, 2023, 20:09:22 pm »
Citar
CS50, the World's Most Popular Online Programming Class, Turns to AI for Help
Posted by EditorDavid on Saturday June 03, 2023 @06:59PM from the this-is-CS50 dept.

"The world's most popular online learning course, Harvard University's CS50, is getting a ChatGPT-era makeover," reports Bloomberg:
Citar
CS50, an introductory course in computer science attended by hundreds of students on-campus and over 40,000 online, plans to use artificial intelligence to grade assignments, teach coding and personalize learning tips, according to its Professor David J. Malan... Even with more than 100 real-life teaching assistants, he said it had become difficult to fully engage with the growing number of students logging in from different time zones and with varying levels of knowledge and experience. "Providing support tailored to students' specific questions has been a challenge at scale, with so many more students online than teachers," said Mr Malan, 46.

His team is now fine-tuning an AI system to mark students' work, and testing a virtual teaching assistant to evaluate and provide feedback on students' programming. The virtual teaching assistant asks rhetorical questions and offers suggestions to help students learn, rather than simply catching errors and fixing coding bugs, he said. Longer term, he expects this to give human teaching assistants more time for in-person or Zoom-based office hours...

Mr Malan said CS50's use of AI could highlight its benefits for education, particularly in improving the quality and access of online learning — an industry that Grand View Research forecasts to grow to $348 billion by 2030, nearly tripling from 2022. "Potentially, AI is just hugely enabling in education," he said.
Saludos.

Lem

  • Espabilao
  • **
  • Gracias
  • -Dadas: 8017
  • -Recibidas: 2186
  • Mensajes: 320
  • Nivel: 28
  • Lem Con poca relevanciaLem Con poca relevancia
    • Ver Perfil
Re:AGI
« Respuesta #187 en: Junio 04, 2023, 22:34:11 pm »
lo de Standford CS50 parece bastante similar a Khanmigo, de Khan Academy https://www.khanacademy.org/khan-labs

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 21202
  • -Recibidas: 49808
  • Mensajes: 11223
  • Nivel: 624
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #188 en: Julio 01, 2023, 12:23:46 pm »
Citar
Chinese Researchers Used AI To Design RISC-V CPU In Under 5 Hours
Posted by BeauHD on Friday June 30, 2023 @08:45PM from the performance-is-nothing-to-brag-about-though dept.

Required Snark shares a report from Tom's Hardware:
Citar
A group of Chinese scientists has published (PDF) a paper titled "Pushing the Limits of Machine Design: Automated CPU Design with AI." The paper details the researchers' work in designing a new industrial-scale RISC-V CPU in under 5 hours. It is claimed this AI-automated feat was about 1000x faster than a human team could have finished a comparable CPU design. However, some may poke fun at the resulting AI-designed CPU performing approximately on par with an i486.

Training consisted of observing a series of CPU inputs and outputs. The scientists generated a Binary Speculation Diagram (BSD) from this I/O and leveraged principles of Monte Carlo-based expansion and Boolean functions to hone the accuracy and efficiency of the AI-based CPU design. Thus the CPU design was formed "from only external input-output observations instead of formal program code," explains the scientists. It also boasted an impressive 99.99999999999% accuracy. Using the above-outlined process, an automated AI design of a CPU was created.

The taped-out RISC-V32IA instruction set CPU was fabricated at 65nm and could run at up to 300 MHz. Running the Linux (kernel 5.15) operating system and SPEC CINT 2000 on the AI-generated CPU validated its functionality. In Drystone benchmarks, the AI-generated CPU performed on par with an i486. Interestingly, it appears to be a little bit faster than an Acorn Archimedes A3010 in the same test. Though some might be unimpressed by the performance of the AI-generated CPU, the scientists also seem quite proud that their generated BSD "discovered the von Neumann architecture from scratch."
Saludos.

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 29090
  • -Recibidas: 30366
  • Mensajes: 3562
  • Nivel: 472
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #189 en: Julio 01, 2023, 12:58:37 pm »
Citar
Chinese Researchers Used AI To Design RISC-V CPU In Under 5 Hours
Posted by BeauHD on Friday June 30, 2023 @08:45PM from the performance-is-nothing-to-brag-about-though dept.

Required Snark shares a report from Tom's Hardware:
Citar
A group of Chinese scientists has published (PDF) a paper titled "Pushing the Limits of Machine Design: Automated CPU Design with AI." The paper details the researchers' work in designing a new industrial-scale RISC-V CPU in under 5 hours. It is claimed this AI-automated feat was about 1000x faster than a human team could have finished a comparable CPU design. However, some may poke fun at the resulting AI-designed CPU performing approximately on par with an i486.

Training consisted of observing a series of CPU inputs and outputs. The scientists generated a Binary Speculation Diagram (BSD) from this I/O and leveraged principles of Monte Carlo-based expansion and Boolean functions to hone the accuracy and efficiency of the AI-based CPU design. Thus the CPU design was formed "from only external input-output observations instead of formal program code," explains the scientists. It also boasted an impressive 99.99999999999% accuracy. Using the above-outlined process, an automated AI design of a CPU was created.

The taped-out RISC-V32IA instruction set CPU was fabricated at 65nm and could run at up to 300 MHz. Running the Linux (kernel 5.15) operating system and SPEC CINT 2000 on the AI-generated CPU validated its functionality. In Drystone benchmarks, the AI-generated CPU performed on par with an i486. Interestingly, it appears to be a little bit faster than an Acorn Archimedes A3010 in the same test. Though some might be unimpressed by the performance of the AI-generated CPU, the scientists also seem quite proud that their generated BSD "discovered the von Neumann architecture from scratch."
Saludos.
Aunque lo que han hecho es interesante, es más interesante aún las enormes diferencias entre lo que esconde el titular (podemos hacer chips con una IA mil veces más rápido) y lo que luego se desvela en los detalles (el resultado es de una potencia de hace 30 años y el diseño es regulero).

Y esta tendencia crece y crece, mientras chistes (me niego a llamarlo medio) como Twitter incentivan, por su propia y absurda estructura, el quedarse con la información superficial y eliminar todo detalle y matización de cualquier asunto. Este asunto de la IA es el ejemplo perfecto. Mucha gente hablando de chorradas sensacionalistas sin saber siquiera lo más fundamental (y atribuyendo propiedades mágicas a dicha tecnología por pura ignorancia) y unos pocos que hablan con fundamento, ahogados entre todo el ruido.
« última modificación: Julio 01, 2023, 13:01:23 pm por pollo »

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 21202
  • -Recibidas: 49808
  • Mensajes: 11223
  • Nivel: 624
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #190 en: Julio 03, 2023, 06:56:11 am »
Citar
The First Fully AI-Generated Drug Enters Clinical Trials in Human Patients
Posted by EditorDavid on Sunday July 02, 2023 @07:25PM from the testing-tablets dept.

"The first drug fully generated by artificial intelligence entered clinical trials with human patients this week," reports CNBC:
Citar
Insilico Medicine, a Hong Kong-based biotech startup with more than $400 million in funding, created the drug, INS018_055, as a treatment for idiopathic pulmonary fibrosis, a chronic disease that causes scarring in the lungs. The condition, which has increased in prevalence in recent decades, currently affects about 100,000 people in the U.S. and can lead to death within two to five years if untreated, according to the National Institutes of Health.

"It is the first fully generative AI drug to reach human clinical trials, and specifically Phase II trials with patients," Alex Zhavoronkov, founder and CEO of Insilico Medicine, told CNBC. "While there are other AI-designed drugs in trials, ours is the first drug with both a novel AI-discovered target and a novel AI-generated design...."

"When this company was launched, we were focused on algorithms — developing the technology that could discover and design new molecules," Zhavoronkov said. "I never imagined in those early days that I would be taking my own AI drugs into clinical trials with patients. But we realized that in order to validate our AI platform, we needed to not only design a new drug for a new target, but bring it into clinical trials to prove that our technology worked."
"The company has two other drugs partially generated by AI in the clinical stage..."
Saludos.

puede ser

  • Estructuralista
  • ****
  • Gracias
  • -Dadas: 21803
  • -Recibidas: 11048
  • Mensajes: 1587
  • Nivel: 162
  • puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #191 en: Julio 06, 2023, 18:48:15 pm »
https://www.lavozdegalicia.es/noticia/economia/2023/07/06/musk-anuncia-tesla-conduciran-solos-fin-ano/00031688638528893242422.htm
Citar
Musk anuncia que los Tesla se conducirán solos antes de fin de año

El magnate lleva prometiendo la conducción autónoma desde el 2016, pero dice que ahora «está más cerca de la realidad que nunca»

El cofundador y consejero delegado de la automotriz estadounidense Tesla, Elon Musk, mostró hoy su convicción de que sus vehículos ofrecerán conducción autónoma sin intervención humana antes de que finalice el 2023. En una intervención durante la jornada inaugural de la Conferencia Mundial de Inteligencia Artificial (WAIC), celebrada en la ciudad china de Shanghái, el ejecutivo aseguró que, durante las últimas pruebas de sus sistemas en las carreteras de Estados Unidos, «raramente requieren de intervención humana».

En noviembre del año pasado, Tesla abrió la beta de su sistema de conducción asistida Full Self-Driving (FSD) para todos los conductores en Norteamérica que habían adquirido la opción y cumplían con las condiciones de métrica de uso requeridas por la compañía.

FSD Beta permite a los vehículos de Tesla tener un cierto grado de conducción autónoma aunque el conductor necesita estar siempre atento, con las manos en el volante, para asumir el control del coche en cualquier momento.

No obstante, su desarrollo estuvo marcado por la controversia: cuando Musk anunció el sistema FSD a finales del 2016, el empresario dio a entender que garantizaba la total conducción autónoma de los automóviles de Tesla. Posteriormente, aseguró que el sistema no necesitaría ningún tipo de supervisión humana a partir del 2020, algo que todavía no se ha cumplido.

«Creo que se puede conseguir una conducción totalmente automática de nivel 4 o 5 (los niveles en los que no es necesario que haya un humano conduciendo) a finales de este año. Ya he hecho predicciones antes y todas fueron erróneas, pero creo que, en este momento, los pronósticos están más cerca de la realidad que nunca», indicó Musk, citado por el portal de noticias chino The Paper.

La prensa local también indica que el empresario aseguró que Tesla está dispuesta a compartir su tecnología de conducción autónoma con otras automotrices. El directivo también tuvo palabras para las capacidades de desarrollo de la inteligencia artificial en China al asegurar que, cuando el país asiático decide hacer una cosa, «es capaz de hacerla bien».

Asimismo, Musk afirmó que el robot humanoide que está desarrollando Tesla para realizar trabajos «peligrosos» que la gente no quiera hacer está todavía en las fases iniciales de desarrollo.

 :rofl:

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 29090
  • -Recibidas: 30366
  • Mensajes: 3562
  • Nivel: 472
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #192 en: Julio 07, 2023, 00:23:32 am »
https://www.lavozdegalicia.es/noticia/economia/2023/07/06/musk-anuncia-tesla-conduciran-solos-fin-ano/00031688638528893242422.htm
Citar
Musk anuncia que los Tesla se conducirán solos antes de fin de año

El magnate lleva prometiendo la conducción autónoma desde el 2016, pero dice que ahora «está más cerca de la realidad que nunca»

El cofundador y consejero delegado de la automotriz estadounidense Tesla, Elon Musk, mostró hoy su convicción de que sus vehículos ofrecerán conducción autónoma sin intervención humana antes de que finalice el 2023. En una intervención durante la jornada inaugural de la Conferencia Mundial de Inteligencia Artificial (WAIC), celebrada en la ciudad china de Shanghái, el ejecutivo aseguró que, durante las últimas pruebas de sus sistemas en las carreteras de Estados Unidos, «raramente requieren de intervención humana».

En noviembre del año pasado, Tesla abrió la beta de su sistema de conducción asistida Full Self-Driving (FSD) para todos los conductores en Norteamérica que habían adquirido la opción y cumplían con las condiciones de métrica de uso requeridas por la compañía.

FSD Beta permite a los vehículos de Tesla tener un cierto grado de conducción autónoma aunque el conductor necesita estar siempre atento, con las manos en el volante, para asumir el control del coche en cualquier momento.

No obstante, su desarrollo estuvo marcado por la controversia: cuando Musk anunció el sistema FSD a finales del 2016, el empresario dio a entender que garantizaba la total conducción autónoma de los automóviles de Tesla. Posteriormente, aseguró que el sistema no necesitaría ningún tipo de supervisión humana a partir del 2020, algo que todavía no se ha cumplido.

«Creo que se puede conseguir una conducción totalmente automática de nivel 4 o 5 (los niveles en los que no es necesario que haya un humano conduciendo) a finales de este año. Ya he hecho predicciones antes y todas fueron erróneas, pero creo que, en este momento, los pronósticos están más cerca de la realidad que nunca», indicó Musk, citado por el portal de noticias chino The Paper.

La prensa local también indica que el empresario aseguró que Tesla está dispuesta a compartir su tecnología de conducción autónoma con otras automotrices. El directivo también tuvo palabras para las capacidades de desarrollo de la inteligencia artificial en China al asegurar que, cuando el país asiático decide hacer una cosa, «es capaz de hacerla bien».

Asimismo, Musk afirmó que el robot humanoide que está desarrollando Tesla para realizar trabajos «peligrosos» que la gente no quiera hacer está todavía en las fases iniciales de desarrollo.

 :rofl:
¿Cómo era el cuento aquel de Elon Musk y el lobo?

Elon Musk, Elon Musk, a ver si te enteras tú y todos los del wishful thinking sobre la IA todopoderosa e infalible que todo lo hace bien porque patatas: si una IA en un coche no puede tomar decisiones razonables (ya no digo acertadas, sólo le pido lo mismo que a un humano sano en pleno uso de facultades) en el 100% de las ocasiones, básicamente es inútil y más peligrosa que conducir tú mismo, como ya se ha demostrado en varios accidentes de esos que la IA supuestamente no iba a tener nunca (porque no iba a hacer razonamientos erróneos, porque los sensores captan más información que un ser humano, porque la IA nunca se cansa, etc.).

Y esa IA que pueda entender todas esas ocasiones no existe, porque para que exista hay que resolver problemas que aún no están resueltos y que requieren mucho más que conducir siguiendo las normas. El 99,99% del tiempo vas confiado, y de pronto se da una serie de circunstancias y estás en una trampa mortal con un conductor absolutamente inconsciente y sin instinto de supervivencia al volante.

Conducir tiene una carga enorme de conocimiento del medio, valoración de riesgos, contexto cultural y social y comunicación interpersonal y en eso no se ha hecho ningún énfasis.

Al hacer imitaciones de cuadros de Van Gogh, o hacer dibujos con dedos extra, o crear textos con alguna que otra trola, no importan los errores. Precisamente al ser un campo creativo los errores e inexactitudes como mucho levantarán la ceja del receptor. O también pueden verse como algo novedoso y artístico. Todo puede valer.

Cuando hay que resolver un problema con requisitos duros y que puede matar gente, la cosa cambia mucho, y las inexactitudes o invenciones que en ChatGPT o Stable Difussion nos pueden provocar risa, en un coche nos pueden provocar la muerte o la mutilación de por vida.

Esa conducción autónoma 100% va a tardar mucho más en llegar. Y habrá posibilidades de que ocurra si y sólo si se cambia la forma de enfocar el problema.

Por cierto, sigo esperando un robot con IA que doble ropa heterogénea y haga pilas bien colocadas por tipo. O una Roomba que mapee la casa y siga un algoritmo eficiente en lugar de comportarse como un pseudoinsecto. O puestos a pedir, que le den un par de manos y me recoja las cosas que haya en el suelo...

Vaya vaya, el problema no es reconocer y coger las cosas (que también), es decidir que coño significa "orden" y que significa "recoger", todo ello sin matar al gato o sacarle un ojo al bebé en el proceso. Quien se enfrente a este problema va a tener jodido ya sólo el definir qué solución se está buscando.

Que si apuntáis a "La Singularidad" de los cojones, bien podéis apuntar a las tareas más coñazo de toda la casa que será algo más fácil que producir una máquina capaz de crear un tratado filosófico.

La Singularidad va a ser una decepción consistente en retornos decrecientes y en ver que la inteligencia tiene una utilidad limitada a partir de la cual no da superpoderes y omnisciencia, como pasa en las películas.

La mayor parte de problemas difíciles (o imposibles) de resolver no es porque no haya intelecto suficiente, es porque las restricciones vienen por otros motivos: falta de recursos, falta de energía, intratabilidad del problema, imposibilidad de existencia de soluciones, imposibilidad de definición del problema, inviabilidad de obtener la información requerida y otro largo etc.
« última modificación: Julio 07, 2023, 00:50:37 am por pollo »

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 21202
  • -Recibidas: 49808
  • Mensajes: 11223
  • Nivel: 624
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #193 en: Julio 09, 2023, 21:00:39 pm »
Citar
Nine AI-Powered Humanoid Robots Hold Press Conference at UN Summit
Posted by EditorDavid on Sunday July 09, 2023 @12:06AM from the rise-of-the-machines dept.

We've just had the world's first press conference with AI-enabled, humanoid social robots. Click here to jump straight to Slashdot's transcript of all the robots' answers during the press conference, or watch the 40-minute video here.

It all happened at the United Nations held an "AI for Good" summit in Geneva, where the Guardian reports that the foyer was "humming with robotic voices, the whirring of automated wheels and limbs, and Desdemona, the 'rock star' humanoid, who is chanting 'the singularity will not be centralised' on stage backed by a human band, Jam Galaxy."

But the Associated Press describes how one UN agency had "assembled a group of robots that physically resembled humans at a news conference Friday, inviting reporters to ask them questions in an event meant to spark discussion about the future of artificial intelligence. "The nine robots were seated and posed upright along with some of the people who helped make them at a podium in a Geneva conference center... Among them: Sophia, the first robot innovation ambassador for the U.N. Development Program, or UNDP; Grace, described as a health care robot; and Desdemona, a rock star robot."

"I'm terrified by all of this," said one local newscaster, noting that the robots also said they "had no intention of rebelling against their creators."

But the Associated Press points out an important caveat:
Citar
While the robots vocalized strong statements - that robots could be more efficient leaders than humans, but wouldn't take anyone's job away or stage a rebellion - organizers didn't specify to what extent the answers were scripted or programmed by people. The summit was meant to showcase "human-machine collaboration," and some of the robots are capable of producing preprogrammed responses, according to their documentation.
Two of the robots seemed to disagree on whether AI-powered robots should submit to stricter regulation. (Although since they're only synthesizing sentences from large-language models, can they really be said to "agree" or "disagree"?)

There were unintentionally humorous moments, starting right from the beginning.

Saludos.

saturno

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 89218
  • -Recibidas: 31245
  • Mensajes: 8575
  • Nivel: 853
  • saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.
    • Ver Perfil
    • Billets philo-phynanciers crédit-consumméristes
Re:AGI
« Respuesta #194 en: Julio 11, 2023, 23:51:22 pm »
Conferencia de Yuval Harari  sobre la necesidad de regular la AI

https://youtu.be/LWiM-LuRe6w

XGracias Itrane2000
Alegraos, la transición estructural, por divertida, es revolucionaria.

PPCC v/eshttp://ppcc-es.blogspot

Tags:
 


SimplePortal 2.3.3 © 2008-2010, SimplePortal