¿Cómo conseguir suficientes datos para entrenar un robot GPT?
En los últimos años los robots humanoides han vuelto a ponerse de moda. Al margen del precio el principal problema es la falta de un modelo fundacional que haga que estos robots puedan ser útiles haciendo tareas. Durante décadas los humanos hemos creado internet, que ha servido para entrenar a los modelos de lenguaje, pero: ¿Cómo conseguir suficientes datos para entrenar un robot GPT?
Participan en la tertulia: Paco Zamora, Íñigo Olcoz y Guillermo Barbadillo.
Recuerda que puedes enviarnos dudas, comentarios y sugerencias en: https://twitter.com/TERTUL_ia
Más info en: https://ironbar.github.io/tertulia_inteligencia_artificial/
--------
47:14
--------
47:14
Artículos antiguos: El test de Turing
Seguro que has oído hablar muchas veces del famoso test de Turing, pero ¿has leído alguna vez el artículo? En el capítulo de hoy de la tertulia desgranamos todos los detalles de este revolucionario artículo: El test de Turing
Participan en la tertulia: Josu Gorostegui, Carlos Larriú, Íñigo Olcoz y Guillermo Barbadillo.
Recuerda que puedes enviarnos dudas, comentarios y sugerencias en: https://twitter.com/TERTUL_ia
Más info en: https://ironbar.github.io/tertulia_inteligencia_artificial/
--------
48:15
--------
48:15
Modelos de Difusión de Lenguaje: Gemini Diffusion
La semana pasada Google presentó su nuevo modelo de lenguaje Gemini Difusión. La novedad de este modelo es que no genera tokens uno a uno, sino que es capaz de generar párrafos enteros de golpe y esto desbloquea algunas habilidades nuevas. Hoy en la tertulia te contamos las diferencias entre los modelos autorregresivos como ChatGPT y los nuevos modelos de difusión como Gemini.
Participan en la tertulia: Josu Gorostegui, Carlos Larriú, Íñigo Olcoz y Guillermo Barbadillo.
Recuerda que puedes enviarnos dudas, comentarios y sugerencias en: https://twitter.com/TERTUL_ia
Más info en: https://ironbar.github.io/tertulia_inteligencia_artificial/
--------
33:57
--------
33:57
Yann LeCun: Obstáculos matemáticos en el camino a la AGI
Yann Lecun es uno de los padres del campo de la inteligencia artificial. Inventó las redes convolucionales que tan usadas son para visión y actualmente es uno de los mandamases de Meta. Hoy en la tertulia comentamos una provocadora charla reciente suya donde no deja títere con cabeza: Yann sugiere que hay que abandonar el aprendizaje por refuerzo y los modelos de lenguaje.
Participan en la tertulia: Paco Zamora, Josu Gorostegui, Imanol Solano y Guillermo Barbadillo.
Recuerda que puedes enviarnos dudas, comentarios y sugerencias en: https://twitter.com/TERTUL_ia
Más info en: https://ironbar.github.io/tertulia_inteligencia_artificial/
--------
39:31
--------
39:31
Anthropic: La biología de los modelos de lenguaje
Los modelos de lenguaje están transformando el mundo con capacidades sorprendentes, pero su funcionamiento interno sigue siendo un misterio profundo. Hoy exploraremos como científicos están abriendo esta "caja negra", revelando circuitos ocultos que permiten a la inteligencia artificial pensar, razonar, e incluso ocultar sus verdaderas intenciones. ¿Qué secretos descubriremos al mirar dentro de la mente de una IA?
Participan en la tertulia: Paco Zamora, Josu Gorostegui, Imanol Solano y Guillermo Barbadillo.
Recuerda que puedes enviarnos dudas, comentarios y sugerencias en: https://twitter.com/TERTUL_ia
Más info en: https://ironbar.github.io/tertulia_inteligencia_artificial/