En este episodio, hablamos de todas las novedades y experiencias del Google Cloud Next 2025.¿Qué nos dejó este año? ¿Superó las expectativas? Compartimos nuestra impresión general del evento y lo que más nos sorprendió y llamó la atención.Para los que buscan conectar, hablamos sobre las oportunidades de networking y cómo fue la experiencia de interactuar con otros profesionales de la industria.¡Pero lo más importante son los anuncios! Revelamos cuáles fueron los anuncios más importantes y emocionantes para nosotros y explicamos el porqué de su relevancia.¿Hubo algún anuncio subestimado que merecía más atención? ¡Lo discutimos!Finalmente, resumimos el evento en tres puntos clave que todo el mundo debería conocer.¡No te pierdas este análisis completo del Google Cloud Next 2025! Si te interesa el futuro del cloud computing, la inteligencia artificial y la innovación tecnológica, ¡este es tu episodio!Referencias:- https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up- https://www.youtube.com/@alarcon7a- https://www.linkedin.com/in/briansalvattore/#GoogleCloudNext2025 #GoogleCloud #TechPodcast #Innovación #Tecnología #IA #CloudComputing
--------
59:59
--------
59:59
Grounding LLM
En este episodio hablamos de una técnica para reducir las alucinaciones por medio de fuentes fiables y actuales. Ejemplo a la pregunta sobre los pronósticos del clima para hoy, un LLM te enviará a que lo consultes en un sitio externo. La técnica de Grounding nos sirve para resolver este problema además de reducir las alucinaciones por medio de fuentes actuales y fiables. En este episodio hablamos en qué consiste esta técnica, como funciona, como es su algoritmo de decisión y mucho más.Referencias:https://cloud.google.com/vertex-ai/generative-ai/docs/grounding/overviewhttps://youtu.be/lu3zXKhTUd4?si=Q4AG-DXognK3RDsjSíguenos:https://twitter.com/jggomezthttps://twitter.com/DevHackCali
--------
24:02
--------
24:02
RAG - Retrieval-Augmented Generation
¿Cansado de las limitaciones de los Large Language Models (LLMs)? En este episodio, nos adentramos en el fascinante mundo de RAG (Retrieval Augmented Generation), una técnica que está revolucionando la forma en que interactuamos con la IA.
Descubre cómo RAG permite a los LLMs acceder a información externa y actualizada, superando las barreras del conocimiento estático y abriendo un abanico de posibilidades en áreas como:
Búsqueda de información precisa y contextualizada: Olvídate de respuestas genéricas. RAG permite a los LLMs proporcionar información específica y relevante a tus consultas.
Generación de contenido más creativo y dinámico: Desde la redacción de textos hasta la creación de código, RAG potencia la capacidad de los LLMs para generar contenido original y de alta calidad.
Personalización de la experiencia del usuario: RAG permite adaptar las respuestas de los LLMs a las necesidades individuales de cada usuario, ofreciendo una experiencia más personalizada e interactiva.
Referencias:
https://cloud.google.com/use-cases/retrieval-augmented-generation?hl=en
https://python.langchain.com/docs/tutorials/rag/
Síguenos:
https://twitter.com/jggomezt
https://twitter.com/DevHackCali
--------
33:43
--------
33:43
AI - Embeddings
¿Alguna vez te has preguntado cómo las máquinas entienden el lenguaje humano?
En este episodio desentrañamos el misterio de los embeddings, una técnica clave en el NLP.
Prepárate para:
Descubrir qué son los embeddings: Exploraremos cómo se transforman las palabras y frases en vectores numéricos que capturan su significado.
Comprender su utilidad: Analizaremos cómo los embeddings permiten a las máquinas realizar tareas como la búsqueda semántica, la traducción automática y el análisis de sentimientos.
Explorar casos de uso reales: Desde sistemas de recomendación hasta chatbots inteligentes, veremos cómo los embeddings están revolucionando la tecnología.
Adentrarnos en las diferentes aproximaciones para obtener embeddings: Desglosaremos métodos como One Hot Encoding, Co-Ocurrence Matrix y el poderoso Word2Vec.
Profundizar en Word2Vec: Descifraremos su funcionamiento y cómo logra capturar relaciones semánticas entre palabras.
#llms #genai #embeddings #word2vec
Síguenos:
https://twitter.com/jggomezt
https://twitter.com/DevHackCali
Referencias:
https://github.com/jggomez/word2vec-scratch
https://arxiv.org/pdf/1301.3781
https://developers.google.com/machine-learning/crash-course/embeddings
https://medium.com/@enozeren/word2vec-from-scratch-with-python-1bba88d9f221
https://huggingface.co/blog/matryoshka
--------
48:25
--------
48:25
AI - LLM (Modelos Grande de Lenguajes)
Nuevo episodio de nuevo con Henry Ruiz, esta vez hablamos sobre los LLMs (Large Language Model) . Qué son los LLMs, qué problemas resuelven, cómo funcionan, conceptos, prompting y mucho más. Escuchalo, danos tu opinión y compartelo
#llms #genai #gemini #openai #chatgpt
Síguenos:
https://twitter.com/jggomezt
https://twitter.com/DevHackCali
Hola bienvenid@, estás buscando aprender sobre tecnología pues llegaste al podcast adecuado . En este podcast encontrarás fragmentos tecnológicos sobre AI/ML, Arquitectura de Software, Firebase, Cloud, Kotlin, Android y mucho más... esenciales para tu aprendizaje o para que apliques a tu vida laboral.
Síguenos:
https://www.patreon.com/devhack
twitter.com/jggomezt
twitter.com/DevHackCali