Powered by RND
PodcastsNoticiasFLASH DIARIO de El Siglo 21 es Hoy

FLASH DIARIO de El Siglo 21 es Hoy

@LocutorCo
FLASH DIARIO de El Siglo 21 es Hoy
Último episodio

Episodios disponibles

5 de 623
  • Lenovo lanza el mejor Chromebook hasta ahora
    El nuevo Chromebook Plus 14 de Lenovo usa IA para organizar, crear y funcionar sin conexión. ¿Adiós a Windows?  Por Félix Riaño @LocutorCo  El nuevo Chromebook Plus 14 de Lenovo marca un paso importante en la evolución de los portátiles con inteligencia artificial integrada. Google le ha apostado a potenciar ChromeOS con Gemini, funciones avanzadas como agrupación automática de pestañas, edición de imágenes local y una autonomía de hasta 17 horas. A esto se suma Android 16, que llega con ventanas redimensionables y compatibilidad con pantallas externas, trayendo de regreso el debate: ¿estamos a punto de ver el nacimiento de Android para escritorio? La jugada de Google con estos dos frentes podría cambiar la forma en que usamos nuestros dispositivos para trabajar, estudiar y crear.  Google parece estar duplicando esfuerzos en dos frentes parecidos  El 23 de junio de 2025, Google y Lenovo anunciaron el lanzamiento del Chromebook Plus 14, el primer portátil con ChromeOS equipado con el nuevo procesador MediaTek Kompanio Ultra 910 y capacidades de inteligencia artificial local. Este modelo marca un antes y un después para los Chromebooks, integrando funciones de edición de imágenes directamente en la app de galería y herramientas como agrupación inteligente de pestañas y documentos. Estas mejoras no dependen de conexión a internet, gracias a la NPU (unidad de procesamiento neuronal) capaz de ejecutar hasta 50 billones de operaciones por segundo. Además, el dispositivo ofrece una pantalla OLED de 14 pulgadas, 400 nits de brillo, altavoces con Dolby Atmos, hasta 16 GB de RAM y compatibilidad con dos pantallas externas 4K. Todo esto en un cuerpo delgado de apenas 1,17 kilogramos. Es el Chromebook más potente hasta ahora y viene con un año gratuito de Google AI Pro, lo que incluye herramientas como Gemini 2.5 Pro, Flow y Veo 3 Fast.  Pero mientras ChromeOS gana nuevas funciones, Google también ha estado construyendo una alternativa: Android 16 con capacidades de escritorio. Este nuevo enfoque incluye ventanas redimensionables, modo multiventana y la posibilidad de conectar pantallas externas para usar un teléfono o tablet como si fuera un computador completo. Con eso, Android empieza a parecerse a un sistema operativo de escritorio. De hecho, durante el evento I/O 2025, Google mostró cómo Android 16 puede usar una pantalla externa para transformar un dispositivo móvil en una herramienta de productividad con múltiples ventanas abiertas. ¿Estamos ante una estrategia de transición? Algunos analistas creen que Google está preparando a Android para reemplazar en el futuro a ChromeOS en ciertos segmentos del mercado. Al mismo tiempo, ChromeOS sigue presente en educación, empresas y dispositivos como este nuevo Chromebook de Lenovo. ¿Es sostenible mantener dos sistemas de escritorio? ¿O veremos una fusión completa más adelante?  Por ahora, parece que Google va a seguir desarrollando ambas plataformas en paralelo. Android 16 se enfoca más en la experiencia multitarea en tablets y teléfonos, mientras que ChromeOS mantiene su fortaleza en el mundo académico y profesional. Pero la diferencia se está acortando. El Lenovo Chromebook Plus 14 ofrece funciones que antes solo veíamos en Android: búsquedas visuales con Lens, transcripción de texto desde imágenes y hasta generación de imágenes con inteligencia artificial. Todo esto lo hace sin enviar datos a la nube, lo que garantiza privacidad y velocidad. Además, los dispositivos Chromebook Plus nuevos incluyen un año de Google AI Pro y Gemini instalado desde el primer día. Mientras tanto, Android 16 se prepara para llevar la experiencia de escritorio a más dispositivos móviles, con un enfoque que recuerda a Samsung DeX. ¿La diferencia? Ahora todo estará potenciado por inteligencia artificial y Gemini. En el futuro, podríamos tener Chromebooks convertibles en tablets o tablets que se comportan como Chromebooks. Sea como sea, Google quiere que el usuario final tenga una experiencia fluida, inteligente y conectada.  El Lenovo Chromebook Plus 14 no solo destaca por su potencia técnica. Es un equipo pensado para personas que necesitan productividad real en movilidad. Con hasta 17 horas de batería y conectividad Wi-Fi 7, es ideal para quienes trabajan desde cualquier lugar. Además, su pantalla OLED con gama de color 100% DCI-P3 es perfecta para creadores visuales. Lenovo también incluyó una cámara de 5 megapíxeles con obturador físico para privacidad, teclado retroiluminado y chasis de aluminio. Es un dispositivo silencioso, sin ventilador, y con opciones de almacenamiento hasta 256 GB UFS. A nivel empresarial, puede incluir Chrome Enterprise Upgrade para gestión remota en empresas. En educación, los colegios pueden optar por Chrome Education Upgrade para controlar y personalizar el entorno digital de cada estudiante. En resumen, este Chromebook Plus 14 es el modelo más ambicioso hasta ahora. Y la competencia de Google con Windows y macOS ya no será solo en el navegador. Ahora se está dando en el terreno de la inteligencia artificial y los escritorios híbridos.  El Lenovo Chromebook Plus 14 representa un gran paso hacia un futuro de computación híbrida e inteligente. Google está unificando su ecosistema entre Android y ChromeOS con Gemini al frente. Si te interesa el futuro de los escritorios con IA, sigue este podcast en Spotify y cuéntame qué opinas sobre esta convergencia de plataformas: 👉 Flash Diario en Spotify  📚 Bibliografía 9to5Google Mashable Ars Technica ZDNet Lenovo: Next Generation Hybrid AI Chromebook Plus 14 Press ReleaseConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    --------  
    13:54
  • El módulo japonés que dejó cicatriz lunar
    NASA detecta la huella del accidente del módulo japonés Resilience en Mare Frigoris, una región volcánica lunar Por Félix Riaño @LocutorCo Un módulo japonés llamado Resilience, construido por la empresa ispace, debía aterrizar suavemente en la Luna. En su lugar, dejó una mancha oscura en el polvo lunar. El accidente ocurrió el 5 de junio, pero las imágenes que lo confirman llegaron hasta ahora. Fueron tomadas por el orbitador LRO de la NASA y muestran una marca inconfundible: un punto negro rodeado por un halo claro, formado por el polvo que se levantó al impactar. La historia de este accidente no es solo una crónica de fracaso, también es una oportunidad para aprender. ¿Qué nos dicen las imágenes del impacto sobre los límites de la exploración espacial privada? Es el segundo intento fallido de ispace en solo dos años. La mañana del 5 de junio de 2025, desde el centro de control en Tokio, la empresa ispace intentó hacer historia. Su módulo lunar Resilience, lanzado el 15 de enero desde Cabo Cañaveral, estaba por completar una misión ambiciosa: tocar la superficie de la Luna de manera controlada, liberar un pequeño rover y abrir paso a futuras misiones comerciales japonesas. El sitio elegido fue Mare Frigoris, conocido como el Mar del Frío, una región del norte lunar con valor científico y estratégico. A bordo del módulo iba Tenacious, un microrobot desarrollado por la división europea de ispace, con sede en Luxemburgo. Incluso llevaba una pequeña obra de arte: una réplica de una casa sueca tradicional, pintada de rojo y blanco. Todo parecía listo para hacer historia, pero en lugar de celebrar, el equipo perdió comunicación. El aterrizaje se transformó en un misterio que solo se resolvió días después. El problema surgió en los últimos segundos. El módulo descendía con precisión hasta que, sin previo aviso, el contacto se perdió. Durante horas no hubo señales. ispace no podía confirmar si Resilience había aterrizado o se había estrellado. Días más tarde, el orbitador LRO de la NASA ayudó a resolver el enigma. Desde unos 80 kilómetros de altitud, captó una imagen en blanco y negro de la zona. Allí se ve una mancha oscura con un halo claro a su alrededor. Es la marca de un impacto. Según los expertos, ese tipo de huella solo puede formarse si un objeto golpea la superficie a gran velocidad, levantando regolito: el polvo fino y rocoso que cubre la Luna. Esa marca fue comparada con fotos previas y no estaba antes. La conclusión fue inmediata: Resilience se estrelló. Y lo hizo a 2,4 kilómetros del punto exacto donde debía aterrizar. Una distancia que, en misiones lunares, es demasiado grande como para pasar por alto. La historia no termina en el impacto. La imagen de la NASA fue obtenida el 11 de junio, seis días después del accidente. El equipo de la misión LRO usó una cámara de alta resolución, llamada LROC, que puede detectar detalles mínimos en la superficie lunar. Comparando imágenes anteriores y posteriores, confirmaron la alteración del terreno. La zona del impacto será ahora objeto de estudio. No solo por el accidente, también por su ubicación: Mare Frigoris es una planicie volcánica muy antigua, con arrugas geológicas llamadas wrinkle ridges, formadas por el enfriamiento y contracción del suelo. Saber cómo responde este terreno ante impactos recientes puede aportar datos clave para futuras misiones, sobre todo en la planificación de aterrizajes. Aunque ispace ha tenido dos fracasos consecutivos —el anterior fue en abril de 2023—, cada intento suma información. En el mundo de la exploración espacial, incluso los errores dejan lecciones que pueden evitar tragedias más adelante. ispace va a presentar en los próximos días un informe oficial con las causas del fallo. Por ahora, la imagen de esa mancha lunar se convierte en el símbolo más reciente del esfuerzo humano por llegar más allá. El orbitador LRO (Lunar Reconnaissance Orbiter) lleva desde 2009 dando vueltas alrededor de la Luna. Fue lanzado por la NASA con el objetivo de estudiar el terreno lunar a fondo. Entre sus siete instrumentos, destaca el sistema de cámaras LROC, capaz de ver detalles minúsculos. Gracias a estas cámaras, se han podido observar los sitios donde aterrizaron las misiones Apolo, cráteres recién formados por meteoritos y ahora también el impacto de misiones fallidas, como Resilience. Este seguimiento no es solo un registro histórico. Sirve para planificar nuevas misiones y analizar cómo cambia la superficie lunar con el tiempo. La región de Mare Frigoris, donde ocurrió este choque, es de especial interés porque combina un terreno liso con zonas de tensión geológica. Esto la hace atractiva tanto para misiones robóticas como tripuladas. La visibilidad de esta huella en el polvo lunar también ayuda a estudiar cómo se dispersa el regolito, algo importante para proteger naves y equipos en misiones futuras. El impacto fue desafortunado, pero los datos que deja son un tesoro para científicos e ingenieros. El módulo japonés Resilience no logró aterrizar suavemente, pero su marca quedó grabada en la Luna. NASA la detectó y ahora tenemos nuevas pistas para mejorar futuras misiones. Si te interesan las historias donde ciencia, errores y descubrimientos se cruzan, escucha más en Flash Diario en Spotify.🔗 Bibliografía  AP News – NASA  NASA – LRO  Space.com – NASA  The Daily Galaxy Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    --------  
    7:47
  • Adobe mejora la cámara del iPhone
    Adobe mejora tu cámara:  App gratuita con inteligencia artificial para iPhone con IA, controles manuales y fotos RAW de alta calidad   Por Félix Riaño @LocutorCo  Adobe acaba de presentar una app experimental que transforma el modo en que usamos la cámara del iPhone. Se llama Project Indigo, y ya está disponible gratis en la App Store. Detrás del desarrollo están los mismos ingenieros que crearon la cámara de los teléfonos Pixel de Google. La promesa es clara: ofrecer una experiencia de captura con aspecto profesional, basada en inteligencia artificial, procesamiento por ráfagas y controles manuales. ¿Puede una app gratuita reemplazar la cámara nativa del iPhone y convertirse en la favorita de quienes aman la fotografía móvil?  Project Indigo no toma una sola foto: toma hasta 32 imágenes en ráfaga, las alinea y las fusiona para crear una sola más precisa, con menos ruido, mejor rango dinámico y más detalle. Lo más impresionante es que lo hace con un enfoque natural, evitando los efectos exagerados que muchos usuarios detestan. Está disponible desde el iPhone 12 Pro y en todos los modelos del iPhone 14 en adelante, aunque Adobe recomienda usarlo con un iPhone 15 Pro o superior. No necesitas tener cuenta de Adobe ni iniciar sesión, lo cual la hace ideal para experimentar sin compromiso. Además, es compatible con fotos RAW y JPEG. Y si usas Lightroom, puedes enviar tus fotos directamente desde Indigo para editarlas.  Pero no todo es perfecto: Pierdes funciones nativas como Live Photos, modo retrato y estilos fotográficos.   El cerebro detrás de Indigo es Marc Levoy, quien dejó Google en 2020 para unirse a Adobe con el objetivo de crear una “app de cámara universal”. Junto a él está Florian Kainz, también ex Google y experto en procesamiento de imagen. Ambos fueron clave en los avances del Pixel, que convirtió a la cámara de Google en un referente. Con Indigo buscan ir más allá: crear fotos que parezcan tomadas con cámaras réflex, sin dejar de aprovechar el poder del iPhone. Uno de sus logros técnicos es que el obturador no tiene retardo: la app ya está grabando imágenes RAW mientras estás encuadrando, así que cuando presionas el botón, ya tiene lista la mejor toma. Ideal para capturar momentos exactos como un perro en movimiento o una pelota entrando en el arco.  Muchos fotógrafos no confían en las cámaras del celular porque el software tiende a exagerar la imagen. Colores saturados, sombras aplastadas, reflejos molestos y detalles perdidos por la compresión digital. Apple ha hecho mejoras, pero su app de cámara sigue sin ofrecer controles manuales completos. Tampoco permite disparar con exposición prolongada real ni ajustar el número de imágenes por ráfaga. Project Indigo responde a esa necesidad con un enfoque híbrido: mantiene la sencillez del teléfono, pero entrega resultados dignos de una cámara avanzada. En lugar de aplicar filtros o IA que "inventan" detalles, Indigo capta datos reales desde el sensor y los combina para mejorar la nitidez. Incluso permite usar el movimiento natural de la mano como técnica para captar más perspectiva y obtener fotos más detalladas, algo conocido como "multi-frame super-resolution".  Project Indigo ya puede descargarse gratis y viene con funciones únicas que la distinguen de otras apps. Por ejemplo, permite hacer fotos en condiciones de luz muy baja sin necesidad de trípode, gracias a la combinación de 32 cuadros tomados en segundos. También incluye un botón dedicado para fotos de larga exposición, que simula el efecto de obturación prolongada en cámaras réflex: perfecto para capturar cascadas, luces en movimiento o trazos de luz en la noche. Otra función prometedora es la eliminación de reflejos con IA, ideal para fotos detrás de vitrinas o cristales. Y si te gusta editar, las fotos en RAW pueden abrirse directamente en Lightroom con compatibilidad total con los perfiles de color de Adobe. Aunque aún no tiene modo retrato ni video, ya se están desarrollando esas funciones, junto con bracketing de exposición y enfoque. La app también actúa como plataforma de pruebas para futuras funciones de Photoshop y Lightroom. Además, Adobe ya confirmó que la versión para Android “va a llegar seguro”.  Las imágenes tomadas con Indigo pueden verse en calidad HDR en una galería oficial alojada en Adobe Lightroom. Eso sí: la visualización óptima requiere una pantalla compatible y usar Google Chrome. Safari puede no mostrar correctamente los colores ni los brillos. Otra novedad técnica es el demosaico avanzado, que reconstruye los colores a partir del sensor de forma más precisa que otras apps. Indigo también ajusta el tono y el color basándose en lo que hay en la escena: sabe cuándo hay una persona en primer plano o cuándo estás fotografiando un cielo al atardecer. En las pruebas realizadas por medios como PetaPixel y CNET, se destacó que el zoom digital de Indigo supera al del iPhone al no inventar píxeles, sino construir la imagen con varias tomas desde ángulos apenas distintos. Además, la app permite ajustar la cantidad de cuadros por ráfaga, algo que no se ve en otras herramientas similares. Según Adobe, este es solo el comienzo: planean integrar más funciones creativas y fortalecer la app con la ayuda de los comentarios de quienes ya están probándola.  Project Indigo es una app gratuita de Adobe que convierte tu iPhone en una cámara avanzada con controles manuales, procesamiento inteligente y compatibilidad con RAW. Está pensada para quienes aman la fotografía, pero también para curiosos que quieran probar una nueva forma de tomar fotos. Descárgala, prueba sus funciones y cuéntanos tu experiencia. Y sigue el pódcast Flash Diario en Spotify.Bibliografía 📚The Verge PetaPixel CNET Engadget Adobe Research Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    --------  
    9:20
  • Google integra su IA más potente a YouTube Shorts
    Google integra su IA más potente a Shorts para crear videos y sonidos por texto      Por Félix Riaño @LocutorCo      YouTube va a integrar la inteligencia artificial Veo 3 de Google en su formato Shorts. Los creadores van a poder generar videos completos, con imagen y sonido, usando solo texto. ¿Qué pasaría si pudieras crear un video con solo escribir una frase? Eso es justo lo que promete Veo 3, la herramienta de inteligencia artificial más avanzada de Google. Esta nueva función se va a integrar en YouTube Shorts, el formato de video corto que recibe más de 200.000 millones de vistas al día. El anuncio lo hizo el propio CEO de YouTube, Neal Mohan, durante el festival Cannes Lions 2025. Pero hay muchas preguntas: ¿cuánto costará? ¿Habrá deepfakes? ¿Qué pensarán los creadores humanos? ¿Y si el video que ves no lo hizo nadie?  YouTube quiere que cualquiera pueda crear videos, incluso sin cámara ni micrófono. Para eso va a usar la tecnología Veo 3, un sistema que transforma texto en videos con sonido. Esta IA ya fue usada en la función Dream Screen, que generaba fondos por texto, pero ahora llega mejorada. Veo 3 puede crear clips de 8 segundos que parecen filmaciones reales. Eso lo hace ideal para Shorts, que permite videos de hasta 60 segundos. Mohan, el CEO de YouTube, dijo que esto va a liberar la creatividad de los creadores y les va a dar nuevas herramientas para contar historias.  El problema es que no todo el mundo está feliz con la idea. Muchos creadores temen que la plataforma se llene de videos generados por máquinas, sin alma, sin humor, sin errores humanos. Algunos ya llaman a esto “la avalancha de contenido basura”. Además, Veo 3 podría usarse para hacer deepfakes, es decir, videos falsos que imitan a personas reales. Por eso, YouTube está trabajando con agencias como CAA y con creadores reconocidos para desarrollar herramientas que protejan la imagen de celebridades y personajes públicos. A esto se suma otra preocupación: actualmente Veo 3 solo está disponible pagando el plan AI Ultra, que cuesta 250 dólares y limita la creación a 125 videos cortos al mes. ¿Valdrá la pena para los creadores pequeños?  La llegada de Veo 3 no es solo una promesa tecnológica, también es una estrategia para ganarle la carrera a TikTok e Instagram Reels. Shorts se ha convertido en una prioridad para YouTube, que busca atraer a nuevas audiencias. El formato ha crecido 186 % en el último año. Mohan lo describió como “el nuevo Hollywood de los emprendedores”, y destacó que muchos creadores ya están montando sus propios estudios. Con Veo 3, podrían hacer películas de un minuto desde sus celulares. Por ahora, la función se lanzará en los próximos meses y se espera que YouTube adapte el modelo de IA para que produzca videos verticales en alta calidad. Aunque el acceso será limitado al principio, es probable que YouTube libere herramientas gratuitas o reduzca el precio para atraer más creadores.  El modelo Veo 3 fue anunciado por Google en 2023 y ha sido mejorado constantemente. Está diseñado para generar videos de 720p con audio incluido, a partir de indicaciones simples. Aunque en su forma original produce videos horizontales, YouTube estaría adaptándolo para que los Shorts no tengan bordes negros. Además, Veo 3 ya ha sido usado en redes para crear contenido viral como "cómo sería Shakespeare como youtuber" o "Napoleón haciendo vlogs". Este tipo de creatividad puede ser divertida, pero también inquietante. Por eso, YouTube trabaja en regulaciones internas para evitar abusos, y aún no ha confirmado si habrá una versión gratuita de esta tecnología. Muchos esperan que Google encuentre un equilibrio entre accesibilidad, calidad y control ético.  YouTube va a integrar la inteligencia artificial Veo 3 en Shorts. ¿Será el fin del contenido humano o el inicio de una nueva era?Sigue el pódcast Flash Diario en Spotify para conocer más historias sobre tecnología, ciencia y creatividad digital. BibliografíaHollywood Reporter Engadget  Ars Technica  The Verge  Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    --------  
    7:12
  • China prueba cápsula lunar Mengzhou con éxito total
    China ha probado con éxito la cápsula Mengzhou, diseñada para llevar personas a la Luna. El ensayo probó su sistema de escape en caso de emergencia  Por Félix Riaño @LocutorCo  El martes 17 de junio, China lanzó con éxito una prueba de emergencia de su cápsula Mengzhou, sin tripulación, en el Centro de Lanzamiento de Jiuquan. Esta cápsula será usada en futuras misiones tripuladas a la Luna. La maniobra consistió en simular un accidente desde la plataforma de lanzamiento, para verificar que la cápsula pueda escapar si ocurre una explosión en tierra. En 20 segundos, el sistema de propulsión la elevó, luego soltó el módulo principal y lo dejó caer suavemente con paracaídas y airbags. ¿Por qué este ensayo podría significar que China le gane a Estados Unidos en la carrera lunar?  La cápsula Mengzhou, cuyo nombre significa “barco del sueño”, está diseñada para llevar astronautas chinos a la órbita lunar antes del año 2030. La prueba realizada el 17 de junio a las 12:30 del mediodía (hora de China) consistió en una simulación real de emergencia. Sin usar un cohete, se activaron motores sólidos que empujaron la cápsula hacia arriba. A los 20 segundos, se separó de su torre de escape y descendió con tres paracaídas hasta aterrizar con ayuda de un sistema de bolsas de aire. A las 12:32 ya estaba de vuelta en el suelo. Esta fue apenas la segunda vez que China realiza una prueba de escape desde cero metros de altitud. La anterior había sido en 1998, con la cápsula Shenzhou. Pero Mengzhou es diferente: su sistema de seguridad no depende del cohete, sino que está integrado en la cápsula misma. Esto permite responder con rapidez en caso de una falla grave durante el lanzamiento. Este paso era vital para validar el diseño y seguir con las próximas pruebas, que incluirán un ensayo en pleno vuelo, a mayor altitud y presión atmosférica. Aunque China aún está por detrás de la NASA en misiones lunares, esta cápsula nueva parece estar ganando terreno.Estados Unidos recortó el presupuesto para sus misiones lunares. La NASA enfrenta incertidumbre. El presupuesto propuesto por la Casa Blanca para 2026 elimina el cohete SLS y la cápsula Orion después de la misión Artemis 3, prevista para 2027. Mientras tanto, China avanza en el desarrollo de Mengzhou, el cohete Long March 10 y un módulo lunar, que podrían permitirle llegar primero a la Luna en esta nueva era. Mengzhou puede llevar hasta siete astronautas en misiones en órbita baja, o tres hasta la órbita lunar. Es parcialmente reutilizable, y ya fue probada en 2020 con un vuelo suborbital. Su versión lunar pesará unas 26 toneladas. Este sistema ha sido diseñado para cumplir con estándares internacionales y funcionar tanto con estaciones espaciales como en misiones lunares. El cohete Long March 10 tendrá tres etapas de 5 metros de diámetro, con motores de queroseno y oxígeno líquido. Está en construcción en Wenchang, en la isla de Hainan. Las plataformas de lanzamiento ya están siendo instaladas. El sistema completo de la misión lunar incluirá un aterrizador llamado Lanyue y, posiblemente, una combinación con el Long March 5B para pruebas atmosféricas. Según la Oficina de Ingeniería Espacial Tripulada de China (CMSEO), todos estos elementos están siendo desarrollados en paralelo. El objetivo es claro: tener una misión tripulada lista antes del año 2030. China ya probó el diseño de reingreso de Mengzhou a gran velocidad hace cinco años, y ahora se enfoca en demostrar que puede proteger vidas humanas desde el despegue hasta el regreso. China dio un paso firme hacia la Luna con la prueba de emergencia de Mengzhou. ¿Quién ganará esta nueva carrera lunar? Comenta y escucha más en el pódcast Flash Diario.📚 Bibliografía 📚Space.com – Josh Dinner  CGTN  SpaceNews – Andrew Jones  Interesting Engineering – Neetika Walter  Xinhua  Universe Magazine Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    --------  
    6:13

Más podcasts de Noticias

Acerca de FLASH DIARIO de El Siglo 21 es Hoy

Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy.Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos!Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.comCada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día.En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles.Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados.Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo!Suscríbete gratis en:➜ YouTube: https://bit.ly/FlashDiario ➜ Spotify: https://spoti.fi/3MRBhwH ➜ Apple Podcasts: https://apple.co/3BR7AWeConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Sitio web del podcast

Escucha FLASH DIARIO de El Siglo 21 es Hoy, The Daily y muchos más podcasts de todo el mundo con la aplicación de radio.net

Descarga la app gratuita: radio.net

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app

FLASH DIARIO de El Siglo 21 es Hoy: Podcasts del grupo

Aplicaciones
Redes sociales
v7.18.6 | © 2007-2025 radio.de GmbH
Generated: 6/24/2025 - 8:03:39 AM