Powered by RND
PodcastsNoticiasFLASH DIARIO de El Siglo 21 es Hoy

FLASH DIARIO de El Siglo 21 es Hoy

@LocutorCo
FLASH DIARIO de El Siglo 21 es Hoy
Último episodio

Episodios disponibles

5 de 625
  • Gemini dentro del robot
    Robots que aprenden tareas viendo videos... y sin conexión a internet  Por Félix Riaño @LocutorCo  Google DeepMind presentó Gemini Robotics On-Device, un modelo que funciona dentro del robot, sin necesidad de la nube, aprende rápido y se adapta a distintos cuerpos robóticos.  Google DeepMind presentó un modelo de inteligencia artificial que no necesita conexión a internet para funcionar. Se llama Gemini Robotics On-Device y opera dentro del robot. Es rápido, privado y ya puede doblar ropa, abrir cremalleras y adaptarse a varios tipos de robots sin tener que volver a entrenarlo desde cero. Aprende viendo tareas nuevas entre 50 y 100 veces. Se entrena rápido y ejecuta en tiempo real. Es como tener un robot que piensa por su cuenta, sin depender de ningún servidor externo. ¿Ya estamos cerca de tener robots verdaderamente autónomos en nuestras casas y trabajos?  Este robot no necesita nube para pensar. Piensa dentro de sí mismo.  Imagina que tienes un robot en casa. Le dices “dobla esta camiseta” y lo hace sin conectarse a internet. Esa es la idea de Gemini Robotics On-Device. Funciona completamente desde el robot. Google entrenó este modelo en su robot ALOHA y luego lo adaptó al humanoide Apollo y al robot Franka FR3 con dos brazos. Se adapta con rapidez y funciona sin ayuda externa. Lo sorprendente es que aprende nuevas tareas con solo 50 a 100 demostraciones. Puede entender instrucciones como “abre esta cremallera” y ejecutar la acción con precisión. Todo se procesa dentro del robot. Nada se envía a la nube.  Los robots que necesitan internet pueden fallar si la red se cae. Además, enviar todo lo que ven a la nube plantea problemas de privacidad. En entornos sensibles como hospitales, fábricas o casas, eso no es aceptable. Gemini Robotics On-Device elimina ese riesgo. El procesamiento local evita filtraciones y funciona incluso sin señal. Eso permite usarlo en lugares donde antes era impensable. Pero también hay desafíos: los desarrolladores deben encargarse de que el robot no cometa errores peligrosos. Google sugiere usar su API de seguridad o crear mecanismos de protección propios para evitar comportamientos inadecuados o inseguros.  Gemini Robotics On-Device es ideal para tareas cotidianas. Se entrena rápido, se adapta a distintos robots y actúa en tiempo real. No sustituye al modelo más avanzado en la nube, pero lo complementa. Puede operar sin conexión, lo que es útil en lugares con mala señal o donde la privacidad es prioritaria. Google lanzó un SDK que permite entrenar nuevos comportamientos usando el simulador físico MuJoCo. Ya hay testers trabajando con el modelo. En poco tiempo podríamos ver robots que doblan ropa, ensamblan piezas o colaboran en casa sin necesidad de conexión. El futuro robótico, autónomo y local ya llegó.  Otras empresas también trabajan en robótica. Nvidia está desarrollando una plataforma de modelos base para robots humanoides. Hugging Face crea conjuntos de datos abiertos para entrenar robots. La startup coreana RLWRLD también desarrolla modelos fundacionales. Pero Google ya tiene un modelo funcional probado en robots reales. Su equipo ReDI evalúa la seguridad y el impacto social del sistema. Cada nuevo avance pasa por el Consejo de Seguridad y se hacen pruebas para corregir errores. La versión actual está basada en Gemini 2.0, pero vendrán más potentes. La robótica sin internet ya no es futuro. Es presente.  Robots que aprenden sin internet, ejecutan tareas en tiempo real y cuidan tu privacidad. Gemini Robotics On-Device ya está en pruebas reales. ¿Qué tarea le enseñarías tú? Comenta y sigue el pódcast Flash Diario en Spotify.📚 Bibliografía The Verge sTechCrunch Ars Technica  Google DeepMind Blog Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    --------  
    10:33
  • Nadie más podrá usar tu celular robado
    Activa estas funciones de seguridad en Android y Samsung Galaxy para proteger tu información si te roban el teléfono Por Félix Riaño @LocutorCo Samsung y Android están empujando fuerte con funciones antirrobo. Vamos a contar cómo activarlas, qué hacen exactamente y por qué no debes confiarte con dejar el celular desbloqueado en el bolsillo. Los robos de celulares siguen creciendo. En Bogotá, la Policía ya ha recuperado más de mil ochocientos celulares robados este año. En Reino Unido, Samsung está enviando notificaciones masivas a cuarenta millones de personas para que activen sus funciones de protección. Y si tienes un Galaxy con One UI 7, puedes bloquear el teléfono aunque esté sin internet, pedir autenticación biométrica para cambiar datos, o activar un retraso de seguridad si alguien intenta alterar tus huellas digitales. ¿Y si tienes un Android de otra marca? También puedes protegerte… pero con algunos límites. ¿Sabías que hay que correr bastante para que se active la protección contra robos? Activar estas funciones no es automático: hay que buscarlas. Vamos a contarlo como es: no basta con tener un teléfono caro o moderno. Si no activas tú mismo las funciones de protección, tu información queda expuesta en caso de robo. Y no solo hablamos de perder tus fotos o mensajes. También podrían tener acceso a tus correos, tu cuenta bancaria o tus redes sociales. Por eso, Samsung ha incluido en su actualización One UI 7 un paquete de seguridad que vale la pena entender y configurar. Incluye bloqueo remoto, bloqueo sin conexión, verificación biométrica desde ubicaciones desconocidas, y algo llamado "retraso de seguridad" para darte una hora antes de que los ladrones puedan cambiar tus datos biométricos. Todo eso está disponible en los Galaxy S25, S24, S23, S22, Fold5, Fold6, Flip5 y Flip6. En muchas ciudades de América Latina y Europa, los robos de celulares no son cosa del pasado. Siguen ocurriendo en buses, en la calle, en cafeterías. Y muchas veces, el ladrón no necesita correr. Basta con que vea tu PIN una vez y tenga el equipo desbloqueado en sus manos para que acceda a todo. Aunque Android y Samsung han mejorado sus sistemas, aún hay vacíos. Por ejemplo, algunas funciones como la detección de robo no funcionan si el teléfono está bloqueado o simplemente está sobre la mesa sin movimiento. Y aunque los sensores de movimiento activan bloqueos automáticos si detectan una sacudida violenta, no siempre es suficiente. A eso se suma que estas funciones no vienen activadas de fábrica: hay que entrar a configuración, buscar “Protección contra robo” y activarlas manualmente. La buena noticia es que sí puedes protegerte. Vamos a contarte cómo activar tres funciones clave si tienes Android 10 o superior: primero, “Bloqueo por detección de robo”, que se activa si el celular detecta un movimiento brusco o si se desconectan el Wi-Fi y el Bluetooth de manera sospechosa. Segundo, “Bloqueo sin conexión”, que impide el acceso si el teléfono pierde señal o entra en modo avión. Y tercero, el “Bloqueo remoto”, que puedes activar desde cualquier navegador entrando a android.com/lock y escribiendo tu número. En el caso de los Galaxy con One UI 7, hay mejoras extra: por ejemplo, el teléfono se bloquea automáticamente si alguien intenta borrar las huellas digitales, y se impone una espera de una hora antes de aceptar nuevos datos biométricos. Ese margen de tiempo permite que puedas bloquearlo tú desde un computador o tableta antes de que el ladrón acceda a tu cuenta. Google entrenó la inteligencia artificial de Android para detectar robos basándose en sensores de movimiento y en patrones típicos de hurto. Para eso, su equipo de seguridad hizo pruebas en Brasil, uno de los países con más robos de celulares. En esas pruebas, simularon robos corriendo, en bicicleta o en carro, para generar trazas que luego alimentaron el modelo de inteligencia artificial. Pero hay un detalle curioso: el sistema solo se activa si el celular está desbloqueado y en uso. Es decir, si te lo quitan de las manos mientras lo estás usando. No funciona si está bloqueado sobre la mesa. Además, la protección se detiene si se activa dos veces seguidas para evitar falsos positivos. Algunos usuarios reportan que necesitan correr bastante rápido para que se active, lo cual sugiere que los ladrones tienen mejor condición física que muchos de nosotros. Por eso, Google recomienda tener activado también el Bloqueo sin conexión y el Bloqueo remoto. Y como consejo adicional: usa una contraseña larga, no un PIN fácil de adivinar. Proteger tu teléfono Android o Galaxy está en tus manos. Activa ya las funciones antirrobo y configura el bloqueo biométrico. Te invito a compartir este episodio y seguir el pódcast Flash Diario en Spotify:Flash Diario en Spotify🔗 BibliografíaSamsung Newsroom ColombiaWiredAndroid PoliceTom’s GuideAndroid AuthorityMashableConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    --------  
    9:05
  • Lenovo lanza el mejor Chromebook hasta ahora
    El nuevo Chromebook Plus 14 de Lenovo usa IA para organizar, crear y funcionar sin conexión. ¿Adiós a Windows?  Por Félix Riaño @LocutorCo  El nuevo Chromebook Plus 14 de Lenovo marca un paso importante en la evolución de los portátiles con inteligencia artificial integrada. Google le ha apostado a potenciar ChromeOS con Gemini, funciones avanzadas como agrupación automática de pestañas, edición de imágenes local y una autonomía de hasta 17 horas. A esto se suma Android 16, que llega con ventanas redimensionables y compatibilidad con pantallas externas, trayendo de regreso el debate: ¿estamos a punto de ver el nacimiento de Android para escritorio? La jugada de Google con estos dos frentes podría cambiar la forma en que usamos nuestros dispositivos para trabajar, estudiar y crear.  Google parece estar duplicando esfuerzos en dos frentes parecidos  El 23 de junio de 2025, Google y Lenovo anunciaron el lanzamiento del Chromebook Plus 14, el primer portátil con ChromeOS equipado con el nuevo procesador MediaTek Kompanio Ultra 910 y capacidades de inteligencia artificial local. Este modelo marca un antes y un después para los Chromebooks, integrando funciones de edición de imágenes directamente en la app de galería y herramientas como agrupación inteligente de pestañas y documentos. Estas mejoras no dependen de conexión a internet, gracias a la NPU (unidad de procesamiento neuronal) capaz de ejecutar hasta 50 billones de operaciones por segundo. Además, el dispositivo ofrece una pantalla OLED de 14 pulgadas, 400 nits de brillo, altavoces con Dolby Atmos, hasta 16 GB de RAM y compatibilidad con dos pantallas externas 4K. Todo esto en un cuerpo delgado de apenas 1,17 kilogramos. Es el Chromebook más potente hasta ahora y viene con un año gratuito de Google AI Pro, lo que incluye herramientas como Gemini 2.5 Pro, Flow y Veo 3 Fast.  Pero mientras ChromeOS gana nuevas funciones, Google también ha estado construyendo una alternativa: Android 16 con capacidades de escritorio. Este nuevo enfoque incluye ventanas redimensionables, modo multiventana y la posibilidad de conectar pantallas externas para usar un teléfono o tablet como si fuera un computador completo. Con eso, Android empieza a parecerse a un sistema operativo de escritorio. De hecho, durante el evento I/O 2025, Google mostró cómo Android 16 puede usar una pantalla externa para transformar un dispositivo móvil en una herramienta de productividad con múltiples ventanas abiertas. ¿Estamos ante una estrategia de transición? Algunos analistas creen que Google está preparando a Android para reemplazar en el futuro a ChromeOS en ciertos segmentos del mercado. Al mismo tiempo, ChromeOS sigue presente en educación, empresas y dispositivos como este nuevo Chromebook de Lenovo. ¿Es sostenible mantener dos sistemas de escritorio? ¿O veremos una fusión completa más adelante?  Por ahora, parece que Google va a seguir desarrollando ambas plataformas en paralelo. Android 16 se enfoca más en la experiencia multitarea en tablets y teléfonos, mientras que ChromeOS mantiene su fortaleza en el mundo académico y profesional. Pero la diferencia se está acortando. El Lenovo Chromebook Plus 14 ofrece funciones que antes solo veíamos en Android: búsquedas visuales con Lens, transcripción de texto desde imágenes y hasta generación de imágenes con inteligencia artificial. Todo esto lo hace sin enviar datos a la nube, lo que garantiza privacidad y velocidad. Además, los dispositivos Chromebook Plus nuevos incluyen un año de Google AI Pro y Gemini instalado desde el primer día. Mientras tanto, Android 16 se prepara para llevar la experiencia de escritorio a más dispositivos móviles, con un enfoque que recuerda a Samsung DeX. ¿La diferencia? Ahora todo estará potenciado por inteligencia artificial y Gemini. En el futuro, podríamos tener Chromebooks convertibles en tablets o tablets que se comportan como Chromebooks. Sea como sea, Google quiere que el usuario final tenga una experiencia fluida, inteligente y conectada.  El Lenovo Chromebook Plus 14 no solo destaca por su potencia técnica. Es un equipo pensado para personas que necesitan productividad real en movilidad. Con hasta 17 horas de batería y conectividad Wi-Fi 7, es ideal para quienes trabajan desde cualquier lugar. Además, su pantalla OLED con gama de color 100% DCI-P3 es perfecta para creadores visuales. Lenovo también incluyó una cámara de 5 megapíxeles con obturador físico para privacidad, teclado retroiluminado y chasis de aluminio. Es un dispositivo silencioso, sin ventilador, y con opciones de almacenamiento hasta 256 GB UFS. A nivel empresarial, puede incluir Chrome Enterprise Upgrade para gestión remota en empresas. En educación, los colegios pueden optar por Chrome Education Upgrade para controlar y personalizar el entorno digital de cada estudiante. En resumen, este Chromebook Plus 14 es el modelo más ambicioso hasta ahora. Y la competencia de Google con Windows y macOS ya no será solo en el navegador. Ahora se está dando en el terreno de la inteligencia artificial y los escritorios híbridos.  El Lenovo Chromebook Plus 14 representa un gran paso hacia un futuro de computación híbrida e inteligente. Google está unificando su ecosistema entre Android y ChromeOS con Gemini al frente. Si te interesa el futuro de los escritorios con IA, sigue este podcast en Spotify y cuéntame qué opinas sobre esta convergencia de plataformas: 👉 Flash Diario en Spotify  📚 Bibliografía 9to5Google Mashable Ars Technica ZDNet Lenovo: Next Generation Hybrid AI Chromebook Plus 14 Press ReleaseConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    --------  
    13:54
  • El módulo japonés que dejó cicatriz lunar
    NASA detecta la huella del accidente del módulo japonés Resilience en Mare Frigoris, una región volcánica lunar Por Félix Riaño @LocutorCo Un módulo japonés llamado Resilience, construido por la empresa ispace, debía aterrizar suavemente en la Luna. En su lugar, dejó una mancha oscura en el polvo lunar. El accidente ocurrió el 5 de junio, pero las imágenes que lo confirman llegaron hasta ahora. Fueron tomadas por el orbitador LRO de la NASA y muestran una marca inconfundible: un punto negro rodeado por un halo claro, formado por el polvo que se levantó al impactar. La historia de este accidente no es solo una crónica de fracaso, también es una oportunidad para aprender. ¿Qué nos dicen las imágenes del impacto sobre los límites de la exploración espacial privada? Es el segundo intento fallido de ispace en solo dos años. La mañana del 5 de junio de 2025, desde el centro de control en Tokio, la empresa ispace intentó hacer historia. Su módulo lunar Resilience, lanzado el 15 de enero desde Cabo Cañaveral, estaba por completar una misión ambiciosa: tocar la superficie de la Luna de manera controlada, liberar un pequeño rover y abrir paso a futuras misiones comerciales japonesas. El sitio elegido fue Mare Frigoris, conocido como el Mar del Frío, una región del norte lunar con valor científico y estratégico. A bordo del módulo iba Tenacious, un microrobot desarrollado por la división europea de ispace, con sede en Luxemburgo. Incluso llevaba una pequeña obra de arte: una réplica de una casa sueca tradicional, pintada de rojo y blanco. Todo parecía listo para hacer historia, pero en lugar de celebrar, el equipo perdió comunicación. El aterrizaje se transformó en un misterio que solo se resolvió días después. El problema surgió en los últimos segundos. El módulo descendía con precisión hasta que, sin previo aviso, el contacto se perdió. Durante horas no hubo señales. ispace no podía confirmar si Resilience había aterrizado o se había estrellado. Días más tarde, el orbitador LRO de la NASA ayudó a resolver el enigma. Desde unos 80 kilómetros de altitud, captó una imagen en blanco y negro de la zona. Allí se ve una mancha oscura con un halo claro a su alrededor. Es la marca de un impacto. Según los expertos, ese tipo de huella solo puede formarse si un objeto golpea la superficie a gran velocidad, levantando regolito: el polvo fino y rocoso que cubre la Luna. Esa marca fue comparada con fotos previas y no estaba antes. La conclusión fue inmediata: Resilience se estrelló. Y lo hizo a 2,4 kilómetros del punto exacto donde debía aterrizar. Una distancia que, en misiones lunares, es demasiado grande como para pasar por alto. La historia no termina en el impacto. La imagen de la NASA fue obtenida el 11 de junio, seis días después del accidente. El equipo de la misión LRO usó una cámara de alta resolución, llamada LROC, que puede detectar detalles mínimos en la superficie lunar. Comparando imágenes anteriores y posteriores, confirmaron la alteración del terreno. La zona del impacto será ahora objeto de estudio. No solo por el accidente, también por su ubicación: Mare Frigoris es una planicie volcánica muy antigua, con arrugas geológicas llamadas wrinkle ridges, formadas por el enfriamiento y contracción del suelo. Saber cómo responde este terreno ante impactos recientes puede aportar datos clave para futuras misiones, sobre todo en la planificación de aterrizajes. Aunque ispace ha tenido dos fracasos consecutivos —el anterior fue en abril de 2023—, cada intento suma información. En el mundo de la exploración espacial, incluso los errores dejan lecciones que pueden evitar tragedias más adelante. ispace va a presentar en los próximos días un informe oficial con las causas del fallo. Por ahora, la imagen de esa mancha lunar se convierte en el símbolo más reciente del esfuerzo humano por llegar más allá. El orbitador LRO (Lunar Reconnaissance Orbiter) lleva desde 2009 dando vueltas alrededor de la Luna. Fue lanzado por la NASA con el objetivo de estudiar el terreno lunar a fondo. Entre sus siete instrumentos, destaca el sistema de cámaras LROC, capaz de ver detalles minúsculos. Gracias a estas cámaras, se han podido observar los sitios donde aterrizaron las misiones Apolo, cráteres recién formados por meteoritos y ahora también el impacto de misiones fallidas, como Resilience. Este seguimiento no es solo un registro histórico. Sirve para planificar nuevas misiones y analizar cómo cambia la superficie lunar con el tiempo. La región de Mare Frigoris, donde ocurrió este choque, es de especial interés porque combina un terreno liso con zonas de tensión geológica. Esto la hace atractiva tanto para misiones robóticas como tripuladas. La visibilidad de esta huella en el polvo lunar también ayuda a estudiar cómo se dispersa el regolito, algo importante para proteger naves y equipos en misiones futuras. El impacto fue desafortunado, pero los datos que deja son un tesoro para científicos e ingenieros. El módulo japonés Resilience no logró aterrizar suavemente, pero su marca quedó grabada en la Luna. NASA la detectó y ahora tenemos nuevas pistas para mejorar futuras misiones. Si te interesan las historias donde ciencia, errores y descubrimientos se cruzan, escucha más en Flash Diario en Spotify.🔗 Bibliografía  AP News – NASA  NASA – LRO  Space.com – NASA  The Daily Galaxy Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    --------  
    7:47
  • Adobe mejora la cámara del iPhone
    Adobe mejora tu cámara:  App gratuita con inteligencia artificial para iPhone con IA, controles manuales y fotos RAW de alta calidad   Por Félix Riaño @LocutorCo  Adobe acaba de presentar una app experimental que transforma el modo en que usamos la cámara del iPhone. Se llama Project Indigo, y ya está disponible gratis en la App Store. Detrás del desarrollo están los mismos ingenieros que crearon la cámara de los teléfonos Pixel de Google. La promesa es clara: ofrecer una experiencia de captura con aspecto profesional, basada en inteligencia artificial, procesamiento por ráfagas y controles manuales. ¿Puede una app gratuita reemplazar la cámara nativa del iPhone y convertirse en la favorita de quienes aman la fotografía móvil?  Project Indigo no toma una sola foto: toma hasta 32 imágenes en ráfaga, las alinea y las fusiona para crear una sola más precisa, con menos ruido, mejor rango dinámico y más detalle. Lo más impresionante es que lo hace con un enfoque natural, evitando los efectos exagerados que muchos usuarios detestan. Está disponible desde el iPhone 12 Pro y en todos los modelos del iPhone 14 en adelante, aunque Adobe recomienda usarlo con un iPhone 15 Pro o superior. No necesitas tener cuenta de Adobe ni iniciar sesión, lo cual la hace ideal para experimentar sin compromiso. Además, es compatible con fotos RAW y JPEG. Y si usas Lightroom, puedes enviar tus fotos directamente desde Indigo para editarlas.  Pero no todo es perfecto: Pierdes funciones nativas como Live Photos, modo retrato y estilos fotográficos.   El cerebro detrás de Indigo es Marc Levoy, quien dejó Google en 2020 para unirse a Adobe con el objetivo de crear una “app de cámara universal”. Junto a él está Florian Kainz, también ex Google y experto en procesamiento de imagen. Ambos fueron clave en los avances del Pixel, que convirtió a la cámara de Google en un referente. Con Indigo buscan ir más allá: crear fotos que parezcan tomadas con cámaras réflex, sin dejar de aprovechar el poder del iPhone. Uno de sus logros técnicos es que el obturador no tiene retardo: la app ya está grabando imágenes RAW mientras estás encuadrando, así que cuando presionas el botón, ya tiene lista la mejor toma. Ideal para capturar momentos exactos como un perro en movimiento o una pelota entrando en el arco.  Muchos fotógrafos no confían en las cámaras del celular porque el software tiende a exagerar la imagen. Colores saturados, sombras aplastadas, reflejos molestos y detalles perdidos por la compresión digital. Apple ha hecho mejoras, pero su app de cámara sigue sin ofrecer controles manuales completos. Tampoco permite disparar con exposición prolongada real ni ajustar el número de imágenes por ráfaga. Project Indigo responde a esa necesidad con un enfoque híbrido: mantiene la sencillez del teléfono, pero entrega resultados dignos de una cámara avanzada. En lugar de aplicar filtros o IA que "inventan" detalles, Indigo capta datos reales desde el sensor y los combina para mejorar la nitidez. Incluso permite usar el movimiento natural de la mano como técnica para captar más perspectiva y obtener fotos más detalladas, algo conocido como "multi-frame super-resolution".  Project Indigo ya puede descargarse gratis y viene con funciones únicas que la distinguen de otras apps. Por ejemplo, permite hacer fotos en condiciones de luz muy baja sin necesidad de trípode, gracias a la combinación de 32 cuadros tomados en segundos. También incluye un botón dedicado para fotos de larga exposición, que simula el efecto de obturación prolongada en cámaras réflex: perfecto para capturar cascadas, luces en movimiento o trazos de luz en la noche. Otra función prometedora es la eliminación de reflejos con IA, ideal para fotos detrás de vitrinas o cristales. Y si te gusta editar, las fotos en RAW pueden abrirse directamente en Lightroom con compatibilidad total con los perfiles de color de Adobe. Aunque aún no tiene modo retrato ni video, ya se están desarrollando esas funciones, junto con bracketing de exposición y enfoque. La app también actúa como plataforma de pruebas para futuras funciones de Photoshop y Lightroom. Además, Adobe ya confirmó que la versión para Android “va a llegar seguro”.  Las imágenes tomadas con Indigo pueden verse en calidad HDR en una galería oficial alojada en Adobe Lightroom. Eso sí: la visualización óptima requiere una pantalla compatible y usar Google Chrome. Safari puede no mostrar correctamente los colores ni los brillos. Otra novedad técnica es el demosaico avanzado, que reconstruye los colores a partir del sensor de forma más precisa que otras apps. Indigo también ajusta el tono y el color basándose en lo que hay en la escena: sabe cuándo hay una persona en primer plano o cuándo estás fotografiando un cielo al atardecer. En las pruebas realizadas por medios como PetaPixel y CNET, se destacó que el zoom digital de Indigo supera al del iPhone al no inventar píxeles, sino construir la imagen con varias tomas desde ángulos apenas distintos. Además, la app permite ajustar la cantidad de cuadros por ráfaga, algo que no se ve en otras herramientas similares. Según Adobe, este es solo el comienzo: planean integrar más funciones creativas y fortalecer la app con la ayuda de los comentarios de quienes ya están probándola.  Project Indigo es una app gratuita de Adobe que convierte tu iPhone en una cámara avanzada con controles manuales, procesamiento inteligente y compatibilidad con RAW. Está pensada para quienes aman la fotografía, pero también para curiosos que quieran probar una nueva forma de tomar fotos. Descárgala, prueba sus funciones y cuéntanos tu experiencia. Y sigue el pódcast Flash Diario en Spotify.Bibliografía 📚The Verge PetaPixel CNET Engadget Adobe Research Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    --------  
    9:20

Más podcasts de Noticias

Acerca de FLASH DIARIO de El Siglo 21 es Hoy

Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy.Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos!Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.comCada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día.En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles.Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados.Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo!Suscríbete gratis en:➜ YouTube: https://bit.ly/FlashDiario ➜ Spotify: https://spoti.fi/3MRBhwH ➜ Apple Podcasts: https://apple.co/3BR7AWeConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Sitio web del podcast

Escucha FLASH DIARIO de El Siglo 21 es Hoy, A Fondo Con María Jimena Duzán y muchos más podcasts de todo el mundo con la aplicación de radio.net

Descarga la app gratuita: radio.net

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app

FLASH DIARIO de El Siglo 21 es Hoy: Podcasts del grupo

Aplicaciones
Redes sociales
v7.18.7 | © 2007-2025 radio.de GmbH
Generated: 6/26/2025 - 11:10:08 AM