Afleveringen

  • El nuevo Chromebook Plus 14 de Lenovo usa IA para organizar, crear y funcionar sin conexión. ¿Adiós a Windows?

    Por Félix Riaño @LocutorCo

    El nuevo Chromebook Plus 14 de Lenovo marca un paso importante en la evolución de los portátiles con inteligencia artificial integrada. Google le ha apostado a potenciar ChromeOS con Gemini, funciones avanzadas como agrupación automática de pestañas, edición de imágenes local y una autonomía de hasta 17 horas. A esto se suma Android 16, que llega con ventanas redimensionables y compatibilidad con pantallas externas, trayendo de regreso el debate: ¿estamos a punto de ver el nacimiento de Android para escritorio? La jugada de Google con estos dos frentes podría cambiar la forma en que usamos nuestros dispositivos para trabajar, estudiar y crear.

    Google parece estar duplicando esfuerzos en dos frentes parecidos

    El 23 de junio de 2025, Google y Lenovo anunciaron el lanzamiento del Chromebook Plus 14, el primer portátil con ChromeOS equipado con el nuevo procesador MediaTek Kompanio Ultra 910 y capacidades de inteligencia artificial local. Este modelo marca un antes y un después para los Chromebooks, integrando funciones de edición de imágenes directamente en la app de galería y herramientas como agrupación inteligente de pestañas y documentos. Estas mejoras no dependen de conexión a internet, gracias a la NPU (unidad de procesamiento neuronal) capaz de ejecutar hasta 50 billones de operaciones por segundo. Además, el dispositivo ofrece una pantalla OLED de 14 pulgadas, 400 nits de brillo, altavoces con Dolby Atmos, hasta 16 GB de RAM y compatibilidad con dos pantallas externas 4K. Todo esto en un cuerpo delgado de apenas 1,17 kilogramos. Es el Chromebook más potente hasta ahora y viene con un año gratuito de Google AI Pro, lo que incluye herramientas como Gemini 2.5 Pro, Flow y Veo 3 Fast.

    Pero mientras ChromeOS gana nuevas funciones, Google también ha estado construyendo una alternativa: Android 16 con capacidades de escritorio. Este nuevo enfoque incluye ventanas redimensionables, modo multiventana y la posibilidad de conectar pantallas externas para usar un teléfono o tablet como si fuera un computador completo. Con eso, Android empieza a parecerse a un sistema operativo de escritorio. De hecho, durante el evento I/O 2025, Google mostró cómo Android 16 puede usar una pantalla externa para transformar un dispositivo móvil en una herramienta de productividad con múltiples ventanas abiertas. ¿Estamos ante una estrategia de transición? Algunos analistas creen que Google está preparando a Android para reemplazar en el futuro a ChromeOS en ciertos segmentos del mercado. Al mismo tiempo, ChromeOS sigue presente en educación, empresas y dispositivos como este nuevo Chromebook de Lenovo. ¿Es sostenible mantener dos sistemas de escritorio? ¿O veremos una fusión completa más adelante?

    Por ahora, parece que Google va a seguir desarrollando ambas plataformas en paralelo. Android 16 se enfoca más en la experiencia multitarea en tablets y teléfonos, mientras que ChromeOS mantiene su fortaleza en el mundo académico y profesional. Pero la diferencia se está acortando. El Lenovo Chromebook Plus 14 ofrece funciones que antes solo veíamos en Android: búsquedas visuales con Lens, transcripción de texto desde imágenes y hasta generación de imágenes con inteligencia artificial. Todo esto lo hace sin enviar datos a la nube, lo que garantiza privacidad y velocidad. Además, los dispositivos Chromebook Plus nuevos incluyen un año de Google AI Pro y Gemini instalado desde el primer día. Mientras tanto, Android 16 se prepara para llevar la experiencia de escritorio a más dispositivos móviles, con un enfoque que recuerda a Samsung DeX. ¿La diferencia? Ahora todo estará potenciado por inteligencia artificial y Gemini. En el futuro, podríamos tener Chromebooks convertibles en tablets o tablets que se comportan como Chromebooks. Sea como sea, Google quiere que el usuario final tenga una experiencia fluida, inteligente y conectada.

    El Lenovo Chromebook Plus 14 no solo destaca por su potencia técnica. Es un equipo pensado para personas que necesitan productividad real en movilidad. Con hasta 17 horas de batería y conectividad Wi-Fi 7, es ideal para quienes trabajan desde cualquier lugar. Además, su pantalla OLED con gama de color 100% DCI-P3 es perfecta para creadores visuales. Lenovo también incluyó una cámara de 5 megapíxeles con obturador físico para privacidad, teclado retroiluminado y chasis de aluminio. Es un dispositivo silencioso, sin ventilador, y con opciones de almacenamiento hasta 256 GB UFS. A nivel empresarial, puede incluir Chrome Enterprise Upgrade para gestión remota en empresas. En educación, los colegios pueden optar por Chrome Education Upgrade para controlar y personalizar el entorno digital de cada estudiante. En resumen, este Chromebook Plus 14 es el modelo más ambicioso hasta ahora. Y la competencia de Google con Windows y macOS ya no será solo en el navegador. Ahora se está dando en el terreno de la inteligencia artificial y los escritorios híbridos.

    El Lenovo Chromebook Plus 14 representa un gran paso hacia un futuro de computación híbrida e inteligente. Google está unificando su ecosistema entre Android y ChromeOS con Gemini al frente. Si te interesa el futuro de los escritorios con IA, sigue este podcast en Spotify y cuéntame qué opinas sobre esta convergencia de plataformas: 👉 Flash Diario en Spotify


    📚 Bibliografía
    9to5Google Mashable Ars Technica ZDNet Lenovo: Next Generation Hybrid AI Chromebook Plus 14 Press Release

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • NASA detecta la huella del accidente del módulo japonés Resilience en Mare Frigoris, una región volcánica lunar

    Por Félix Riaño @LocutorCo


    Un módulo japonés llamado Resilience, construido por la empresa ispace, debía aterrizar suavemente en la Luna. En su lugar, dejó una mancha oscura en el polvo lunar. El accidente ocurrió el 5 de junio, pero las imágenes que lo confirman llegaron hasta ahora. Fueron tomadas por el orbitador LRO de la NASA y muestran una marca inconfundible: un punto negro rodeado por un halo claro, formado por el polvo que se levantó al impactar. La historia de este accidente no es solo una crónica de fracaso, también es una oportunidad para aprender. ¿Qué nos dicen las imágenes del impacto sobre los límites de la exploración espacial privada?


    Es el segundo intento fallido de ispace en solo dos años.

    La mañana del 5 de junio de 2025, desde el centro de control en Tokio, la empresa ispace intentó hacer historia. Su módulo lunar Resilience, lanzado el 15 de enero desde Cabo Cañaveral, estaba por completar una misión ambiciosa: tocar la superficie de la Luna de manera controlada, liberar un pequeño rover y abrir paso a futuras misiones comerciales japonesas. El sitio elegido fue Mare Frigoris, conocido como el Mar del Frío, una región del norte lunar con valor científico y estratégico. A bordo del módulo iba Tenacious, un microrobot desarrollado por la división europea de ispace, con sede en Luxemburgo. Incluso llevaba una pequeña obra de arte: una réplica de una casa sueca tradicional, pintada de rojo y blanco. Todo parecía listo para hacer historia, pero en lugar de celebrar, el equipo perdió comunicación. El aterrizaje se transformó en un misterio que solo se resolvió días después.

    El problema surgió en los últimos segundos. El módulo descendía con precisión hasta que, sin previo aviso, el contacto se perdió. Durante horas no hubo señales. ispace no podía confirmar si Resilience había aterrizado o se había estrellado. Días más tarde, el orbitador LRO de la NASA ayudó a resolver el enigma. Desde unos 80 kilómetros de altitud, captó una imagen en blanco y negro de la zona. Allí se ve una mancha oscura con un halo claro a su alrededor. Es la marca de un impacto. Según los expertos, ese tipo de huella solo puede formarse si un objeto golpea la superficie a gran velocidad, levantando regolito: el polvo fino y rocoso que cubre la Luna. Esa marca fue comparada con fotos previas y no estaba antes. La conclusión fue inmediata: Resilience se estrelló. Y lo hizo a 2,4 kilómetros del punto exacto donde debía aterrizar. Una distancia que, en misiones lunares, es demasiado grande como para pasar por alto.

    La historia no termina en el impacto. La imagen de la NASA fue obtenida el 11 de junio, seis días después del accidente. El equipo de la misión LRO usó una cámara de alta resolución, llamada LROC, que puede detectar detalles mínimos en la superficie lunar. Comparando imágenes anteriores y posteriores, confirmaron la alteración del terreno. La zona del impacto será ahora objeto de estudio. No solo por el accidente, también por su ubicación: Mare Frigoris es una planicie volcánica muy antigua, con arrugas geológicas llamadas wrinkle ridges, formadas por el enfriamiento y contracción del suelo. Saber cómo responde este terreno ante impactos recientes puede aportar datos clave para futuras misiones, sobre todo en la planificación de aterrizajes. Aunque ispace ha tenido dos fracasos consecutivos —el anterior fue en abril de 2023—, cada intento suma información. En el mundo de la exploración espacial, incluso los errores dejan lecciones que pueden evitar tragedias más adelante. ispace va a presentar en los próximos días un informe oficial con las causas del fallo. Por ahora, la imagen de esa mancha lunar se convierte en el símbolo más reciente del esfuerzo humano por llegar más allá.

    El orbitador LRO (Lunar Reconnaissance Orbiter) lleva desde 2009 dando vueltas alrededor de la Luna. Fue lanzado por la NASA con el objetivo de estudiar el terreno lunar a fondo. Entre sus siete instrumentos, destaca el sistema de cámaras LROC, capaz de ver detalles minúsculos. Gracias a estas cámaras, se han podido observar los sitios donde aterrizaron las misiones Apolo, cráteres recién formados por meteoritos y ahora también el impacto de misiones fallidas, como Resilience. Este seguimiento no es solo un registro histórico. Sirve para planificar nuevas misiones y analizar cómo cambia la superficie lunar con el tiempo. La región de Mare Frigoris, donde ocurrió este choque, es de especial interés porque combina un terreno liso con zonas de tensión geológica. Esto la hace atractiva tanto para misiones robóticas como tripuladas. La visibilidad de esta huella en el polvo lunar también ayuda a estudiar cómo se dispersa el regolito, algo importante para proteger naves y equipos en misiones futuras. El impacto fue desafortunado, pero los datos que deja son un tesoro para científicos e ingenieros.

    El módulo japonés Resilience no logró aterrizar suavemente, pero su marca quedó grabada en la Luna. NASA la detectó y ahora tenemos nuevas pistas para mejorar futuras misiones. Si te interesan las historias donde ciencia, errores y descubrimientos se cruzan, escucha más en Flash Diario en Spotify.


    🔗 Bibliografía AP News – NASA NASA – LRO Space.com – NASA The Daily Galaxy

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Zijn er afleveringen die ontbreken?

    Klik hier om de feed te vernieuwen.

  • Adobe mejora tu cámara: App gratuita con inteligencia artificial para iPhone con IA, controles manuales y fotos RAW de alta calidad

    Por Félix Riaño @LocutorCo


    Adobe acaba de presentar una app experimental que transforma el modo en que usamos la cámara del iPhone. Se llama Project Indigo, y ya está disponible gratis en la App Store. Detrás del desarrollo están los mismos ingenieros que crearon la cámara de los teléfonos Pixel de Google. La promesa es clara: ofrecer una experiencia de captura con aspecto profesional, basada en inteligencia artificial, procesamiento por ráfagas y controles manuales. ¿Puede una app gratuita reemplazar la cámara nativa del iPhone y convertirse en la favorita de quienes aman la fotografía móvil?

    Project Indigo no toma una sola foto: toma hasta 32 imágenes en ráfaga, las alinea y las fusiona para crear una sola más precisa, con menos ruido, mejor rango dinámico y más detalle. Lo más impresionante es que lo hace con un enfoque natural, evitando los efectos exagerados que muchos usuarios detestan. Está disponible desde el iPhone 12 Pro y en todos los modelos del iPhone 14 en adelante, aunque Adobe recomienda usarlo con un iPhone 15 Pro o superior. No necesitas tener cuenta de Adobe ni iniciar sesión, lo cual la hace ideal para experimentar sin compromiso. Además, es compatible con fotos RAW y JPEG. Y si usas Lightroom, puedes enviar tus fotos directamente desde Indigo para editarlas.

    Pero no todo es perfecto: Pierdes funciones nativas como Live Photos, modo retrato y estilos fotográficos.

    El cerebro detrás de Indigo es Marc Levoy, quien dejó Google en 2020 para unirse a Adobe con el objetivo de crear una “app de cámara universal”. Junto a él está Florian Kainz, también ex Google y experto en procesamiento de imagen. Ambos fueron clave en los avances del Pixel, que convirtió a la cámara de Google en un referente. Con Indigo buscan ir más allá: crear fotos que parezcan tomadas con cámaras réflex, sin dejar de aprovechar el poder del iPhone. Uno de sus logros técnicos es que el obturador no tiene retardo: la app ya está grabando imágenes RAW mientras estás encuadrando, así que cuando presionas el botón, ya tiene lista la mejor toma. Ideal para capturar momentos exactos como un perro en movimiento o una pelota entrando en el arco.

    Muchos fotógrafos no confían en las cámaras del celular porque el software tiende a exagerar la imagen. Colores saturados, sombras aplastadas, reflejos molestos y detalles perdidos por la compresión digital. Apple ha hecho mejoras, pero su app de cámara sigue sin ofrecer controles manuales completos. Tampoco permite disparar con exposición prolongada real ni ajustar el número de imágenes por ráfaga. Project Indigo responde a esa necesidad con un enfoque híbrido: mantiene la sencillez del teléfono, pero entrega resultados dignos de una cámara avanzada. En lugar de aplicar filtros o IA que "inventan" detalles, Indigo capta datos reales desde el sensor y los combina para mejorar la nitidez. Incluso permite usar el movimiento natural de la mano como técnica para captar más perspectiva y obtener fotos más detalladas, algo conocido como "multi-frame super-resolution".

    Project Indigo ya puede descargarse gratis y viene con funciones únicas que la distinguen de otras apps. Por ejemplo, permite hacer fotos en condiciones de luz muy baja sin necesidad de trípode, gracias a la combinación de 32 cuadros tomados en segundos. También incluye un botón dedicado para fotos de larga exposición, que simula el efecto de obturación prolongada en cámaras réflex: perfecto para capturar cascadas, luces en movimiento o trazos de luz en la noche. Otra función prometedora es la eliminación de reflejos con IA, ideal para fotos detrás de vitrinas o cristales. Y si te gusta editar, las fotos en RAW pueden abrirse directamente en Lightroom con compatibilidad total con los perfiles de color de Adobe. Aunque aún no tiene modo retrato ni video, ya se están desarrollando esas funciones, junto con bracketing de exposición y enfoque. La app también actúa como plataforma de pruebas para futuras funciones de Photoshop y Lightroom. Además, Adobe ya confirmó que la versión para Android “va a llegar seguro”.

    Las imágenes tomadas con Indigo pueden verse en calidad HDR en una galería oficial alojada en Adobe Lightroom. Eso sí: la visualización óptima requiere una pantalla compatible y usar Google Chrome. Safari puede no mostrar correctamente los colores ni los brillos. Otra novedad técnica es el demosaico avanzado, que reconstruye los colores a partir del sensor de forma más precisa que otras apps. Indigo también ajusta el tono y el color basándose en lo que hay en la escena: sabe cuándo hay una persona en primer plano o cuándo estás fotografiando un cielo al atardecer. En las pruebas realizadas por medios como PetaPixel y CNET, se destacó que el zoom digital de Indigo supera al del iPhone al no inventar píxeles, sino construir la imagen con varias tomas desde ángulos apenas distintos. Además, la app permite ajustar la cantidad de cuadros por ráfaga, algo que no se ve en otras herramientas similares. Según Adobe, este es solo el comienzo: planean integrar más funciones creativas y fortalecer la app con la ayuda de los comentarios de quienes ya están probándola.

    Project Indigo es una app gratuita de Adobe que convierte tu iPhone en una cámara avanzada con controles manuales, procesamiento inteligente y compatibilidad con RAW. Está pensada para quienes aman la fotografía, pero también para curiosos que quieran probar una nueva forma de tomar fotos. Descárgala, prueba sus funciones y cuéntanos tu experiencia. Y sigue el pódcast Flash Diario en Spotify.


    Bibliografía 📚The Verge PetaPixel CNET Engadget Adobe Research

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Google integra su IA más potente a Shorts para crear videos y sonidos por texto

    Por Félix Riaño @LocutorCo

    YouTube va a integrar la inteligencia artificial Veo 3 de Google en su formato Shorts. Los creadores van a poder generar videos completos, con imagen y sonido, usando solo texto.

    ¿Qué pasaría si pudieras crear un video con solo escribir una frase? Eso es justo lo que promete Veo 3, la herramienta de inteligencia artificial más avanzada de Google. Esta nueva función se va a integrar en YouTube Shorts, el formato de video corto que recibe más de 200.000 millones de vistas al día. El anuncio lo hizo el propio CEO de YouTube, Neal Mohan, durante el festival Cannes Lions 2025. Pero hay muchas preguntas: ¿cuánto costará? ¿Habrá deepfakes? ¿Qué pensarán los creadores humanos?

    ¿Y si el video que ves no lo hizo nadie?

    YouTube quiere que cualquiera pueda crear videos, incluso sin cámara ni micrófono. Para eso va a usar la tecnología Veo 3, un sistema que transforma texto en videos con sonido. Esta IA ya fue usada en la función Dream Screen, que generaba fondos por texto, pero ahora llega mejorada. Veo 3 puede crear clips de 8 segundos que parecen filmaciones reales. Eso lo hace ideal para Shorts, que permite videos de hasta 60 segundos. Mohan, el CEO de YouTube, dijo que esto va a liberar la creatividad de los creadores y les va a dar nuevas herramientas para contar historias.

    El problema es que no todo el mundo está feliz con la idea. Muchos creadores temen que la plataforma se llene de videos generados por máquinas, sin alma, sin humor, sin errores humanos. Algunos ya llaman a esto “la avalancha de contenido basura”. Además, Veo 3 podría usarse para hacer deepfakes, es decir, videos falsos que imitan a personas reales. Por eso, YouTube está trabajando con agencias como CAA y con creadores reconocidos para desarrollar herramientas que protejan la imagen de celebridades y personajes públicos. A esto se suma otra preocupación: actualmente Veo 3 solo está disponible pagando el plan AI Ultra, que cuesta 250 dólares y limita la creación a 125 videos cortos al mes. ¿Valdrá la pena para los creadores pequeños?

    La llegada de Veo 3 no es solo una promesa tecnológica, también es una estrategia para ganarle la carrera a TikTok e Instagram Reels. Shorts se ha convertido en una prioridad para YouTube, que busca atraer a nuevas audiencias. El formato ha crecido 186 % en el último año. Mohan lo describió como “el nuevo Hollywood de los emprendedores”, y destacó que muchos creadores ya están montando sus propios estudios. Con Veo 3, podrían hacer películas de un minuto desde sus celulares. Por ahora, la función se lanzará en los próximos meses y se espera que YouTube adapte el modelo de IA para que produzca videos verticales en alta calidad. Aunque el acceso será limitado al principio, es probable que YouTube libere herramientas gratuitas o reduzca el precio para atraer más creadores.

    El modelo Veo 3 fue anunciado por Google en 2023 y ha sido mejorado constantemente. Está diseñado para generar videos de 720p con audio incluido, a partir de indicaciones simples. Aunque en su forma original produce videos horizontales, YouTube estaría adaptándolo para que los Shorts no tengan bordes negros. Además, Veo 3 ya ha sido usado en redes para crear contenido viral como "cómo sería Shakespeare como youtuber" o "Napoleón haciendo vlogs". Este tipo de creatividad puede ser divertida, pero también inquietante. Por eso, YouTube trabaja en regulaciones internas para evitar abusos, y aún no ha confirmado si habrá una versión gratuita de esta tecnología. Muchos esperan que Google encuentre un equilibrio entre accesibilidad, calidad y control ético.

    YouTube va a integrar la inteligencia artificial Veo 3 en Shorts. ¿Será el fin del contenido humano o el inicio de una nueva era?
    Sigue el pódcast Flash Diario en Spotify para conocer más historias sobre tecnología, ciencia y creatividad digital.
    Bibliografía
    Hollywood Reporter Engadget Ars Technica The Verge


    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • China ha probado con éxito la cápsula Mengzhou, diseñada para llevar personas a la Luna. El ensayo probó su sistema de escape en caso de emergencia


    Por Félix Riaño @LocutorCo


    El martes 17 de junio, China lanzó con éxito una prueba de emergencia de su cápsula Mengzhou, sin tripulación, en el Centro de Lanzamiento de Jiuquan. Esta cápsula será usada en futuras misiones tripuladas a la Luna. La maniobra consistió en simular un accidente desde la plataforma de lanzamiento, para verificar que la cápsula pueda escapar si ocurre una explosión en tierra. En 20 segundos, el sistema de propulsión la elevó, luego soltó el módulo principal y lo dejó caer suavemente con paracaídas y airbags. ¿Por qué este ensayo podría significar que China le gane a Estados Unidos en la carrera lunar?

    La cápsula Mengzhou, cuyo nombre significa “barco del sueño”, está diseñada para llevar astronautas chinos a la órbita lunar antes del año 2030. La prueba realizada el 17 de junio a las 12:30 del mediodía (hora de China) consistió en una simulación real de emergencia. Sin usar un cohete, se activaron motores sólidos que empujaron la cápsula hacia arriba. A los 20 segundos, se separó de su torre de escape y descendió con tres paracaídas hasta aterrizar con ayuda de un sistema de bolsas de aire. A las 12:32 ya estaba de vuelta en el suelo.

    Esta fue apenas la segunda vez que China realiza una prueba de escape desde cero metros de altitud. La anterior había sido en 1998, con la cápsula Shenzhou. Pero Mengzhou es diferente: su sistema de seguridad no depende del cohete, sino que está integrado en la cápsula misma. Esto permite responder con rapidez en caso de una falla grave durante el lanzamiento. Este paso era vital para validar el diseño y seguir con las próximas pruebas, que incluirán un ensayo en pleno vuelo, a mayor altitud y presión atmosférica. Aunque China aún está por detrás de la NASA en misiones lunares, esta cápsula nueva parece estar ganando terreno.

    Estados Unidos recortó el presupuesto para sus misiones lunares.

    La NASA enfrenta incertidumbre. El presupuesto propuesto por la Casa Blanca para 2026 elimina el cohete SLS y la cápsula Orion después de la misión Artemis 3, prevista para 2027. Mientras tanto, China avanza en el desarrollo de Mengzhou, el cohete Long March 10 y un módulo lunar, que podrían permitirle llegar primero a la Luna en esta nueva era. Mengzhou puede llevar hasta siete astronautas en misiones en órbita baja, o tres hasta la órbita lunar. Es parcialmente reutilizable, y ya fue probada en 2020 con un vuelo suborbital. Su versión lunar pesará unas 26 toneladas. Este sistema ha sido diseñado para cumplir con estándares internacionales y funcionar tanto con estaciones espaciales como en misiones lunares.

    El cohete Long March 10 tendrá tres etapas de 5 metros de diámetro, con motores de queroseno y oxígeno líquido. Está en construcción en Wenchang, en la isla de Hainan. Las plataformas de lanzamiento ya están siendo instaladas. El sistema completo de la misión lunar incluirá un aterrizador llamado Lanyue y, posiblemente, una combinación con el Long March 5B para pruebas atmosféricas. Según la Oficina de Ingeniería Espacial Tripulada de China (CMSEO), todos estos elementos están siendo desarrollados en paralelo. El objetivo es claro: tener una misión tripulada lista antes del año 2030. China ya probó el diseño de reingreso de Mengzhou a gran velocidad hace cinco años, y ahora se enfoca en demostrar que puede proteger vidas humanas desde el despegue hasta el regreso.

    China dio un paso firme hacia la Luna con la prueba de emergencia de Mengzhou. ¿Quién ganará esta nueva carrera lunar? Comenta y escucha más en el pódcast Flash Diario.

    📚 Bibliografía 📚
    Space.com – Josh Dinner CGTN SpaceNews – Andrew Jones Interesting Engineering – Neetika Walter Xinhua Universe Magazine


    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Tinder lanza Double Date, su nueva función para tener citas dobles. Solo tienes que emparejarte con tu mejor amigo o amiga, y hacer match con otra pareja

    Por Félix Riaño @LocutorCo


    Tinder acaba de lanzar una función para quienes no se sienten cómodos yendo solos a una primera cita. Se llama “Double Date” y permite formar pareja con un amigo o amiga, deslizar perfiles de otras duplas y coordinar una salida grupal. Por ahora solo está disponible en Estados Unidos, pero el lanzamiento global será en julio. La idea busca atraer a jóvenes que quieren menos presión y más diversión. Según datos internos de Tinder, el 90 % de quienes ya han usado esta función tienen menos de 29 años. ¿Será esta la nueva manera de tener una primera cita sin nervios?

    El amor ya no es de dos: ahora puede ser de cuatro

    La app de citas más usada del mundo acaba de activar una opción para los que prefieren no ir solos a conocer a alguien. Se llama Double Date y funciona así: tú te unes con un amigo o amiga, y juntos forman una dupla. Luego, desde el ícono con dos caritas felices en la parte superior derecha, pueden deslizar perfiles de otras duplas. Si una persona de tu dupla y alguien de la otra dan Like, se arma el match. Y desde ahí, se abre un chat de grupo para coordinar una cita en el mundo real. Es una forma de hacer que el primer encuentro no sea incómodo ni silencioso.

    Muchas personas se sienten nerviosas ante la idea de tener una cita a solas. ¿Qué me pongo? ¿Qué digo? ¿Y si hay un silencio incómodo? Tinder lo sabe y por eso busca soluciones para hacer más cómodas las citas, sobre todo para mujeres y jóvenes. Double Date viene a sumarse a herramientas como “Share My Date”, que permite compartir con amigos los datos del encuentro, y “Matchmaker”, donde tus seres queridos recomiendan perfiles. Además, en la configuración puedes decidir si quieres que tu amigo o amiga aparezca en tu perfil, y si deseas que Double Date tenga prioridad o no al mostrarte perfiles.

    La función fue probada durante meses en varios países, y los resultados han sido sorprendentes: las mujeres que usaron Double Date fueron tres veces más propensas a dar Like a una pareja que a una persona sola. Además, los chats entre duplas tienen 35 % más mensajes que los uno a uno. También se ha visto que 15 % de los usuarios que aceptaron una cita doble eran nuevos en Tinder o habían reactivado su cuenta. Esto coincide con el nuevo enfoque del CEO Spencer Rascoff, quien quiere alejar a Tinder de su fama de app para encuentros casuales. Su idea es ofrecer “menos likes, pero mejores matches”.

    Tinder quiere volverse más útil, más segura y más divertida para los jóvenes. Por eso ha sumado nuevas funciones y herramientas de seguridad. Hoy tiene más de 50 millones de usuarios activos mensuales. Desde la pandemia, ha tenido que adaptarse a nuevas formas de relacionarse, con usuarios que beben menos alcohol, tienen menos sexo y prefieren vínculos más tranquilos. Double Date se lanzó oficialmente en Estados Unidos el 16 de junio de 2025 y estará disponible en el Reino Unido y el resto del mundo desde mediados de julio. La app también está probando funciones pagas como filtros de estatura, una idea polémica pero muy pedida.

    Tinder lanza citas dobles: ahora puedes invitar a tu mejor amiga y conocer juntos a otra pareja. ¿Quién te acompañaría?

    Escucha más en Flash Diario en Spotify

    📚BibliografíaMashable Daily Mail The Independent Yahoo Style Wall Street Journal

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Una roca blanca parecida a la kryptonita podría abastecer el 90 % de autos eléctricos en Europa. ¿Mito o milagro?

    🔋 Este mineral blanco podría mover el 90 % de los autos eléctricos de Europa

    Por Félix Riaño @LocutorCo

    Un mineral real con la fórmula de la kryptonita ha sido descifrado. Jadarita, hallado solo en Serbia, contiene litio y boro.

    ¿Y si el futuro verde de Europa dependiera de un mineral que parece salido de una película de Superman? La jadarita es blanca, no brilla ni debilita a los superhéroes, pero su potencial energético es muy real. Descubierta en Serbia en 2004, esta roca contiene litio y boro, ingredientes clave para las baterías de autos eléctricos. Su fórmula coincide, casualmente, con la de la kryptonita en una película de 2006. Después de años de misterio, científicos del Museo de Historia Natural de Londres acaban de revelar cómo se forma este mineral raro. ¿Puede Europa ganar la carrera de la movilidad eléctrica gracias a algo que parece ciencia ficción?

    Solo existe en un lugar del planeta… y es casi imposible de reproducir.

    La jadarita fue descubierta por geólogos de Rio Tinto en el valle del río Jadar, en Serbia. Su fórmula química dejó a todos boquiabiertos: sodio, litio, boro, silicato e hidróxido, casi igual a la fórmula de la kryptonita inventada para la película Superman Returns. Aunque no es radiactiva ni verde, esta piedra blanca encierra un poder gigantesco: contiene litio en cantidades suficientes para cubrir hasta el 90 % de la demanda de baterías para autos eléctricos en Europa. Pero hasta ahora, nadie entendía cómo se había formado esta rareza geológica.

    Formar jadarita no es tan simple como excavar una mina y recolectarla. El proceso es tan raro que solo ha ocurrido una vez en la historia de la Tierra, y solo en un lugar: Serbia. Se necesita una combinación exacta de vidrio volcánico rico en litio, lagos alcalinos, y arcilla que, bajo condiciones químicas precisas, se transforma en cristales. Si la mezcla es muy ácida o muy fría, el mineral nunca aparece. Es como hornear un pastel perfecto con ingredientes y temperatura exactos. Hasta hoy, no se ha podido reproducir artificialmente ni se ha encontrado en otro lugar del planeta.

    Gracias a los nuevos estudios liderados por Francesco Putzolu y Robin Armstrong, ahora conocemos la receta completa para formar jadarita. Y aunque no se ha logrado replicarla en un laboratorio, saber cómo se formó nos acerca a encontrar yacimientos parecidos. La clave está en buscar ambientes con características volcánicas y alcalinas similares. En un mundo hambriento de litio, esta información vale oro. Europa depende cada vez menos del petróleo y más del litio, pero aún no tiene el control de sus fuentes. Jadarita podría ser su carta ganadora… si logra superar los desafíos políticos y ambientales que rodean su extracción.

    El yacimiento en Jadar es también centro de debate político. Serbia y la Unión Europea no han logrado un acuerdo claro sobre cómo ni cuándo extraerlo. Rio Tinto tuvo que suspender el proyecto en 2022 por protestas ambientales. Aunque la extracción de jadarita requiere menos energía que otras fuentes como el espodumeno, la población local teme por el impacto en el agua y la biodiversidad. Este dilema entre desarrollo tecnológico y protección ambiental está al centro de la discusión. ¿Vale la pena excavar el único lugar del mundo donde existe este mineral? ¿O es mejor intentar reproducirlo en laboratorios para evitar una nueva fiebre minera?

    Jadarita parece kryptonita, pero puede impulsar a Europa hacia la energía limpia. ¿Será un tesoro ecológico o un nuevo dolor de cabeza? Escucha más historias como esta y sigue nuestro pódcast Flash Diario en Spotify.

    📚 Bibliografía
    Interesting Engineering - Neetika Walter (12 junio 2025)Nature Geoscience - Putzolu et al. (junio 2025)IFLScience - Dr. Alfredo Carpineti (junio 2025)The Daily Galaxy (14 junio 2025)



    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Por primera vez vimos el polo sur del Sol. Su magnetismo está desordenado. Es la clave para predecir tormentas solares

    Por Félix Riaño @LocutorCo

    Por primera vez, la humanidad ha visto el polo sur del Sol. Las imágenes fueron enviadas por la sonda Solar Orbiter, un proyecto conjunto entre la Agencia Espacial Europea y la NASA, que está revolucionando el estudio de nuestra estrella. Estas imágenes muestran un campo magnético completamente desordenado y revelan nuevas pistas para anticipar tormentas solares que pueden afectar satélites, telecomunicaciones y redes eléctricas en la Tierra. ¿Estamos más cerca de predecir las explosiones solares con precisión?

    El Sol es más caótico de lo que creíamos

    El Solar Orbiter fue lanzado en 2020 desde Cabo Cañaveral. Su misión es ambiciosa: estudiar el Sol desde fuera del plano donde orbitan los planetas, algo que ningún otro satélite con cámaras había logrado. Para cambiar su inclinación orbital sin gastar combustible, ha utilizado maniobras gravitacionales: una vuelta a la Tierra y cuatro a Venus. El 18 de febrero de 2025 pasó a solo 379 kilómetros de la superficie de Venus, más bajo que un vuelo Bogotá–Cali, para inclinar su trayectoria. En marzo de 2025 alcanzó los 17 grados por debajo del ecuador solar y allí tomó las primeras imágenes del polo sur. La mayoría de las imágenes que habíamos visto antes del Sol provenían de su zona ecuatorial. Esta es la primera vez que miramos desde abajo.

    El Sol atraviesa ciclos de 11 años en los que su actividad magnética sube y baja. En el punto más alto, llamado “máximo solar”, sus polos magnéticos se invierten: el norte pasa a ser sur y viceversa. Esta fase es peligrosa porque se producen más manchas solares, más llamaradas y más eyecciones de masa coronal. Estas explosiones liberan radiación y partículas cargadas que viajan a más de un millón de kilómetros por hora. Si una de esas nubes de plasma impacta la Tierra, puede dañar satélites, GPS, redes eléctricas y hasta dejar sin servicio ciudades enteras. En 2012, una de estas eyecciones estuvo a días de golpear la Tierra. Si nos hubiera alcanzado, habría causado un apagón global. El problema es que, hasta ahora, no teníamos datos directos de los polos del Sol, que son clave para entender cómo y cuándo ocurren estas tormentas.

    Gracias al Solar Orbiter, ahora tenemos imágenes y mediciones directas del polo sur del Sol. Tres instrumentos trabajaron juntos para lograrlo. El PHI mostró que el campo magnético está revuelto, con parches de polaridad norte y sur mezclados, justo en el momento del cambio de ciclo. El EUI captó gas a temperaturas de un millón de grados Celsius en la corona solar. Y el SPICE logró un hito: medir por primera vez la velocidad de los materiales que salen disparados del Sol usando el efecto Doppler. Estas mediciones nos permiten ver cómo se origina el viento solar, una corriente de partículas que viajan por el espacio a velocidades superiores a los 400 mil kilómetros por hora. La información recogida en este primer vuelo es solo el comienzo. Se espera que el Orbitador llegue a 24 grados de inclinación en 2026 y a 33 grados en 2029, para mirar de frente ambos polos.

    El Sol no gira como un cuerpo sólido. Su ecuador rota cada 26 días, mientras que los polos tardan 33. Esta diferencia genera tensiones que retuercen el campo magnético y, cada once años, causan un “volcán” de actividad. Desde la Tierra, el Sol se ve como un disco brillante sin textura, pero con filtros ultravioleta se revelan bucles, remolinos y explosiones. El Solar Orbiter busca entender cómo ese caos nace y se organiza. El SPICE detectó elementos como hidrógeno, carbono, oxígeno, neón y magnesio a diferentes temperaturas. En la región de transición del Sol, por ejemplo, la temperatura pasa de 10 mil a varios cientos de miles de grados en cuestión de segundos. Con sus 10 instrumentos científicos, el Orbitador es el laboratorio más avanzado que se ha enviado a estudiar el Sol. Este avance es clave para predecir tormentas solares y evitar desastres en la era digital.

    Hemos visto por primera vez el polo sur del Sol. Lo que descubrimos allí cambia lo que creíamos saber. ¿Podremos anticipar mejor sus erupciones? Escucha Flash Diario para seguir esta historia solar. Síguelo ahora en Spotify:
    Flash Diario en Spotify


    Por primera vez vimos el polo sur del Sol. Su magnetismo está desordenado. Es la clave para predecir tormentas solares.

    📚 Bibliografía
    The Register ESA BBC News Sky News

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Meta lanzó una herramienta para editar videos cortos con inteligencia artificial. Es gratuita, pero por tiempo limitado

    Por Félix Riaño @LocutorCo


    Meta acaba de estrenar una función que permite transformar cualquier video corto en algo mucho más llamativo. Basta con subir un clip de hasta 10 segundos, elegir uno de los más de 50 estilos visuales preestablecidos y en segundos aparece la versión editada. Puedes cambiar el fondo, la ropa o incluso el ambiente. Todo sin necesidad de saber editar. Está disponible en más de una docena de países, incluyendo Estados Unidos. Por ahora es gratuita, pero Meta ya avisó que no será para siempre. ¿Es útil para todos o solo un truco visual pasajero?

    Los resultados pueden ser extraños, aunque muy divertidos.

    La propuesta de Meta es sencilla y llamativa. Imagínate que grabas un video cualquiera. En tu casa, en la calle, o con tu mascota. Luego entras a la app Meta AI, o al sitio web Meta.AI, o usas la app Edits. Subes tu video y eliges un estilo: cómic antiguo, videojuego, nieve, desierto o hasta un traje de astronauta. La inteligencia artificial lo transforma. Y listo. Puedes compartirlo directamente en Instagram o Facebook. Esta herramienta se apoya en lo que Meta llamó su tecnología Movie Gen, un modelo que desde el año pasado viene generando imágenes, sonidos y videos completos a partir de texto. Pero en esta etapa, lo que puedes hacer es editar tus propios videos con ayuda de plantillas predefinidas.

    Aunque la promesa suena atractiva, la realidad es un poco distinta. Muchos usuarios han compartido resultados inesperados. Como cactus de colores en medio del jardín. O mascotas con brillos raros. O transformaciones tipo anime que terminan con ojos fluorescentes y labios neón. Por ahora no es posible escribir lo que quieres que haga la inteligencia artificial. Solo se pueden usar los 50 estilos que ya vienen cargados. Además, el tiempo máximo de edición es de 10 segundos. Otro detalle que no todo el mundo considera: al usar la herramienta, estás compartiendo tu video con Meta. La empresa puede usarlo para seguir entrenando sus modelos.

    Meta ya anunció que más adelante vamos a poder escribir nuestras propias instrucciones, para que la IA edite según lo que le digamos. Pero eso será más adelante. Lo que tenemos hoy es una herramienta pensada para facilitar la creación de contenido visual llamativo, sin necesidad de saber edición. Puede ser útil para creadores, para profesores que quieran hacer algo diferente, o para familias que quieran darle un toque divertido a sus recuerdos. Pero también plantea preguntas: ¿cómo saber si un video fue editado con IA? ¿Cómo evitar que esta herramienta se use para engañar? Por ahora, lo mejor es probarla con precaución y saber que, aunque es entretenida, no todo lo que sale de ahí parece real.

    Esta nueva herramienta forma parte de una carrera tecnológica en la que están también Google, OpenAI, Runway y muchas más. Pero Meta tiene algo que los demás no: la integración directa con Facebook e Instagram. Eso le da una ventaja, porque no tienes que aprender a usar un nuevo programa. Solo entras, eliges y compartes. Según la empresa, los estilos visuales fueron definidos con ayuda de creadores de contenido que conocen bien qué cosas funcionan mejor en redes. Y aunque aún no está disponible en todo el mundo, en Europa algunas funciones están limitadas por las regulaciones, pero la edición de video con IA ya está activa.

    Meta te permite editar tus videos como si tuvieras un estudio de cine en el bolsillo. Es gratis, por ahora. Es divertida, aunque imperfecta. Y puede ser útil si sabes lo que estás haciendo. ¿Ya pensaste qué video te gustaría transformar?

    Escucha más noticias como esta en Flash Diario en Spotify

    Meta lanza editor de video con IA. Gratuito, creativo y fácil. ¿Ya lo probaste?

    📚 BibliografíaMeta lanza edición de video con IA – TechCrunchMeta presenta su editor surreal – EngadgetMeta puede poner tu video en el desierto – The VergeMeta Newsroom – Edit videos with Meta AI

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • ¿Y si el universo no comenzó con un Big Bang sino dentro de un agujero negro?

    Por Félix Riaño @LocutorCo

    Un nuevo modelo cosmológico sugiere que el universo no nació de una gran explosión, sino de un rebote dentro de un agujero negro.

    Desde hace casi un siglo, la mayoría de científicos ha creído que el universo comenzó con el Big Bang: una gran explosión desde un punto infinitamente denso. Pero un grupo internacional de físicos, liderado por el profesor Enrique Gaztañaga, plantea que todo lo que conocemos podría estar dentro de un agujero negro. Esta nueva teoría, publicada en la revista Physical Review D, propone que el universo no surgió de la nada, sino de una compresión y rebote de materia dentro de un agujero negro generado por un colapso gravitacional masivo. ¿Podría este modelo reemplazar al Big Bang y explicar los misterios que aún nos desconciertan?

    El Big Bang podría estar equivocado

    Un equipo del Instituto de Cosmología y Gravitación de la Universidad de Portsmouth ha propuesto una idea tan audaz como fascinante. Según su modelo, llamado Universo Agujero Negro, el universo habría surgido de una fase de colapso, donde una gran nube de materia se comprimió por la gravedad hasta alcanzar una altísima densidad. Luego, esa materia rebotó hacia afuera, como un resorte comprimido, dando lugar al universo que conocemos. Lo sorprendente es que esta expansión acelerada no necesitaría campos hipotéticos como en la teoría inflacionaria del Big Bang, sino que sería una consecuencia natural del rebote.

    ¿Y si el borde del universo es un horizonte?

    La nueva teoría dice que el borde de nuestro universo podría ser el mismo horizonte de eventos de un agujero negro. Es decir, estamos dentro de una región de la cual no puede escapar la luz. Esto explicaría por qué no podemos ver más allá de ciertos límites. Además, abre la posibilidad de que otros agujeros negros contengan sus propios universos internos. Según los autores, esta idea se ajusta mejor a las leyes de la física cuántica, que impiden que la materia se comprima infinitamente. En lugar de una singularidad como proponían Penrose y Hawking, habría un límite cuántico que permite el rebote.

    El modelo del Big Bang ha tenido dificultades para integrarse con la mecánica cuántica. Las singularidades, como el punto de origen del universo, rompen las reglas conocidas de la física. El nuevo modelo evita este problema al considerar que la compresión de materia tiene un límite, y que en lugar de una explosión desde la nada, el universo surgió de una transformación interna: un rebote. Además, observaciones recientes del telescopio James Webb han mostrado comportamientos inesperados en galaxias tempranas. Por ejemplo, dos tercios de esas galaxias parecen girar en la misma dirección, lo cual sugiere que el universo podría haber nacido girando, como ocurre dentro de un agujero negro.

    Este nuevo enfoque no solo es compatible con la relatividad general y la mecánica cuántica, sino que también permite hacer predicciones comprobables. Por ejemplo, el satélite ARRAKIHS, desarrollado por la Agencia Espacial Europea con participación del profesor Gaztañaga, podrá observar las zonas exteriores de galaxias para detectar huellas de formación que el modelo del Big Bang no explica. La misión está diseñada para detectar estructuras de brillo extremadamente débil y trazar la historia de la evolución galáctica, lo que podría revelar si venimos de una expansión o de un rebote. Este modelo también puede arrojar luz sobre el origen de los agujeros negros supermasivos, el comportamiento de la materia oscura y otros misterios cósmicos.

    El modelo Black Hole Universe no es completamente nuevo. En 1972, el físico teórico indio Raj Kumar Pathria ya había sugerido la idea, pero fue ignorada por la comunidad científica. Ahora, con más datos y tecnología como el telescopio James Webb, esta hipótesis cobra fuerza. El equipo de investigación incluye a científicos de España y del Reino Unido, y se apoya en principios tanto de la relatividad como de la cuántica. Este enfoque es parte de una corriente que busca modelos cíclicos del universo, en los cuales cada “fin” es en realidad un nuevo comienzo. La idea de que estamos en el interior de un agujero negro abre nuevas preguntas sobre si el tiempo, el espacio y las leyes físicas son más maleables de lo que pensábamos.

    Una nueva teoría propone que el universo nació de un rebote dentro de un agujero negro, no de una explosión. ¿Qué opinas? Comenta y escucha más episodios de Flash Diario en Spotify:
    Flash Diario en Spotify

    Científicos proponen que el universo nació dentro de un agujero negro, no del Big Bang. Una teoría que desafía todo.

    📚 BibliografíaThe Telegraph (10 de junio de 2025)University of Portsmouth (junio de 2025)The Journal (junio de 2025)

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Apple rediseña sus sistemas y añade IA útil: traducción en llamadas, respuestas automáticas y privacidad total sin nube

    Por Félix Riaño @LocutorCo

    Apple anunció nuevas funciones de inteligencia artificial en su evento WWDC 2025. Abrió su modelo de lenguaje a desarrolladores, presentó funciones como traducción en llamadas y rediseñó sus sistemas con un estilo llamado “vidrio líquido”.

    Abrió la semana de la WWDC 2025 con una estrategia cautelosa: mostraron avances en inteligencia artificial sin prometer demasiado. A diferencia de lo que hicieron otras grandes tecnológicas, Apple eligió centrarse en funciones útiles y reales que ya pueden usarse. ¿Qué significa esto? Por ejemplo, ahora Siri podrá ayudarte a identificar un abrigo en una tienda en línea y buscarlo en tus apps favoritas. Además, presentaron un rediseño visual que unifica todos sus sistemas operativos, desde iPhone hasta Apple Watch, con un material nuevo llamado “vidrio líquido”. También presentaron nuevas funciones como traducción en tiempo real de llamadas y un sistema de pantalla que silencia los números desconocidos. ¿Está Apple quedándose atrás en la carrera de la inteligencia artificial, o está siendo más prudente que sus rivales?

    Apple no busca impresionar con promesas exageradas, sino con cosas que ya funcionan bien

    Cada año, Apple celebra su conferencia para desarrolladores conocida como WWDC. Allí suelen presentar nuevas versiones de sus sistemas operativos y algunas sorpresas tecnológicas. Este año, el foco estuvo en la inteligencia artificial. Apple reveló que va a permitir que los desarrolladores usen su propio modelo de lenguaje dentro de las apps. ¿Qué quiere decir eso? Que cualquier aplicación en tu iPhone podría usar una IA integrada, sin enviar datos a la nube. Eso ayuda a cuidar la privacidad y hace que la respuesta de la IA sea más rápida. Además, Apple también integrará la tecnología de OpenAI, como ChatGPT, en sus herramientas creativas. Por ejemplo, se podrá generar imágenes con IA directamente en su app “Image Playground”.

    Aunque estas mejoras parecen útiles, algunos expertos se mostraron escépticos. La IA de Apple funciona directamente en el dispositivo, sin conectarse a los centros de datos más potentes que otras empresas sí usan. Esto hace que sea más privada, pero también más limitada. Su modelo tiene 3 mil millones de parámetros, mientras que modelos más avanzados tienen hasta 10 o 20 veces más. Por eso, no puede hacer tareas complejas como redactar textos largos o analizar grandes cantidades de datos. Además, Apple no ofreció nuevas funciones “impactantes” como las de sus competidores. La reacción del mercado lo reflejó: las acciones de Apple bajaron 1,2 % tras la presentación. ¿Está Apple apostando por la seguridad y privacidad a costa de la innovación?

    Apple también rediseñó todos sus sistemas operativos con un nuevo estilo visual llamado “vidrio líquido”. Este diseño hace que los botones, menús e iconos se vean más translúcidos, como si fueran hechos de cristal. Cambian de color y forma dependiendo de lo que haya en pantalla. Esto será visible en iOS 26, iPadOS 26, macOS Tahoe 26 y watchOS 26. Por ejemplo, ahora la hora en la pantalla de bloqueo del iPhone se adapta y se coloca detrás del sujeto principal de la foto. Además, hay nuevas funciones como “Call Screening”, que permite que el iPhone conteste llamadas desconocidas y pregunte quién llama, mostrándote una transcripción. También podrás traducir llamadas en tiempo real, incluso si la otra persona no tiene iPhone. Y en Mensajes se añadieron fondos personalizados, encuestas dentro de los chats y filtros para silenciar mensajes de desconocidos.

    El rediseño visual fue posible gracias a los chips Apple Silicon, que ahora son lo suficientemente potentes para renderizar el “vidrio líquido” en tiempo real. Apple también cambió su sistema de numeración: ahora usará nombres de años para identificar sus sistemas operativos. Así, todos llevarán el número 26 este año. En cuanto a desarrolladores, podrán usar herramientas como SwiftUI, UIKit y AppKit con nuevos controles para adaptarse al estilo líquido. Apple mostró que incluso apps como Safari, FaceTime, Apple Music y Apple Podcasts ya adoptaron esta nueva estética. En paralelo, OpenAI anunció que alcanzó una facturación anual de 10 mil millones de dólares, recordando que la competencia en IA no da tregua. Mientras tanto, Apple busca diferenciarse con integración, diseño y privacidad.

    Apple presentó avances concretos en inteligencia artificial, centrados en privacidad y utilidad, junto con un diseño visual innovador. ¿Te gustaría usar estos cambios? Comenta y escucha más en el pódcast Flash Diario en Spotify.


    BibliografíaReuters: Apple opens its AI to developersCNN: Apple WatchOS 26 gets new featuresBloomberg: Everything New Coming to iPhonesApple Newsroom: New software design

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • NASA perdería 41 misiones científicas si se aprueba el presupuesto de Trump

    La propuesta de Trump reduciría el presupuesto de la NASA un 25 %, eliminando misiones a Marte, Venus, la Tierra y el espacio profundo.


    Por Félix Riaño @LocutorCo


    La NASA está a punto de enfrentar el mayor recorte de presupuesto en su historia si se aprueba la propuesta del expresidente Donald Trump para el año fiscal 2026. La medida implicaría una reducción de 24.800 a 18.800 millones de dólares, lo que representa un recorte del 25 %. Eso dejaría a la agencia en su nivel más bajo de financiación desde hace décadas, ya ajustado a inflación. Se cancelarían más de 40 misiones científicas, incluyendo observatorios de asteroides, sondas a Marte y programas de monitoreo climático desde el espacio. ¿Estamos viendo el fin de una era en la exploración espacial estadounidense?

    Trump también amenaza con romper contratos con SpaceX.

    El 30 de mayo, la NASA recibió la versión detallada del presupuesto 2026 propuesto por Trump. Desde principios de mayo ya se conocía que se avecinaban tiempos difíciles. La propuesta apunta a recortar casi a la mitad el presupuesto para ciencias espaciales. Misiones emblemáticas como Mars Sample Return, MAVEN, DAVINCI y VERITAS quedarían sin financiación. Incluso los observatorios Voyager, que llevan más de 45 años enviando datos desde los bordes del sistema solar, perderían su presupuesto y quedarían flotando sin dirección. Esta no es solo una decisión económica: es una redefinición del propósito de la agencia, centrado exclusivamente en una carrera por llegar antes a Marte que China.

    Los recortes afectarían colaboraciones internacionales clave. La misión ExoMars, liderada por la Agencia Espacial Europea y apoyada por la NASA, quedaría huérfana de apoyo estadounidense. También se eliminaría el respaldo a la estación lunar Gateway, poniendo en riesgo la participación europea en futuros viajes a la Luna. Las misiones de observación de la Tierra, fundamentales para monitorear el cambio climático, sufrirían una reducción del 53 %. Incluso se eliminarían misiones ya operativas, como el orbitador MAVEN o el observatorio de rayos X Chandra. El daño va más allá de la ciencia: se perderían miles de empleos entre personal civil y contratistas. Y lo más preocupante: una vez apagados, muchos de estos proyectos no podrán reiniciarse.

    Algunos senadores republicanos ya están actuando para evitar estos recortes. Desde el comité de Comercio, Espacio y Transporte, liderado por Ted Cruz, se propone devolver miles de millones al presupuesto de la NASA, principalmente para proteger el programa Artemis. Esta defensa, sin embargo, prioriza los vuelos tripulados a la Luna, no las misiones científicas. Se busca prolongar la vida útil del cohete SLS, aunque la Casa Blanca prefiere reemplazarlo con vehículos más baratos como el Starship de SpaceX o el New Glenn de Blue Origin. Pero los desarrollos de esas empresas aún enfrentan fallos técnicos. La tensión entre Trump y Elon Musk también complica el panorama, con amenazas de romper contratos federales con SpaceX.

    Las misiones que podrían cancelarse incluyen VERITAS y DAVINCI, ambas destinadas a estudiar Venus con gran detalle. OSIRIS-APEX, continuación del exitoso OSIRIS-REx, perdería la oportunidad de estudiar el asteroide Apophis en 2029, cuando pase a solo 32.000 kilómetros de la Tierra. También se recortarían fondos a LISA, un proyecto conjunto con Europa para detectar ondas gravitacionales en el espacio. Y el telescopio Chandra, lanzado en 1999, dejaría de recibir mantenimiento pese a seguir enviando datos valiosos. El presupuesto propuesto justifica estos recortes con el argumento de que los 7 mil millones anuales que NASA destina a ciencia son “insostenibles”. Pero la comunidad científica advierte que se trata de un golpe sin precedentes a décadas de avances y cooperación internacional.

    Si se aprueba el presupuesto, la NASA dejaría de ser una agencia científica y pasaría a ser solo una agencia de vuelos tripulados. ¿Es ese el camino que queremos para la exploración espacial? Puedes escuchar más en el pódcast Flash Diario en Spotify.

    Bibliografía The Economist - 4 de junio de 2025Wall Street Journal - 5 de junio de 2025BBC News - 6 de junio de 2025Washington Post - 8 de junio de 2025

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • OnePlus lanza la Pad 3 con pantalla casi 4K, batería gigante y chip Snapdragon 8 Elite

    Por Félix Riaño @LocutorCo

    OnePlus presentó la tercera generación de su tablet, la Pad 3, que estará disponible desde el 8 de julio en Estados Unidos, Canadá y, se espera, muy pronto también en México. Tiene una pantalla LCD de 13,2 pulgadas con resolución 3.4K, batería de 12.140 miliamperios hora, sistema multitarea Open Canvas y el procesador más potente de Android en 2025. Su precio arranca en 700 dólares. En América Latina, especialmente en México y Colombia, donde las marcas de BBK Electronics como OnePlus, Oppo, Realme y Vivo han ganado presencia, esta tablet podría convertirse en una opción destacada. ¿Será suficiente para competir contra el iPad o la Galaxy Tab de Samsung?

    Pero hay dudas razonables por el precio y limitaciones.

    La Pad 3 de OnePlus busca captar la atención de usuarios exigentes. Tiene una pantalla de 3.392 por 2.400 píxeles. Eso equivale a 3.4K, que es muy cercano a la resolución 4K que solemos ver en televisores de alta gama. La diferencia, en la práctica, es mínima para el ojo humano. Esta pantalla permite ver detalles finísimos en fotos, leer texto sin esfuerzo y ver películas con alta definición. Además, con una tasa de refresco de 144 hercios, el movimiento es suave, ideal para videojuegos y desplazamiento rápido. Esta pantalla es LCD, no OLED, lo que significa que los negros no serán tan profundos, pero en comparación con otras tablets en este rango de precio, sigue estando entre las mejores. La experiencia visual está respaldada por ocho parlantes distribuidos para adaptar el sonido a la orientación de la tablet.

    Aun con esas características, la OnePlus Pad 3 genera dudas por su precio. La marca debutó en el mercado ofreciendo tecnología de alta gama a precios reducidos. Esa era su promesa. Pero en esta ocasión, el precio base es de 700 dólares, y si se agregan el teclado y el lápiz, supera los 900. Eso la ubica en el mismo terreno de las tablets premium de Samsung y Apple. Y aquí es donde surgen preguntas. ¿Vale la pena pagar tanto por una tablet que no tiene lector de huellas ni conexión celular? Es decir, no puedes desbloquearla con huella ni usarla con un plan de datos móviles. Además, OnePlus solo promete tres años de actualizaciones del sistema operativo Android, mientras que Apple y Samsung ofrecen más. La pregunta de fondo es: ¿sigue siendo OnePlus una marca “accesible”, o está apostando por otro tipo de usuario?

    A pesar de esas inquietudes, hay razones para entusiasmarse. La Pad 3 tiene el nuevo procesador Snapdragon 8 Elite, el chip más rápido de Android este año. Está acompañado por hasta 16 gigabytes de RAM, lo que la convierte en una herramienta fluida para multitarea, edición de documentos, dibujo digital y reproducción de contenido multimedia. Y su batería merece una mención especial: tiene 12.140 miliamperios hora. ¿Eso es mucho? Sí. Una tablet promedio tiene entre 7.000 y 8.000. Esta puede durar más de un día completo de uso intensivo. Además, carga del 0 al 100 % en solo 92 minutos con un cargador rápido de 80 vatios. Y si se deja en reposo, la batería casi no se descarga. El sistema operativo Android 15 incluye Open Canvas, una herramienta para dividir la pantalla y tener tres aplicaciones abiertas al tiempo, ideal para quienes trabajan en varias tareas a la vez. Además, la tablet se puede conectar con teléfonos OnePlus para compartir archivos fácilmente y con computadores Mac para controlarlos de forma remota.

    En México, Colombia y otros países de América Latina, las marcas del grupo BBK han crecido silenciosamente. Aunque el nombre BBK Electronics no es tan conocido por el público, sus marcas sí lo son: OnePlus, Oppo, Vivo, Realme e iQOO. Estas marcas ofrecen celulares, relojes inteligentes, audífonos, y ahora tablets como la Pad 3, con la que buscan entrar a nuevos segmentos. En el mercado mexicano, donde la oferta de tablets premium Android no es tan amplia como en Estados Unidos o Europa, una opción como la Pad 3 puede ser clave. Además, el diseño delgado —solo 5,97 milímetros— y su color azul oscuro metálico le dan un aspecto moderno y elegante. La cámara trasera es de 13 megapíxeles y la frontal de 8. No son cámaras impresionantes, pero son útiles para videollamadas. La Pad 3 también incluye inteligencia artificial en la grabadora de voz, en el editor de notas y en la galería de fotos. Tiene un botón dedicado para el asistente Gemini de Google, y funciones de personalización muy útiles para quienes usan la tablet como herramienta de trabajo o estudio.

    La OnePlus Pad 3 es una tablet avanzada, ideal para productividad y entretenimiento, con pantalla casi 4K y batería de larga duración. Aunque su precio es alto, puede competir con los modelos más populares. ¿La comprarías? Déjalo en los comentarios y escucha más en Flash Diario en Spotify.

    Pantalla casi 4K, chip top y batería gigante: así es la nueva tablet de OnePlus. ¿Le gana al iPad?

    Bibliografía:
    Bloomberg WIRED Stuff.tv The Verge

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • El nuevo Nothing Phone 3 será más potente, pero su alto precio sorprende a todos

    Nothing presentará su nuevo teléfono insignia el 1 de julio. Usará el chip Snapdragon 8 Gen 3 y tendrá materiales premium. Su precio podría superar los 850 euros, lo que marcaría una gran diferencia con respecto a los modelos anteriores de la marca.

    Por Félix Riaño @LocutorCo

    La empresa británica Nothing ha confirmado la presentación oficial del Nothing Phone 3 para el 1 de julio. Este modelo será el primero en la categoría de gama alta de la marca. Llevará un procesador Snapdragon 8 Gen 3 y ofrecerá materiales de mayor calidad. Aunque aún no conocemos todos los detalles técnicos, se espera que venga en dos versiones: una de 12 GB de RAM y 256 GB de almacenamiento, y otra con 16 GB de RAM y 512 GB. Lo que más ha llamado la atención es su posible precio: entre 799 y 899 dólares en Estados Unidos, lo que se traduce en unos 850 euros en Europa. ¿Perderá Nothing su reputación de marca accesible con esta apuesta?

    El precio ya no es su mejor carta de presentación.

    La compañía Nothing, conocida por sus diseños transparentes y su enfoque minimalista, comenzó vendiendo audífonos y luego pasó al mundo de los teléfonos inteligentes. El Nothing Phone (1) y el (2) fueron bien recibidos por ofrecer buenas prestaciones a precios competitivos. Por ejemplo, el Phone (2) comenzó en 599 dólares, con 8 GB de RAM y 128 GB de almacenamiento. Ahora, el nuevo Phone (3) apunta mucho más alto. La interfaz Glyph seguirá presente, aunque podría ser rediseñada. El anuncio se hará a las 19:00, hora de París, con una promesa clara en su mensaje promocional: “Come to Play”, que sugiere un rendimiento optimizado para videojuegos.

    Todo suena bien, pero el cambio de estrategia preocupa a muchos seguidores de la marca. Nothing había conquistado al público con sus precios bajos y su estética llamativa. Ahora, al subir el precio por encima de los 800 euros, muchos se preguntan si vale la pena el cambio. ¿Por qué una marca que apostaba por democratizar la tecnología quiere competir ahora con los gigantes como Samsung, Apple o OnePlus? El aumento de precio no es pequeño. Comparado con la generación anterior, el sobrecosto puede llegar a los 100 euros por configuración equivalente. Además, el teléfono aún no contará con el procesador Snapdragon 8 Elite, reservado para la gama más alta.

    La decisión de subir el precio podría tener un sentido estratégico: Nothing busca posicionarse como marca aspiracional. Carl Pei, su fundador, ha dicho que el objetivo es ofrecer una experiencia premium sin llegar a los precios de los teléfonos de más de 1.000 euros. Si bien el Phone 3 será más caro, aún podría ofrecer un valor competitivo frente a rivales con características similares. Por ejemplo, el OnePlus 13 con Snapdragon 8 Elite cuesta 999 dólares. Si el Phone 3 se queda en los 799, puede verse como una alternativa más económica dentro del segmento de gama alta. Todo dependerá de cuántas funciones nuevas lleguen con Nothing OS y si el diseño sigue siendo igual de atractivo.

    Mientras tanto, el modelo más económico, el Nothing Phone 3a, sigue ganando atención. En Amazon, se ofrece por 289 euros, con pantalla AMOLED de 6,77 pulgadas, procesador Snapdragon 7s Gen 3 y cámara principal de 50 megapíxeles. Su diseño con carcasa traslúcida y sistema Glyph lo hacen reconocible. Tiene buena autonomía y está enfocado en el uso diario. Recientemente ha recibido una valoración de 4,5 sobre 5, y se ha vendido más de 200 veces solo en el último mes. A su vez, se ha filtrado el precio del primer auricular over-ear de Nothing, que costará unos 300 euros. Competirá con modelos de Bose, Sony y Apple, prometiendo buena calidad de sonido y diseño elegante.

    El Nothing Phone 3 será más caro que nunca, pero también más potente. ¿Vale la pena? Vamos a ver su rendimiento tras el lanzamiento. Escucha más análisis en Flash Diario.


    🔗 Bibliografía
    Les Numériques - 4 junio 2025Engadget - 3 junio 2025T3 - 3 junio 202520 Minutes - 2 junio 2025Ouest-France - 4 junio 2025Le Parisien - 3 junio 2025



    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • El nuevo Mario Kart tiene mundo abierto, clima, videochat y 24 personajes en una sola carrera

    Por Félix Riaño @LocutorCo

    Mario Kart World transforma por completo el clásico de carreras de Nintendo. Es el juego estrella de la nueva Switch 2, con un mundo interconectado, carreras de 24 jugadores y misiones que combinan acción, exploración y caos.

    Por primera vez en la historia de Mario Kart, los jugadores van a recorrer un mundo entero sin pantallas de carga, sin menú de pistas separadas y con una sola gran región conectada por caminos y rutas temáticas. Mario Kart World para la nueva consola Nintendo Switch 2 es mucho más que una secuela: es una reinvención profunda de la franquicia, que ahora incluye exploración libre, clima dinámico, videochat, nuevas técnicas de salto, música en vivo, y carreras con hasta 24 personajes al mismo tiempo. Todo esto llega como el título estrella con el que Nintendo lanza la Switch 2. ¿Puede este nuevo Mario Kart estar a la altura de la historia que lo precede? ¿O es demasiado arriesgado cambiar tanto de golpe?

    Algunos jugadores aún dudan del modo de exploración libre.

    Nintendo lanzó su nueva consola Switch 2 y, con ella, el esperado Mario Kart World. Desde el primer anuncio, el equipo de desarrollo explicó que esta versión iba a tener dos cambios enormes: duplicar el número de corredores en cada carrera y rediseñar el mundo como una sola gran región interconectada. Eso obligó a construir el juego desde cero. La idea era tan ambiciosa que no fue posible desarrollarla en la consola anterior. Ahora, con la Switch 2, por fin se hace realidad. A diferencia de otros juegos de la saga, donde cada pista es independiente, aquí todas las rutas forman parte de un mismo mapa. Se puede recorrer libremente en el modo Free Roam, con caminos que atraviesan castillos, selvas, ciudades y desiertos.

    A pesar de las grandes expectativas, no todo el mundo está convencido de que el modo Free Roam funcione como se esperaba. Algunos periodistas que ya lo probaron afirman que la exploración fuera de las carreras se vuelve lenta cuando el terreno cambia a pasto o arena. También dicen que los coleccionables, como las medallas de Peach y los paneles de bloques, no son tan emocionantes de encontrar como en otros juegos de Nintendo. Las misiones P Switch están repartidas por todo el mapa, y algunas requieren habilidades nuevas como saltos cargados o volar por el aire. Aunque la dificultad de estas misiones sorprende, hay quienes sienten que el mapa no tiene suficiente contenido para justificar tantas horas de recorrido.

    Más allá de las dudas sobre la exploración, el corazón de Mario Kart Worldsigue siendo la competencia. El nuevo modo Knockout Tour es una carrera en seis partes donde los últimos cuatro corredores son eliminados en cada tramo. Este formato, con 24 jugadores en simultáneo, exige una estrategia constante y aprovecha al máximo las rutas conectadas. Los objetos clásicos siguen presentes, pero ahora se suman técnicas como el Charge Jump, que permite saltar y deslizarse por barandas. Las pistas, tanto nuevas como reimaginadas, están diseñadas para ofrecer atajos, caminos alternos y muchas sorpresas. Desde Shy Guy Bazaar hasta las Great ? Block Ruins, cada trayecto combina nostalgia y creatividad. Las carreras siguen siendo el centro del juego, y eso tranquiliza a quienes temían perder la esencia de Mario Kart.

    El juego cuesta 80 dólares, siendo el primero de Nintendo con ese precio desde la época del Nintendo 64. Pero ese valor incluye muchas novedades. Hay más de 40 personajes jugables, entre ellos figuras inesperadas como la vaca Cow, que antes solo aparecía como obstáculo. También se integra un sistema de videochat con globos flotantes que muestran la cara del jugador durante la carrera. La música, tocada por una banda en vivo, cambia según la zona del mapa, el clima o la hora del día. Hay modos clásicos como Grand Prix, batalla de globos, recolección de monedas y contrarreloj. Además, la Switch 2 permite conectar cámaras USB para mostrar el rostro del jugador, algo que busca mantener el espíritu familiar del juego. Kosuke Yabuki, productor del título, dijo que pensaron en cada detalle para que las familias sigan disfrutando juntas, como lo han hecho durante décadas.

    Mario Kart World llega con un mapa interconectado, nuevas técnicas, carreras emocionantes y mucha música. Si te gusta la saga, este puede ser tu nuevo favorito. Escucha más en Flash Diario en Spotify.

    Bibliografía
    The VergeIGN Rolling Stone The Washington Post

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Microsoft Bing ya permite crear videos con inteligencia artificial desde texto, usando el modelo Sora de OpenAI, sin pagar

    Por Félix Riaño @LocutorCo

    Microsoft sorprendió al anunciar que Sora, su avanzada inteligencia artificial generadora de video, ya está disponible gratis a través de la app móvil de Bing. Se trata de una función llamada Bing Video Creator que convierte descripciones escritas en pequeños videos de cinco segundos. ¿Por qué es tan relevante? Porque hasta ahora Sora solo estaba disponible para usuarios de pago de ChatGPT Plus. Y ahora, cualquiera puede probarlo sin costo en su celular. Esta decisión marca un giro importante en la forma como se accede a la creación de videos con IA. ¿Qué implicaciones tendrá esta apertura para la creatividad digital y la competencia con Google?

    Sora aún no está disponible en Copilot ni en computadoras

    Desde el lunes 2 de junio de 2025, cualquier persona que tenga una cuenta de Microsoft puede abrir la app de Bing en su celular y comenzar a crear videos con solo escribir lo que quiere ver. El sistema permite hacer 10 videos gratuitos de cinco segundos. Después de eso, se pueden usar puntos de Microsoft Rewards para seguir creando. Cada video adicional cuesta 100 puntos, que se consiguen, por ejemplo, buscando en Bing o comprando en la tienda de Microsoft. Aunque el sistema aún no permite elegir la duración del video ni cambiar el formato vertical, Microsoft promete que pronto se podrá usar en formato horizontal.

    La calidad de los videos generados no siempre es alta. Aunque Sora fue lanzado con gran expectativa por su realismo, hoy enfrenta competencia fuerte. Herramientas como Google Veo, Runway, Luma o MiniMax están generando clips más largos, con mejores detalles y en menos tiempo. Por eso, al probar el generador de Bing con Sora, muchos usuarios reportan que los videos tardan horas en estar listos, incluso en modo rápido. Además, solo se pueden crear tres videos en cola a la vez y están limitados a cinco segundos. Esto puede decepcionar a quienes esperaban un acceso completo a Sora. ¿Está Microsoft haciendo una jugada arriesgada al ofrecer solo una parte de las capacidades del modelo?

    Aunque tiene limitaciones, Bing Video Creator representa una apuesta clara por democratizar la creatividad con inteligencia artificial. Microsoft lo presenta como una forma divertida y útil de experimentar con ideas visuales, y no solo como una herramienta técnica. Por ejemplo, se pueden escribir descripciones como: “Un colibrí a cámara lenta batiendo las alas” o “Un astronauta diminuto explorando un planeta de hongos gigantes”. En segundos (o minutos), la app genera un video con esos elementos. Estos videos pueden compartirse fácilmente en redes como TikTok, Instagram o por mensaje directo. Además, están protegidos por estándares de contenido C2PA, lo que permite identificar si fueron creados por inteligencia artificial. La app está disponible para iOS y Android, y pronto llegará a computadoras y al buscador Bing Copilot.

    Sora fue presentado en diciembre de 2024 y prometía videos de hasta 60 segundos. Sin embargo, hasta ahora no se ha liberado públicamente esa capacidad completa. El modelo está diseñado por OpenAI, que tiene una alianza estratégica con Microsoft, lo que le ha permitido integrarlo a productos como Copilot o Bing Chat. La versión gratuita de Sora en Bing es una muestra del enfoque de Microsoft por llegar a más usuarios con funciones creativas. Además, Microsoft ha confirmado que este tipo de herramientas también pueden tener aplicaciones empresariales: desde crear material de capacitación interna hasta generar videos para explicar proyectos complejos de forma visual. Aunque todavía estamos en las primeras etapas, se abre un camino prometedor para incorporar este tipo de generadores de video a la vida diaria, la educación y los negocios.

    Bing Video Creator ya está disponible gratis y permite usar Sora, la IA de OpenAI, para crear videos desde texto. Prueba esta nueva función y cuéntanos qué video harías tú. Escucha más noticias como esta en nuestro pódcast Flash Diario.

    📚 Bibliografía
    TechCrunch - Amanda Silberling - 2 de junio de 2025Windows Central - Zac Bowden - 2 de junio de 2025GeekWire - Taylor Soper - 2 de junio de 2025VentureBeat - Carl Franzen - 2 de junio de 2025
    🟢 Flash Diario en Spotify 🟢

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Microsoft elimina contraseñas en agosto de 2025, va a borrar todas las contraseñas de su app Authenticator. El cambio inicia en junio y en agosto ya no se podrán usar

    Por Félix Riaño @LocutorCo


    Microsoft anunció que en agosto de 2025 va a eliminar por completo las contraseñas guardadas en su app Authenticator. Desde junio dejará de aceptar nuevas y en julio se desactivará la función de autocompletado. Es parte de su estrategia para que las personas usen claves más seguras como los passkeys. ¿Por qué están desapareciendo las contraseñas y qué deberías hacer tú ahora para no perder acceso a tus cuentas?

    Tu información puede desaparecer si no haces nada ahora

    Microsoft Authenticator es una app gratuita muy usada para iniciar sesión de forma segura, sin necesidad de escribir contraseñas. También servía como gestor de contraseñas y tarjeta digital de crédito. Pero a partir del primero de junio ya no se podrán guardar nuevas contraseñas en la app. Y desde el primero de julio, el autocompletado va a dejar de funcionar. Finalmente, en agosto, se va a borrar todo lo que hayas guardado. Esto incluye claves, tarjetas de crédito y otros datos importantes. La empresa está empujando a todos los usuarios a que cambien su forma de proteger sus cuentas, usando su navegador Edge y una nueva forma de seguridad llamada passkeys.

    La decisión de Microsoft llega en un momento delicado. Más del 35 % de las personas han sufrido robos de cuentas por problemas con contraseñas débiles o reutilizadas. Y los atacantes están usando nuevas técnicas de suplantación para engañar a usuarios desprevenidos. Una campaña reciente utiliza Google Apps Script para hacer parecer legítimas unas páginas falsas de inicio de sesión. Esto hace que un correo falso, con apariencia de factura o cobro pendiente, pueda engañar a miles de personas. Si usas Authenticator, la amenaza es doble: por un lado perderás tu información si no exportas antes de agosto, y por el otro, podrías quedar más vulnerable si sigues usando contraseñas en vez de pasar a passkeys.

    Microsoft no está quitando la seguridad, la está cambiando. Las contraseñas serán reemplazadas por passkeys, que no se pueden adivinar, compartir ni robar en un hackeo, porque no están guardadas en servidores sino en tu propio dispositivo. Para usarlas, necesitas una verificación biométrica como huella digital o reconocimiento facial. Si te parece complicado, piensa que ya usas algo parecido al desbloquear tu celular. La recomendación es dejar de usar contraseñas y configurar passkeys en tus cuentas más importantes como Outlook, Gmail o redes sociales. Authenticator seguirá funcionando para códigos de verificación y para tus passkeys. Si necesitas seguir usando contraseñas, puedes exportarlas desde Authenticator y guardarlas en otro lugar, como Edge o un gestor especializado.

    El navegador Edge es la nueva pieza central del sistema de seguridad de Microsoft. Ahí se pueden guardar y autocompletar las contraseñas, además de sincronizar direcciones y tarjetas. Microsoft quiere que todas las claves estén dentro de ese ecosistema, lo cual genera preguntas: ¿están obligando a usar su navegador? Aunque Edge tiene solo un 5 % del mercado, Microsoft está usando este movimiento para promoverlo. Si no quieres usar Edge, puedes optar por gestores como 1Password, Dashlane o Bitwarden. También puedes revisar la opción de passkeys en tu navegador favorito, como Chrome o Safari. Google, por ejemplo, ya permite transferir passkeys entre dispositivos. Y recuerda: después de agosto, Authenticator ya no te dará acceso a tus contraseñas ni siquiera como respaldo.

    En agosto se borrarán tus contraseñas de Microsoft Authenticator. Usa Edge o cambia a passkeys cuanto antes.
    Escucha más historias como esta en el pódcast Flash Diario en Spotify.


    BibliografíaForbes – 31 de mayo de 2025The Sun – 31 de mayo de 2025New York Post – 31 de mayo de 2025TechRadar – 28 de mayo de 2025

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • China lanzó Tianwen-2 para traer rocas de un cuasi-satélite y estudiar un cometa que lanza polvo sin hielo

    Por Félix Riaño @LocutorCo

    La misión Tianwen-2 buscará entender el origen del agua en la Tierra y revelar secretos del sistema solar.

    China lanzó una sonda espacial que va a recorrer millones de kilómetros para estudiar dos cuerpos celestes que nunca antes habían sido visitados: un asteroide cercano a la Tierra que podría ser un trozo de la Luna, y un cometa con múltiples colas de polvo que gira en medio del cinturón de asteroides. La misión Tianwen-2 tiene dos metas científicas y una duración estimada de diez años. El asteroide se llama Kamoʻoalewa, un cuasi-satélite terrestre, y el cometa se llama 311P/PANSTARRS, una rareza con apariencia de cometa pero comportamiento de asteroide. ¿Qué pistas sobre el origen del agua en la Tierra podría darnos esta misión china?

    Una roca vecina con pasado lunar

    Kamoʻoalewa fue descubierto en 2016 por el telescopio Pan-STARRS en Hawái. Su nombre significa “fragmento que viaja solo” en hawaiano, y eso encaja perfectamente con lo que es: un pequeño objeto de entre 40 y 100 metros de diámetro que orbita el Sol, pero lo hace casi sincronizado con la Tierra, como si fuera una luna temporal. Algunos estudios apuntan a que este cuasi-satélite podría haber sido un pedazo de la Luna expulsado por un impacto hace millones de años. Por eso, si la misión logra traer muestras de él, podríamos compararlas con otras rocas lunares y confirmar su origen. Esa comparación podría reescribir parte de la historia del sistema Tierra-Luna.

    Pero hay un gran reto técnico

    A diferencia de la Luna, este asteroide tiene una gravedad extremadamente baja, lo que complica cualquier intento de aterrizaje. La sonda Tianwen-2 va a usar dos métodos para recolectar unos 100 gramos de polvo: uno de contacto rápido y otro que usa un anclaje con taladro. Esta segunda técnica nunca se ha intentado antes.

    El 29 de mayo de 2025, desde la provincia china de Sichuan, despegó el cohete Long March 3B con la nave Tianwen-2 a bordo. El plan es que en julio de 2026 llegue a Kamoʻoalewa, lo estudie durante un año y seleccione un sitio para recolectar muestras. En abril de 2027 la nave dejará el asteroide y enviará una cápsula con las muestras rumbo a la Tierra, que aterrizará en noviembre del mismo año. Ese será solo el primer capítulo. Después, la nave usará la gravedad de la Tierra como catapulta para continuar su viaje hacia otro destino completamente diferente: el cometa 311P/PANSTARRS, que orbita entre Marte y Júpiter.

    El cometa 311P/PANSTARRS, también llamado P/2013 P5, es especial. Aunque se le llama cometa, en realidad es un “asteroide activo”: un objeto rocoso que, por alguna razón, expulsa polvo como si tuviera una cola. Este en particular tiene seis colas visibles, y los científicos creen que eso puede deberse a que gira tan rápido que lanza fragmentos de su superficie al espacio. O tal vez, dicen algunos, hay presión interna o pequeños impactos que activan ese comportamiento. Como nunca antes se ha visitado un objeto así, Tianwen-2 va a ser la primera sonda que nos muestre con detalle qué está pasando allí. La nave no va a aterrizar en él, pero sí va a orbitarlo y analizar su composición desde 2035.

    Lo que hace única a Tianwen-2 no es solo su duración o los objetos que va a visitar, sino el tipo de datos que puede traer. Muestras directas de un cuasi-satélite son algo que ningún país ha obtenido antes. Y al comparar esas muestras con las de la Luna y con lo que sabemos del sistema solar temprano, podríamos confirmar si fragmentos lunares pueden quedar atrapados en órbitas cercanas. Por otro lado, el estudio de 311P nos va a ayudar a entender cómo se forman las colas de polvo sin necesidad de hielo, lo que cambia lo que creíamos saber sobre cometas y asteroides. China ya ha traído muestras de la Luna, incluso de su cara oculta. También tiene su propia estación espacial, y ahora va en camino a convertirse en el tercer país que logra traer muestras de un asteroide.

    Tianwen-2 es parte de una serie de misiones más amplias. En 2020, Tianwen-1 fue la primera misión china a Marte y logró posar un rover en su superficie. La futura Tianwen-3 buscará traer rocas marcianas en 2028. Y Tianwen-4 irá más lejos aún: rumbo a Júpiter y Urano. China también ha ofrecido a otros países incluir experimentos científicos en futuras misiones. Las muestras de Kamoʻoalewa, si se confirman como fragmentos lunares, podrían revelar si hay más objetos así en el espacio cercano, lo que abriría una nueva rama de estudio sobre los materiales expulsados por impactos y sus trayectorias.

    Tianwen-2 es una misión ambiciosa que busca traer muestras de un cuasi-satélite cercano y estudiar un cometa con múltiples colas. Para conocer más misiones que están expandiendo los límites del conocimiento, escucha Flash Diario en Spotify.




    📚 Bibliografía
    ABC News Space.com Reuters CNN

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Google Photos cumple 10 años y lanza herramientas de inteligencia artificial para editar, mejorar y compartir fotos como nunca antes

    Por Félix Riaño @LocutorCo

    Google celebra una década de su app de fotos con un editor rediseñado y potenciado por inteligencia artificial. Las herramientas Reimaginar y Auto Frame, antes exclusivas del Pixel 9, llegan ahora a más dispositivos Android. Además, se suma una opción para compartir álbumes mediante códigos QR.

    Google Photos está cumpliendo 10 años y ha decidido celebrarlo con una serie de cambios importantes. A partir de junio, los usuarios de Android van a poder acceder a un nuevo editor de fotos con funciones de inteligencia artificial. Este cambio trae herramientas que antes solo estaban disponibles en los teléfonos Pixel 9, como Reimaginar y Auto Frame. También llega AI Enhance, una nueva función que propone múltiples ediciones para cada imagen. Google ha anunciado que estas mejoras se van a lanzar en Android el próximo mes y más adelante en iOS. ¿Qué puede hacer ahora la inteligencia artificial con tus fotos?

    Las ediciones ya no serán las mismas

    Google lanzó Photos en 2015 como una herramienta separada de Google+, con la promesa de almacenamiento gratuito e ilimitado. Aunque esa promesa cambió en 2021, hoy sigue siendo una de las apps más usadas del mundo. Google afirma que más de 1.500 millones de personas la usan cada mes. Y no es cualquier uso: la app almacena más de 9 billones de fotos y videos. Cada mes se hacen 370 millones de búsquedas dentro de la app y se editan más de 210 millones de imágenes. El nuevo editor con inteligencia artificial busca hacer las ediciones más simples, más potentes y más creativas.

    Aunque los cambios parecen útiles, no están libres de controversia. La función Reimaginar permite modificar fotos con comandos de texto. Por ejemplo, puedes cambiar un cielo gris por uno azul o añadir flores que no estaban. Esto plantea una gran pregunta: ¿seguirá siendo real ese recuerdo? Google ha comenzado a poner marcas de agua en las imágenes generadas por IA, justamente para evitar confusiones. La línea entre una foto auténtica y una modificada se vuelve cada vez más difícil de distinguir. Además, estas funciones no estarán disponibles para todos al mismo tiempo. Android tendrá acceso primero. Los usuarios de iPhone tendrán que esperar más tiempo.

    A pesar de esas dudas, la nueva versión de Google Photos ofrece opciones muy útiles. La herramienta Auto Frame, por ejemplo, sugiere encuadres ideales y, si hace falta, usa inteligencia artificial para rellenar los bordes que faltan. La función AI Enhance genera hasta tres ediciones distintas de una foto, con opciones como eliminar objetos o mejorar el color y la nitidez. Otra novedad práctica es la posibilidad de compartir álbumes mediante un código QR. Puedes mostrarlo en tu pantalla o imprimirlo para eventos familiares o escolares. Cualquiera que lo escanee podrá ver las fotos y hasta subir nuevas. Google asegura que estas funciones buscan facilitar la vida de quienes usan la app como su álbum principal.

    Google también ha rediseñado la interfaz del editor para que todas las herramientas estén en un solo lugar. Ahora, puedes tocar una parte específica de una imagen —como una cara o el fondo— y recibir sugerencias personalizadas para editar solo esa zona. Este nivel de precisión, que hace unos años parecía imposible, ahora se encuentra en la palma de la mano. Además, Google sigue integrando su sistema Gemini a todos sus productos, incluyendo Google Photos. Con esto, se espera que las funciones de búsqueda dentro de las fotos también mejoren. Google afirma que quiere que todos puedan encontrar fácilmente sus recuerdos y darles nueva vida, incluso si no tienen experiencia en edición fotográfica.

    Google Photos cumple 10 años con funciones nuevas de inteligencia artificial. Reimaginación, encuadre automático y edición mejorada llegan a más usuarios. Cuéntanos: ¿usarías estas herramientas o prefieres tus fotos tal cual las tomaste?
    Flash Diario en Spotify

    📚 BibliografíaEngadget Ars Technica TechCrunch Google Blog

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  • Starship falló de nuevo: no abrió su compuerta, giró sin control y se desintegró sin probar su escudo térmico

    📢 Por Félix Riaño @LocutorCo


    El martes 27 de mayo, SpaceX lanzó desde Texas su gigantesco cohete Starship. Era el noveno vuelo de prueba de este vehículo sin tripulación, clave tanto para los planes lunares de la NASA como para la ambición de Elon Musk de llegar a Marte. Esta vez, el cohete debía probar la apertura de su compuerta para liberar satélites simulados y luego reingresar a la atmósfera sin 100 de sus baldosas térmicas, para medir los límites del diseño. Pero todo salió mal: la compuerta no abrió, hubo una fuga de combustible, el cohete giró sin control y se desintegró en el Océano Índico.

    El escudo térmico nunca fue puesto a prueba

    Starship despegó desde Starbase, el centro espacial de SpaceX en Boca Chica, Texas, justo después de las 18:30 hora local. Se trata del sistema de lanzamiento más grande del mundo: un conjunto de dos partes, el cohete Super Heavy de 70 metros y la nave Starship de 52 metros. Juntos suman más de 120 metros de altura y están propulsados por 39 motores Raptor. Esta vez no se intentó recuperar el propulsor, porque toda la atención estaba puesta en el rendimiento orbital. Los espectadores siguieron el vuelo en directo, con expectativas altas: lograr abrir la compuerta, liberar satélites simulados y poner a prueba el escudo térmico en la reentrada.


    Las cosas empezaron a complicarse unos 30 minutos después del lanzamiento. La compuerta no abrió y, poco después, el equipo de control confirmó una fuga en los tanques de combustible del módulo superior. Esa fuga causó una pérdida de control de actitud, lo que significa que el cohete empezó a girar sin rumbo en el espacio. Como la orientación es fundamental para cualquier maniobra de reentrada, ya no era posible alinear la nave para probar su escudo térmico. El plan era ver hasta qué punto resistía el calor, ya que le habían quitado intencionalmente 100 baldosas de protección. Pero al no tener el ángulo adecuado, la nave se desintegró al entrar en la atmósfera.


    Este ha sido el tercer vuelo fallido consecutivo en 2025. En enero, la nave explotó antes de liberar carga. En marzo, una mezcla de propelentes causó una falla en los motores y la nave giró sin control antes de explotar. Aun así, SpaceX ha ido haciendo correcciones: después de enero se mejoró la ventilación del área trasera conocida como “el ático”; después de marzo se reforzaron uniones y tuberías. En esta ocasión, el problema fue distinto. Para SpaceX, cada error es una fuente de datos. Por eso repiten que el vuelo fue valioso. Aunque Starship se haya desintegrado, sirvió para obtener más información sobre los límites del diseño. La empresa no ha dicho cuándo será el próximo intento.


    El plan a largo plazo es que Starship sea reutilizable. Esto reduciría los costos y permitiría lanzar misiones con más frecuencia. NASA quiere usarlo para llevar astronautas a la Luna en el programa Artemisa, y Elon Musk quiere ir más lejos: llevar humanos a Marte para el año 2026. Pero para que eso ocurra, Starship necesita demostrar que puede hacer misiones completas: alcanzar órbita, liberar carga, sobrevivir al calor de la reentrada y aterrizar. En este vuelo, tampoco se logró la apertura de compuerta para liberar ocho satélites simulados de Starlink, un paso necesario para atraer clientes comerciales. En vuelos anteriores, el propulsor Super Heavy sí fue recuperado con éxito usando los brazos mecánicos llamados “chopsticks”, pero esta vez no se intentó esa maniobra. El cohete cayó al Golfo de México, mientras la nave se desintegró en el Océano Índico.


    Starship volvió a fallar en su misión: giró sin control, no liberó carga y se desintegró. Aún así, SpaceX dice que aprendió. Puedes comentar este tema y seguir más noticias en el pódcast Flash Diario.

    📚 BibliografíaNBC News, 27 de mayo de 2025The Washington Post, 27 de mayo de 2025The New York Times, 27 de mayo de 2025DW News, 27 de mayo de 2025USA Today, 27 de mayo de 2025Business Insider, 27 de mayo de 2025SpaceX en X, 27 de mayo de 2025🌐 Redes sociales:YouTube MusicInstagram @LocutorCoFlash Diario en Spotify

    Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.