Afleveringen

  • En este episodio especial de Derecho al Futuro, hacemos un recorrido por una reciente publicación en la que profundizo sobre un tema clave para el futuro del trabajo: el rol de la Inspección del Trabajo en la era de los algoritmos. A medida que la tecnología y los sistemas automatizados toman decisiones en el ámbito laboral, como la contratación, asignación de turnos o evaluación de desempeño, surgen nuevos desafíos en cuanto a la protección de los derechos laborales.

    Analizamos cómo los principios fundacionales de la Organización Internacional del Trabajo (OIT), establecidos hace más de un siglo, siguen siendo fundamentales para abordar las nuevas formas de discriminación y precarización que surgen de la automatización. A través de casos judiciales clave, como el de Raquel en la Autoridad Portuaria de Vigo (APV) y el de los repartidores de Deliveroo en Italia, discutimos cómo el uso de algoritmos mal diseñados puede vulnerar derechos fundamentales.

    Este episodio se centra en el papel crucial que deben desempeñar las inspecciones del trabajo para auditar y supervisar el uso de algoritmos, garantizando que las tecnologías sirvan para mejorar las condiciones laborales y no para perpetuar desigualdades. ¡Acompáñanos para entender cómo debe evolucionar la fiscalización laboral en este nuevo entorno digital!

    Reyes-Carreño, P. (2024). La Inspección del Trabajo en la era de los Algoritmos: Navegando entre el Big Data y la Inteligencia Artificial. En Centenario Dirección del Trabajo de Chile 1924-2024: Vol. II (pp. 13–31). Dirección del Trabajo. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4977510
  • En este episodio de Derecho al Futuro, nos adentramos en el fascinante mundo de la Inteligencia Artificial (IA) y su regulación a través del Reglamento Europeo de Inteligencia Artificial (UE 2024/1689), la primera legislación integral a nivel mundial que busca controlar el desarrollo y el uso de sistemas de IA. Analizamos cómo este reglamento define qué es un sistema de IA, su capacidad de aprendizaje, adaptabilidad y autonomía, así como los riesgos asociados, especialmente cuando estas tecnologías pueden influir en la salud, la seguridad y los derechos fundamentales.

    También abordamos la crucial interacción entre esta nueva Ley de IA y el Reglamento General de Protección de Datos (GDPR), que garantiza la protección de los datos personales en el uso de la IA. Exploramos los desafíos únicos que presentan los sistemas de IA, que pueden aprender y adaptarse por sí mismos, y las estrictas regulaciones que buscan mitigar los riesgos de discriminación, sesgos y decisiones automatizadas sin supervisión humana.

    Descubre cómo la transparencia, la equidad y la supervisión humana significativa son pilares fundamentales para asegurar que la IA no se convierta en una herramienta que comprometa los derechos de los ciudadanos, y aprende a reconocer los impactos de estas regulaciones en aplicaciones cotidianas como los sistemas de recomendación, los asistentes virtuales o el análisis médico basado en IA.

    Este episodio es una guía esencial para entender cómo la IA se está integrando en nuestras vidas y cómo el derecho está evolucionando para mantener un control ético y responsable sobre estas tecnologías emergentes. Si te interesa la intersección entre derecho, tecnología y ética, este episodio te dará las claves para comprender cómo las nuevas regulaciones moldearán el futuro de la inteligencia artificial. ¡No te lo pierdas!

    Artificial intelligence systems and the GDPR. A data protection perspective. (2024, septiembre). Data Protection Authority of Belgium. https://www.autoriteprotectiondonnees.be/publications/artificial-intelligence-systems-and-the-gdpr---a-data-protection-perspective.pdf
  • Zijn er afleveringen die ontbreken?

    Klik hier om de feed te vernieuwen.

  • El podcast Derecho al Futuro se centra en un enfoque humanista, invitando a la reflexión sobre cómo la tecnología, en su imparable avance, debe ajustarse y evolucionar para garantizar el respeto a los Derechos Fundamentales y la dignidad humana.

    A lo largo de sus episodios, se exploran los desafíos legales y éticos que surgen en torno a la inteligencia artificial, la privacidad y las nuevas formas de interacción digital, destacando siempre la importancia de colocar al ser humano en el centro de estas transformaciones.

    Derecho al Futuro no solo analiza las implicancias jurídicas de la innovación, sino que propone una mirada crítica y reflexiva sobre cómo las leyes y normativas deben adaptarse para proteger los derechos esenciales en un mundo tecnológico.

  • En este episodio de Derecho al Futuro, exploramos el fenómeno del hype en torno a la inteligencia artificial (IA), una tendencia que distorsiona las expectativas sobre lo que esta tecnología puede realmente lograr. Analizamos cómo los discursos inflados sobre la IA afectan las decisiones legislativas, empresariales y geopolíticas, y las implicaciones que esto tiene para la regulación tecnológica, el mercado laboral y el medio ambiente. Acompáñanos mientras desglosamos los riesgos del FOMO (miedo a quedarse atrás) en la carrera por la IA y reflexionamos sobre la necesidad de un enfoque crítico para evitar que estas expectativas desmedidas perjudiquen a la sociedad.​

    Acemoglu, D. (2021). Harms of AI (Working Paper No. 29247). National Bureau of Economic Research.

    Markelius, A., Wright, C., Kuiper, J., Delille, N., & Kuo, Y.-T. (2024). The mechanisms of AI hype and its planetary and social costs. AI and Ethics, 4(3), 727–742. https://doi.org/10.1007/s43681-024-00461-2

  • En este episodio de Derecho al Futuro, profundizamos en cómo la neurodiversidad y la inteligencia artificial están transformando los entornos laborales y educativos. A través de investigaciones recientes, exploramos cómo las diferencias cognitivas, como el autismo o el TDAH, no son déficits, sino variaciones naturales que pueden aportar ventajas únicas cuando se gestionan adecuadamente. Analizamos cómo la IA puede ser una herramienta poderosa para promover la inclusión, pero también discutimos los riesgos si no se diseña de manera ética y responsable. Un episodio crucial para entender el futuro de la diversidad en un mundo tecnológicamente avanzado.

    Referencias

    Arriagada Bruneau, G. (2024). Los sesgos del algoritmo: La importancia de diseñar una inteligencia artificial ética e inclusiva. La Pollera Ediciones.

    Bankins, S., Ocampo, A. C., Marrone, M., Restubog, S. L. D., & Woo, S. E. (2024). A multilevel review of artificial intelligence in organizations: Implications for organizational behavior research and practice. Journal of Organizational Behavior, 45(2), 159–182. https://doi.org/10.1002/job.2735

    Benton, L., Vasalou, A., Khaled, R., Johnson, H., & Gooch, D. (2014). Diversity for design: A framework for involving neurodiverse children in the technology design process. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 3747–3756. https://doi.org/10.1145/2556288.2557244

    Dawson, G., Franz, L., & Brandsen, S. (2022). At a Crossroads—Reconsidering the Goals of Autism Early Behavioral Intervention From a Neurodiversity Perspective. JAMA Pediatrics, 176(9), 839–840. https://doi.org/10.1001/jamapediatrics.2022.2299

    Doyle, N. (2020). Neurodiversity at work: A biopsychosocial model and the impact on working adults. British Medical Bulletin, 135(1), 108–125. https://doi.org/10.1093/bmb/ldaa021

    Houdek, P. (2022). Neurodiversity in (Not Only) Public Organizations: An Untapped Opportunity? Administration & Society, 54(9), 1848–1871. https://doi.org/10.1177/00953997211069915

    Khan, M. H., Grabarski, M. K., Ali, M., & Buckmaster, S. (2023). Insights into Creating and Managing an Inclusive Neurodiverse Workplace for Positive Outcomes: A Multistaged Theoretical Framework. Group & Organization Management, 48(5), 1339–1386. https://doi.org/10.1177/10596011221133583

    LeFevre-Levy, R., Melson-Silimon, A., Harmata, R., Hulett, A. L., & Carter, N. T. (2023). Neurodiversity in the workplace: Considering neuroatypicality as a form of diversity. Industrial and Organizational Psychology, 16(1), 1–19. https://doi.org/10.1017/iop.2022.86

    Masataka, N. (2017). Implications of the idea of neurodiversity for understanding the origins of developmental disorders. Physics of Life Reviews, 20, 85–108. https://doi.org/10.1016/j.plrev.2016.11.002

    Rebecchi, K. (2023). Neurodiversity and autism: Between disability and difference, science and ideology - Neurodiversité et autisme : entre handicap et différence, science et idéologie. OSF. https://doi.org/10.31234/osf.io/bksxn

    Richards, J., Sang, K., Marks, A., & Gill, S. (2019). “I’ve found it extremely draining”: Emotional labour and the lived experience of line managing neurodiversity. Personnel Review, 48(7), 1903–1923. https://doi.org/10.1108/PR-08-2018-0289

  • En este episodio de “Derecho al Futuro”, exploramos en profundidad la obra de la Dra. Sussie Alegre, una abogada y académica influyente en el ámbito de los derechos humanos y la ética en la era digital. A medida que las tecnologías emergentes, como la inteligencia artificial, comienzan a redefinir aspectos fundamentales de nuestra vida, la Dra. Alegre nos invita a reflexionar sobre cómo estas herramientas afectan derechos esenciales como la libertad de pensamiento, la privacidad y la autonomía individual.

    A lo largo del episodio, desglosamos sus principales aportes, incluyendo su análisis sobre cómo la manipulación de la información digital puede amenazar la libertad de pensamiento, la necesidad de una regulación ética robusta para la inteligencia artificial, y la importancia de fortalecer las leyes de protección de datos en un mundo dominado por la vigilancia masiva. También abordamos temas emergentes como los neuroderechos, que buscan proteger la integridad mental y emocional de las personas frente a tecnologías que podrían manipular el cerebro humano.

    Este episodio es una llamada a la acción para todos aquellos interesados en la intersección entre derecho, ética y tecnología, ofreciendo una mirada crítica y fundamentada sobre los desafíos que enfrentamos en un mundo cada vez más digitalizado.

    Escúchalo ahora y reflexiona sobre cómo la tecnología influye en tus derechos y libertades fundamentales.

  • En este episodio de Derecho al Futuro, exploramos las críticas más destacadas a Nexus: A Brief History of Information Networks From the Stone Age to AI, la última obra de Yuval Noah Harari, publicadas durante su primera semana en el mercado. A través de las opiniones de medios como The Washington Post, The Economist, The Guardian y El País, analizamos las fortalezas y limitaciones del análisis de Harari sobre las redes de información y la inteligencia artificial.

    Harari argumenta que las sociedades humanas se han sostenido más por mitos y narrativas que por hechos, y que la inteligencia artificial está jugando un papel cada vez más activo en este contexto. Sin embargo, los críticos destacan que su enfoque sobre la IA puede ser simplista y alarmista. En este episodio, desglosamos cada crítica, reflexionamos sobre sus implicaciones legales y éticas, y ofrecemos una evaluación balanceada del impacto de Nexus en el debate actual sobre la IA y la responsabilidad tecnológica.

    Sampedro, J. (2024, septiembre 13). ‘Nexus’, de Yuval Noah Harari: Un mundo ahogado en información. El País. https://elpais.com/babelia/2024-09-13/nexus-de-yuval-noah-harari-un-mundo-ahogado-en-informacion.html

    Poole, S. (2024, septiembre 11). Nexus by Yuval Noah Harari review – end of days? The Guardian. https://www.theguardian.com/books/article/2024/sep/11/nexus-by-yuval-noah-harari-review-the-ai-apocalypse

    The information wars are about to get worse, Yuval Noah Harari argues. (s. f.). The Economist. Recuperado 17 de septiembre de 2024, de https://www.economist.com/culture/2024/09/06/the-information-wars-are-about-to-get-worse-yuval-noah-harari-argues

    Smith-Ruiu, J. (2024, septiembre 11). Review | Yuval Noah Harari takes on AI. Washington Post. https://www.washingtonpost.com/books/2024/09/11/nexus-yuval-noah-harari-review/

  • En este nuevo episodio de Derecho al Futuro, exploramos el creciente impacto de los algoritmos y la inteligencia artificial en el mundo del trabajo. ¿Es posible que nuestro jefe ya no sea una persona, sino un sistema automatizado? En 2020, Antonio Aloisi y Valerio De Stefano lanzaron una provocadora advertencia: “Tu jefe es un algoritmo”, refiriéndose al aumento de sistemas de IA que gestionan tareas cruciales como la contratación, evaluación de rendimiento y despidos. Pero, ¿qué implica realmente que una máquina tome decisiones tan importantes?

    A lo largo del episodio, analizamos cómo la digitalización y el Big Data han permitido que los algoritmos se infiltren en las relaciones laborales. Mientras que antes las decisiones laborales se basaban en el juicio y la empatía humana, hoy, estos procesos son gestionados por cálculos fríos que priorizan la eficiencia por encima de todo. Reflexionamos sobre los peligros de los sesgos algorítmicos, como el caso de Amazon, donde un sistema de contratación algorítmica discriminaba a mujeres.

    Además, abordamos cómo el “taylorismo digital” ha llevado el control del trabajo a un nivel sin precedentes. Plataformas digitales como Teams y Slack no solo facilitan la colaboración, sino que también permiten una vigilancia constante de los trabajadores, transformando cada interacción en datos susceptibles de ser evaluados por algoritmos.

    En el corazón de este episodio se encuentra la cuestión de los derechos laborales. A pesar de los avances tecnológicos, los principios fundamentales de justicia social siguen siendo imprescindibles en esta nueva era. Nos preguntamos: ¿cómo deben adaptarse los marcos legales para proteger a los trabajadores de la explotación digital y los riesgos de la automatización? Exploramos casos emblemáticos como el del sistema SyRI en los Países Bajos, que fue declarado ilegal por discriminar a comunidades vulnerables, y reflexionamos sobre la necesidad de regular el uso de la IA en el trabajo para evitar que perpetúe desigualdades.

    Finalmente, discutimos la aparición del “cognitariado”, una nueva clase de trabajadores que gestionan y producen datos en lugar de bienes materiales. Aunque las tecnologías digitales prometen modernización, estos trabajadores están expuestos a nuevas formas de precariedad y explotación, donde la evaluación continua y la presión constante son la norma.

    Únete a nosotros mientras exploramos cómo garantizar un futuro laboral justo y equitativo en la era de los algoritmos, y qué papel debe jugar el derecho para equilibrar los avances tecnológicos con la protección de la dignidad humana.

    Hashtags:

    #Algoritmos #InteligenciaArtificial #DerechosLaborales #FuturoDelTrabajo #BigData #Tecnología #Automatización #Cognitariado #EmpleoDigital #JusticiaSocial #PrivacidadDeDatos #SesgosAlgorítmicos #EconomíaDigital #IA #TransformaciónLaboral #RegulaciónTecnológica

  • En este episodio de Derecho al Futuro, exploramos cómo las revolucionarias teorías de Daniel Kahneman y Lisa Feldman Barrett están transformando nuestra comprensión de la mente humana y su influencia en el desarrollo de la inteligencia artificial emocional. Daniel Kahneman nos enseña que nuestras decisiones están moldeadas por sesgos cognitivos y que muchas veces no somos tan racionales como creemos. Por su parte, Lisa Feldman Barrett desafía la idea de que las emociones son universales y automáticas, proponiendo que se construyen a partir de experiencias y contextos culturales.

    Unimos estas dos perspectivas para entender cómo están moldeando la creación de tecnologías más empáticas y contextuales. También reflexionamos sobre los desafíos éticos y legales que surgen con la inteligencia artificial emocional: ¿cómo aseguramos que estas tecnologías respeten nuestra privacidad emocional y se utilicen de manera justa?

  • En este episodio, exploramos las complejidades detrás de la inteligencia artificial emocional (IA emocional) y cuestionamos algunas de las suposiciones más comunes sobre su funcionamiento. Acompañados por las ideas de la reconocida psicóloga y neurocientífica Lisa Feldman Barrett, analizamos por qué las emociones no pueden ser percibidas de manera universal a través de expresiones faciales o patrones fisiológicos y cómo la IA emocional actual está fallando al basarse en estereotipos simplificados. Descubre por qué las emociones son construcciones activas del cerebro, cómo el contexto influye en su expresión, y qué se necesita para desarrollar una IA emocional verdaderamente efectiva y precisa. Si te interesa el futuro de la tecnología y su relación con el derecho, este episodio es para ti.