
¿Puede una IA decidir si te contratan, te otorgan un crédito o te niegan un beneficio? En este episodio, la abogada Emma Fischer nos explica cómo los algoritmos pueden reproducir sesgos y decisiones injustas, incluso cuando parecen “objetivos” 🤖.
Revisamos casos emblemáticos como COMPAS y Amazon, la discriminación invisible en reclutamiento laboral, el desafío de probar sesgos en modelos de caja negra, y las limitaciones del human in the loop cuando la revisión humana es solo un formalismo.
También analizamos la nueva ley chilena 21.719, el derecho a explicación y revisión humana significativa, la futura Agencia de Protección de Datos, y el crecimiento de LegalTech: LLM jurídicos, IA generativa, scrapers del Poder Judicial y financiamiento de litigios ⚖️
IA para los Negocios: el podcast donde entendemos cómo la inteligencia artificial está transformando empresas, Estado y profesiones.
⭐ Recuerda evaluarnos con 5 estrellas ⭐ así nos ayudas a llegar a más personas y seguir compartiendo conocimiento sobre IA y tecnología aplicada a los negocios.
---
📲 Síguenos en nuestras redes:
https://www.tiktok.com/@evoacdm
https://www.instagram.com/evoacdm/
https://www.linkedin.com/company/evoacmd/
Host: Nolán Gaete
Invitado: Emma Fischer
#IAParaLosNegocios #LegalTech #SesgoAlgorítmico #ProtecciónDeDatos #RegulaciónIA
---
(00:00) - Introducción: ¿Puede una IA decidir si te contratan o no?
(03:41) - Mito de la neutralidad tecnológica en los algoritmos
(05:18) - Discriminación invisible: el caso de la joven abogada
(10:35) - Human in the loop: cómo aplicar el derecho a la intervención humana
(15:05) - Ley Local 14 de NY: transparencia obligatoria en el uso de herramientas de IA
(23:55) - Nueva ley 21.719 en Chile y derecho a revisión humana
(30:14) - LegalTech en acción: LLM jurídicos, Harvey y jurisprudencia chilena
(38:48) - IA generativa en estudios jurídicos: oportunidades y riesgos
(40:59) - Financiamiento de litigios, scrapers judiciales y datos abiertos