Hay una pregunta que parece, a primera vista, más filosófica que jurídica: ¿puede una máquina ser injusta?
Algunos responderán que todo depende de cómo haya sido programada. Otros sostendrán que no, porque una máquina no tiene prejuicios: solo procesa datos y produce resultados, lo que suena, por definición, objetivo.
Sin embargo, esa intuición comienza a desmoronarse cuando observamos cómo funcionan realmente muchos sistemas de inteligencia artificial. No toman decisiones en el vacío: aprenden de datos históricos, identifican patrones y los proyectan hacia el futuro. Y ahí aparece el problema.
Si los datos reflejan desigualdades del pasado, el sistema no las corrige. Las aprende. Y, en muchos casos, las reproduce. Leer más
