Los sistemas de IA están integrados en casi todas las facetas de la vida moderna. Sugieren qué programas y películas debería ver, incluso ayudan a los empresarios a decidir a quién quieren contratar.
Suscríbete a la Newsletter de Softonic y recibe las últimas noticias en tech, juegos, entretenimiento en tu buzón de correo
Suscríbete (es GRATIS) ►Pero, ¿qué ocurre cuando estos sistemas, a menudo considerados neutrales, empiezan a tomar decisiones que ponen en desventaja a determinados grupos o, peor aún, causan daños en el mundo real? Esta pregunta se la hacen miles de profesionales.
Las consecuencias de las aplicaciones de la IA, que a menudo se pasan por alto, exigen marcos normativos que puedan seguir el ritmo de esta tecnología en rápida evolución. Y una experta en este ámbito, Sylvia Lu, ha estudiado la intersección entre el derecho y la tecnología para esbozar un marco jurídico para hacer precisamente eso.
Una regulación que nunca va tan rápida como la innovación
A pesar de estos peligros crecientes, los marcos jurídicos de todo el mundo han tenido dificultades para seguir el ritmo. En Estados Unidos, un enfoque normativo que hace hincapié en la innovación ha dificultado la imposición de normas estrictas sobre cómo se utilizan estos sistemas en múltiples contextos.
Los tribunales y los organismos reguladores están acostumbrados a tratar daños concretos, pero los daños algorítmicos son a menudo más sutiles, acumulativos y difíciles de detectar. Las normativas a menudo no abordan los efectos más amplios que los sistemas de IA pueden tener a lo largo del tiempo.
Los algoritmos de las redes sociales, por ejemplo, pueden erosionar gradualmente la salud mental de los usuarios, pero como estos daños se acumulan lentamente, son difíciles de abordar dentro de los límites de las normas jurídicas actuales.
Crear la verdadera responsabilidad
Categorizar los tipos de daños algorítmicos delinea los límites legales de la regulación de la IA y presenta posibles reformas legales para cerrar esta brecha de responsabilidad.
Los cambios que cree la experta que ayudarían incluyen evaluaciones de impacto algorítmico obligatorias que requieren que las empresas documenten y aborden los daños inmediatos y acumulativos de una aplicación de IA a la privacidad, la autonomía, la igualdad y la seguridad, antes y después de su despliegue.
Por ejemplo, las empresas que utilicen sistemas de reconocimiento facial tendrían que evaluar el impacto de estos sistemas a lo largo de su ciclo de vida.
Otro cambio útil sería el refuerzo de los derechos individuales en torno al uso de sistemas de IA, permitiendo a las personas optar por no participar en prácticas perjudiciales y haciendo que determinadas aplicaciones de IA opten por participar.
Por ejemplo, exigir un régimen de inclusión voluntaria para el tratamiento de datos por parte de las empresas que utilicen sistemas de reconocimiento facial y permitir a los usuarios excluirse en cualquier momento.
Por último, la experta sugiere exigir a las empresas que revelen el uso de la tecnología de IA y sus daños previstos. A modo de ejemplo, esto podría incluir la notificación a los clientes sobre el uso de sistemas de reconocimiento facial y los daños previstos en los ámbitos descritos en la tipología.
A medida que se generaliza el uso de los sistemas de IA en funciones sociales críticas (desde la atención sanitaria hasta la educación y el empleo), se hace más acuciante la necesidad de regular los daños que pueden causar. Sin intervención, es probable que estos daños invisibles sigan acumulándose, afectando a casi todo el mundo y golpeando desproporcionadamente a los más vulnerables.
Con la IA generativa multiplicando y exacerbando los daños de la IA, la experta cree que es importante que los responsables políticos, los tribunales, los desarrolladores de tecnología y la sociedad civil reconozcan los daños legales de la IA. Esto requiere no solo mejores leyes, sino un enfoque más reflexivo de la tecnología de vanguardia de la IA, que dé prioridad a los derechos civiles y a la justicia frente a los rápidos avances tecnológicos.
Como dice Sylvia Lu en su artículo, el futuro de la IA es increíblemente prometedor, pero sin los marcos jurídicos adecuados, también podría afianzar la desigualdad y erosionar los mismos derechos civiles que, en muchos casos, está diseñada para mejorar.