Saltar al contenido principal

Configuración de cookies

Utilizamos cookies para asegurar las funcionalidades básicas del sitio web y para mejorar tu experiencia en línea. Puedes configurar y aceptar el uso de las cookies, y modificar tus opciones de consentimiento en cualquier momento.

Esenciales

Preferencias

Analíticas y estadísticas

Marketing

Muchas gracias por su participación en la consulta pública.

La  sugerencia fue incorporada parcialmente en el Principio 3 y en el Principio 4. Se integró la preocupación que se desprende del aporte para destacar la importancia de considerar las características que debe tener la supervisión humana, optándose por una redacción alternativa que integra conceptos de éste y otro de sus aportes.

Incorporar el concepto de “Supervisión humana significativa”

Si bien en la página 26 (párrafo final) se expresa que “la supervisión y decisión humanas cumplen un papel fundamental”, no es cualquier supervisión humana la que se necesita, sino una supervisión probadamente calificada. Incluso, para algunos casos, deberá regularse cuál es la calificación mínima necesaria para operar la IA o tomar decisiones basadas en su consejo y qué actores deben recibir esa calificación. Este concepto ya cuenta con desarrollos teóricos importantes (ver por ejemplo: https://digitalfuturesociety.com/app/uploads/2022/11/Hacia_una_supervision_significativa_de_los_sistemas_automatizados_de_toma_de_decisiones.pdf)
Desde Datysoc proponemos que el último párrafo de la página 26 quede así:

"La supervisión y decisión humanas cumplen un papel fundamental para prevenir que las aplicaciones de los sistemas de IA puedan tener efectos negativos sobre los derechos de las personas. En aras de un uso de la IA ético y respetuoso de los derechos humanos los actores de la IA deben asegurar que, cuando los sistemas de IA se utilicen para tomar decisiones o apoyar la toma de decisiones, siempre haya una supervisión humana *significativa* sobre los resultados producidos por la IA. Será un reto establecer controles sobre los datos y los sistemas, pero al igual que con los procesos automatizados utilizados antes del surgimiento de esta tecnología, es imperativo supervisar los resultados y asegurar su fiabilidad antes de tomar decisiones con base en ellos."

A su vez, en el Punto 4 | Equidad y no discriminación, proponemos agregar el siguiente párrafo luego del primer párrafo de la Pag 28:

"Este principio y las medidas a adoptar incluyen tanto a la discriminación basada en sesgo algorítimico como aquella basada en sesgos de automatización (tendencia humana a confiar excesivamente en el apoyo de algorítmos, incluso cuando estos cometen errores), reconociendo la importancia de definir de forma precisa el concepto de "supervisión humana significativa" para ciertos contextos de alto riesgo."

Confirmar

Por favor, inicia la sesión

Compartir