Consulta Pública de la Estrategia Nacional de Inteligencia Artificial
AGESIC
Comentarios de la Asociación Latinoamericana de Internet - ALAI a la Estrategia Nacional de Inteligencia Artificial
El enfoque basado en riesgos permite ofrecer claridad a los desarrolladores, implementadores y organismos reguladores sobre los usos que están prohibidos, y fomentar el consenso sobre cómo abordar las preocupaciones más graves en torno a esta tecnología.
También permitiría a los reguladores identificar las partes (desarrolladores, implementadores o usuarios) con mayor control sobre la prevención y mitigación de daños y que, por lo tanto, deben asumir la responsabilidad.
Un enfoque basado en el riesgo se puede combinar con un modelo distribuido de gobernanza que garantice que las agencias con experiencia en temas como servicios financieros, atención médica, energía, entre otros, puedan abordar los riesgos y oportunidades específicos del sector con la IA.
Países como el Reino Unido, los Estados Unidos y Singapur han tomado medidas para utilizar las autoridades existentes para regular dentro de sus jurisdicciones, basándose en los riesgos particulares que los productos o servicios impulsados por la IA puedan presentar.
Particularmente el punto sobre supervisión humana (p.26) debería considerarse dentro de este enfoque basado en riesgos ya que no todo sistema de IA que tome decisiones debería ser supervisado, sino solo aquellos que tomen decisiones que puedan impactar negativamente en los individuos, teniendo en cuenta el contexto y el nivel de riesgo
Varios países han dado pasos importantes para desarrollar sistemas de derechos de autor que apoyan la innovación y la creatividad, incluso para superar limitaciones y excepciones que protegen la capacidad de los desarrolladores para entrenar modelos de inteligencia artificial con datos públicamente disponibles.
Además, la presencia de un marco de derechos de autor amigable con la innovación de inteligencia artificial se ha convertido en un indicador importante sobre si el país será un líder en este campo.
De manera similar, la privacidad es importante tanto para salvaguardar los datos personales como para preservar la capacidad que tienen los sistemas de inteligencia artificial de procesar datos disponibles públicamente.
También, para que los marcos de derechos de autor y privacidad logren el equilibrio correcto entre la innovación y la protección de los derechos legítimos, los gobiernos deben garantizar que los usuarios, científicos, innovadores, investigadores y creadores que utilizan herramientas de inteligencia artificial estén completamente representados en el proceso legislativo.
Finalmente, quisiéramos enfatizar que el consentimiento no debiera ser la única base legal para el tratamiento de los datos, como bien lo reconoce la ley No 18.331.
Es importante impulsar la participación de una amplia diversidad de actores en el proceso de definición de estándares de la inteligencia artificial, y promover el uso y reconocimiento de estos por parte de la industria y los reguladores.
La alineación en torno a estándares internacionales para la inteligencia artificial ayuda a evitar fragmentaciones y a crear una línea de base común para los enfoques reglamentarios nacionales, de manera que cuando una empresa deba demostrar su cumplimiento normativo, también pueda hacerlo demostrando el cumplimiento de un estándar común, en vez de tener que cumplir con un requisito específico.
Mayor seguridad y control sobre el acceso a los datos: El código abierto facilita un mayor control sobre el acceso a los datos porque los modelos abiertos se pueden descargar. Los desarrolladores no necesitan compartir datos con proveedores externos. Esta es una ventaja significativa, en particular cuando gran parte de la innovación de los modelos abiertos resulta de aplicaciones de conjuntos de datos nuevos. Las organizaciones entonces pueden experimentar e innovar con modelos abiertos con mayor tranquilidad a este respecto.
La IA de código abierto proporciona a los actores la capacidad de identificar y mitigar los riesgos potenciales. Cuando se utiliza código abierto, se empoderan a otros actores para que ayuden a identificar y mitigar los riesgos generando una comunidad contra actores maliciosos.
La IA de código abierto mejora la seguridad, la protección y la eficiencia operativa de los modelos. Históricamente, el software de código abierto ha demostrado una seguridad y protección superiores, como resultado de la retroalimentación continua, el escrutinio riguroso y el desarrollo continuo de la comunidad global. Esto es particularmente significativo dada la importancia de la seguridad en el ámbito de la IA. El software de código abierto se caracteriza por su eficiencia computacional, lo que genera mejoras operativas y menores costos computacionales, un beneficio que se extiende a todas las partes interesadas.
Democratizar el acceso a la tecnología de IA. El enfoque de innovación abierta apoyado en los sistemas de código abierto prioriza el empoderamiento de la comunidad de investigadores y desarrolladores y democratiza el acceso, ayudando a garantizar una amplia distribución de la tecnología y sus beneficios para la sociedad en su conjunto y no para unos pocos seleccionados. Los modelos fundacionales de IA de código abierto reducen las barreras de entrada para que la IA pueda ser implementada por una comunidad más amplia de desarrolladores y organizaciones que se beneficiarán de estas innovaciones.
“Los actores de la IA deben asegurar que los sistemas de IA funcionen adecuadamente y no planteen riesgos en materia de seguridad, y cumplan con los principios de seguridad de la información desde el diseño. Esto supone que deben adoptar medidas y procedimientos para asegurar la robustez y resiliencia de los sistemas, su actualización y mejora continua, la calidad de los datos, la precisión y consistencia de los modelos, la estabilidad de los sistemas, la transparencia y explicabilidad, la privacidad, la protección de datos personales y la seguridad frente a posibles ataques cibernéticos, así como su desarrollo y adopción bajo principios éticos”
Proponemos que el texto sea sustuido por la siguiente redacción (se marcan en negritas los cambios sugeridos) :
“Los actores de la IA deben tomar medidas razonables para que los sistemas de IA funcionen adecuadamente y no planteen riesgos en materia de seguridad, y cumplan con los principios de seguridad de la información desde el diseño. Esto supone que deben adoptar medidas y procedimientos razonables, en el ámbito de sus respectivas competencias durante el ciclo de vida del sistema de IA para procurar la robustez, la resiliencia y la estabilidad de los sistemas, la protección de datos personales, y la seguridad frente a posibles ataques cibernéticos, así como su desarrollo y adopción bajo principios éticos.”
Consideramos que estos aspectos deben tratarse, y así sucede, en otros contextos donde se discuten estos temas de forma más específica.
Asociación Latinoamericana de Internet – ALAI
Director Ejecutivo
Esta propuesta ha sido aceptada porque:
Muchas gracias por su participación en la consulta pública.
A continuación, se detallan los elementos del aporte recibido integrados y aquellos que no fueron incorporados siguiendo el orden que presenta el aporte:
- Principio de Múltiples Partes Interesadas. Se incorporó a la Estrategia la creación de una instancia permanente para la articulación y participación que permita instrumentar el principio de Múltiples partes interesadas (Sección Eje 1. Gobernanza. Línea de acción 1.1 Institucionalidad. Acción. 1).
- Adoptar un enfoque proporcional y basado en riesgo. Si incorporó la recomendación de especificar el enfoque basado en el riesgo, si bien este ya estaba implícito en el contenido de la Estrategia (Sección Eje 1. Gobernanza. Línea de acción 1.2. (descripción del objetivo) y Acción 1. Se evaluó que el modelo distribuido de gobernanza ya está contemplado en la Línea de acción 1.2 de la Estrategia, Acción 4 en la que se explicita contar con marcos regulatorios sectoriales específicos. No obstante, se especificó el enfoque en la siguiente sección: Eje 1. Gobernanza. Línea de acción 1.1 Institucionalidad, Acción 1, donde se estableció Definir y constituir el modelo gobernanza país y el diseño institucional adecuado para la implementación de la Estrategia Nacional de IA, que asegure abordajes integrales y sectoriales.
- Marcos de privacidad y derechos de autor. Para el análisis de las contribuciones recibidas en el marco de la consulta pública se definió como criterio que todas las soluciones regulatorias específicas deberán ser discutidas y analizadas en la etapa de implementación de la Estrategia tal y como está previsto en la Línea 1.2 Marco regulatorio, en la que se estableció como objetivo desarrollar y adoptar los marcos regulatorios necesarios. En función de este criterio general, sólo fueron integrados a la versión final de la Estrategia elementos orientados a precisar enfoques regulatorios o a especificar las temáticas a abordar en la discusión regulatoria posterior, descartándose en esta etapa aquellas que ingresaban en soluciones específicas. Con base en esta definición, en lo que respecta a las recomendaciones planteadas en el aporte relativas a propiedad intelectual se tomó parcialmente lo planteado, integrándose en la sección Eje. 1. Gobernanza. Línea de acción 1.2. Marco regulatorio. Acción 2, una referencia al enfoque multiactor que contemple los distintos intereses y equilibrios necesarios, sin ingresar en el detalle del contenido específico de la regulación lo que deberá ser definido de conformidad con el criterio adoptado en la etapa de implementación.
- Apoyar y contribuir al desarrollo de estándares técnicos internacionales para la IA. Se integró a la Estrategia una nueva acción que recoge la recomendación de impulsar la participación de una amplia diversidad de actores en el proceso de definición global de estándares de la inteligencia artificial (Sección Eje 1. Gobernanza. Línea de acción 1.3. Articulación internacional. Acción 5).
- Eje 2 - Capacidades para la IA: Se integró a la Estrategia una acción específica relativa a promover la creación, mejora y uso de los sistemas de IA de código abierto (Sección Eje 3. Desarrollo Sostenible, Línea de acción 3.1. Sectores de la economía nacional. Acción 3.).
- Principio Fiabilidad y Seguridad: No se integró la sugerencia, evaluándose que el principio presenta una formulación adecuada.
- Principio Fortalecimiento de la Democracia: Se mantuvo el enfoque integral planteado en el Principio 2 de la Estrategia, incorporando ajustes a la redacción para precisar el alcance, tomando en consideración, el párrafo referido en el aporte recibido.
- Principio Respeto a la Dignidad y Derechos Humanos: Se mantuvo la referencia a la posición garante del Estado, incorporándose ajustes para aclarar el alcance.
Reportar contenido inapropiado
Este contenido no es apropiado?
Compartir: