Consulta Pública de la Estrategia Nacional de Inteligencia Artificial
AGESIC
Comentarios de la Asociación Latinoamericana de Internet - ALAI a la Estrategia Nacional de Inteligencia Artificial
El enfoque basado en riesgos permite ofrecer claridad a los desarrolladores, implementadores y organismos reguladores sobre los usos que están prohibidos, y fomentar el consenso sobre cómo abordar las preocupaciones más graves en torno a esta tecnología.
También permitiría a los reguladores identificar las partes (desarrolladores, implementadores o usuarios) con mayor control sobre la prevención y mitigación de daños y que, por lo tanto, deben asumir la responsabilidad.
Un enfoque basado en el riesgo se puede combinar con un modelo distribuido de gobernanza que garantice que las agencias con experiencia en temas como servicios financieros, atención médica, energía, entre otros, puedan abordar los riesgos y oportunidades específicos del sector con la IA.
Países como el Reino Unido, los Estados Unidos y Singapur han tomado medidas para utilizar las autoridades existentes para regular dentro de sus jurisdicciones, basándose en los riesgos particulares que los productos o servicios impulsados por la IA puedan presentar.
Particularmente el punto sobre supervisión humana (p.26) debería considerarse dentro de este enfoque basado en riesgos ya que no todo sistema de IA que tome decisiones debería ser supervisado, sino solo aquellos que tomen decisiones que puedan impactar negativamente en los individuos, teniendo en cuenta el contexto y el nivel de riesgo
Varios países han dado pasos importantes para desarrollar sistemas de derechos de autor que apoyan la innovación y la creatividad, incluso para superar limitaciones y excepciones que protegen la capacidad de los desarrolladores para entrenar modelos de inteligencia artificial con datos públicamente disponibles.
Además, la presencia de un marco de derechos de autor amigable con la innovación de inteligencia artificial se ha convertido en un indicador importante sobre si el país será un líder en este campo.
De manera similar, la privacidad es importante tanto para salvaguardar los datos personales como para preservar la capacidad que tienen los sistemas de inteligencia artificial de procesar datos disponibles públicamente.
También, para que los marcos de derechos de autor y privacidad logren el equilibrio correcto entre la innovación y la protección de los derechos legítimos, los gobiernos deben garantizar que los usuarios, científicos, innovadores, investigadores y creadores que utilizan herramientas de inteligencia artificial estén completamente representados en el proceso legislativo.
Finalmente, quisiéramos enfatizar que el consentimiento no debiera ser la única base legal para el tratamiento de los datos, como bien lo reconoce la ley No 18.331.
Es importante impulsar la participación de una amplia diversidad de actores en el proceso de definición de estándares de la inteligencia artificial, y promover el uso y reconocimiento de estos por parte de la industria y los reguladores.
La alineación en torno a estándares internacionales para la inteligencia artificial ayuda a evitar fragmentaciones y a crear una línea de base común para los enfoques reglamentarios nacionales, de manera que cuando una empresa deba demostrar su cumplimiento normativo, también pueda hacerlo demostrando el cumplimiento de un estándar común, en vez de tener que cumplir con un requisito específico.
Mayor seguridad y control sobre el acceso a los datos: El código abierto facilita un mayor control sobre el acceso a los datos porque los modelos abiertos se pueden descargar. Los desarrolladores no necesitan compartir datos con proveedores externos. Esta es una ventaja significativa, en particular cuando gran parte de la innovación de los modelos abiertos resulta de aplicaciones de conjuntos de datos nuevos. Las organizaciones entonces pueden experimentar e innovar con modelos abiertos con mayor tranquilidad a este respecto.
La IA de código abierto proporciona a los actores la capacidad de identificar y mitigar los riesgos potenciales. Cuando se utiliza código abierto, se empoderan a otros actores para que ayuden a identificar y mitigar los riesgos generando una comunidad contra actores maliciosos.
La IA de código abierto mejora la seguridad, la protección y la eficiencia operativa de los modelos. Históricamente, el software de código abierto ha demostrado una seguridad y protección superiores, como resultado de la retroalimentación continua, el escrutinio riguroso y el desarrollo continuo de la comunidad global. Esto es particularmente significativo dada la importancia de la seguridad en el ámbito de la IA. El software de código abierto se caracteriza por su eficiencia computacional, lo que genera mejoras operativas y menores costos computacionales, un beneficio que se extiende a todas las partes interesadas.
Democratizar el acceso a la tecnología de IA. El enfoque de innovación abierta apoyado en los sistemas de código abierto prioriza el empoderamiento de la comunidad de investigadores y desarrolladores y democratiza el acceso, ayudando a garantizar una amplia distribución de la tecnología y sus beneficios para la sociedad en su conjunto y no para unos pocos seleccionados. Los modelos fundacionales de IA de código abierto reducen las barreras de entrada para que la IA pueda ser implementada por una comunidad más amplia de desarrolladores y organizaciones que se beneficiarán de estas innovaciones.
“Los actores de la IA deben asegurar que los sistemas de IA funcionen adecuadamente y no planteen riesgos en materia de seguridad, y cumplan con los principios de seguridad de la información desde el diseño. Esto supone que deben adoptar medidas y procedimientos para asegurar la robustez y resiliencia de los sistemas, su actualización y mejora continua, la calidad de los datos, la precisión y consistencia de los modelos, la estabilidad de los sistemas, la transparencia y explicabilidad, la privacidad, la protección de datos personales y la seguridad frente a posibles ataques cibernéticos, así como su desarrollo y adopción bajo principios éticos”
Proponemos que el texto sea sustuido por la siguiente redacción (se marcan en negritas los cambios sugeridos) :
“Los actores de la IA deben tomar medidas razonables para que los sistemas de IA funcionen adecuadamente y no planteen riesgos en materia de seguridad, y cumplan con los principios de seguridad de la información desde el diseño. Esto supone que deben adoptar medidas y procedimientos razonables, en el ámbito de sus respectivas competencias durante el ciclo de vida del sistema de IA para procurar la robustez, la resiliencia y la estabilidad de los sistemas, la protección de datos personales, y la seguridad frente a posibles ataques cibernéticos, así como su desarrollo y adopción bajo principios éticos.”
Consideramos que estos aspectos deben tratarse, y así sucede, en otros contextos donde se discuten estos temas de forma más específica.
Asociación Latinoamericana de Internet – ALAI
Director Ejecutivo
Se está evaluando esta propuesta
En nombre del equipo de Agesic agradecemos su participación. Las sugerencias recibidas comenzaron a ser sistematizadas y evaluadas, posteriormente se informarán los avances y resultados de este proceso.
Reportar contenido inapropiado
Este contenido no es apropiado?
Compartir: