Consulta Pública de la Estrategia Nacional de Inteligencia Artificial
AGESIC
Cambios en "Comentarios de la Asociación Latinoamericana de Internet - ALAI a la Estrategia Nacional de Inteligencia Artificial"
Título
- +{"es"=>"Comentarios de la Asociación Latinoamericana de Internet - ALAI a la Estrategia Nacional de Inteligencia Artificial"}
Cuerpo
- +["Montevideo, 21 de octubre de 2024\n\n\n\nEstimados y estimadas colegas de AGESIC:\n\n\nAgradecemos la oportunidad de participar con nuestras contribuciones, a la elaboración de la Estrategia Nacional de Inteligencia Artificial de Uruguay. \n\nEn términos generales pensamos que es un muy buen trabajo en el que vemos varios aspectos positivos. \n\nValoramos positivamente el objetivo cenral de la propuesta, que es aprovechar la inteligencia artificial (IA) como instrumento para el desarrollo sostenible y el crecimiento inclusivo de Uruguay, impulsando su desarrollo y uso ético, responsable, seguro y pro-innovación, en beneficio de todos los sectores de la sociedad, la economía y la mejora de la gestión pública.\n\nEs destacable que el foco no se haya centrado en prohibiciones, limitaciones o controles sobre la IA. Se constata un buen balance entre el uso ético, responsable y seguro, con un enfoque que fomenta la innovación. Estos lineamientos mantienen correlación con las condiciones actuales en los aspectos de desarrollo digital, conectividad y clima de negocios.\n\nSaludamos la promoción de un enfoque de Múltiples Partes Interesadas, en tanto se deja claro que todo lo relativo a gobernanza de la IA debe incluir la participación del sector privado, la academia y la sociedad civil. Lo cual se materializa en un diseño institucional que contemple espacios y mecanismos para todos los actores.\n\nEn líneas con el Principio de Múltiples Partes Interesadas, recomendamos crear alguna instancia formal de participación pública-privada – comité o instancia consultiva- donde, junto a otros actores de la industria, colaboremos en forma permanente\n\nAprovechar los beneficios de la IA requerirá un esfuerzo concertado y colaborativo. Los gobiernos pueden catalizar la adopción de la IA fomentando políticas favorables para la innovación, invirtiendo en infraestructura digital robusta y trabajando con la sociedad civil y la academia en iniciativas integrales de construcción de capacidades y habilidades digitales. \n\nEl sector privado, y particularmente las empresas representadas de base tecnológica repesentadas en ALAI, pueden impulsar la innovación, colaborar en la adaptación de las soluciones a las necesidades locales y proporcionar la experticia y los recursos técnicos que son esenciales. \n\n\n\nRecomendaciones \n\n\nMás allá de los aspectos positivos ya señalados, quisiéramos hacer alguna recomendaciones que pensamos que sería importante considerar: \n\n\n1) Adoptar un enfoque proporcional y basado en riesgo. \n\n\nDado que la inteligencia artificial es una tecnología multipropósito que se puede implementar en una amplia diversidad de contextos con perfiles de riesgo muy diferentes, es importante adoptar un enfoque proporcional y basado en riesgos al momento de pensar marcos regulatorios. \nEl enfoque basado en riesgos permite ofrecer claridad a los desarrolladores, implementadores y organismos reguladores sobre los usos que están prohibidos, y fomentar el consenso sobre cómo abordar las preocupaciones más graves en torno a esta tecnología. \nTambién permitiría a los reguladores identificar las partes (desarrolladores, implementadores o usuarios) con mayor control sobre la prevención y mitigación de daños y que, por lo tanto, deben asumir la responsabilidad. \nUn enfoque basado en el riesgo se puede combinar con un modelo distribuido de gobernanza que garantice que las agencias con experiencia en temas como servicios financieros, atención médica, energía, entre otros, puedan abordar los riesgos y oportunidades específicos del sector con la IA. \nPaíses como el Reino Unido, los Estados Unidos y Singapur han tomado medidas para utilizar las autoridades existentes para regular dentro de sus jurisdicciones, basándose en los riesgos particulares que los productos o servicios impulsados por la IA puedan presentar.\nParticularmente el punto sobre supervisión humana (p.26) debería considerarse dentro de este enfoque basado en riesgos ya que no todo sistema de IA que tome decisiones debería ser supervisado, sino solo aquellos que tomen decisiones que puedan impactar negativamente en los individuos, teniendo en cuenta el contexto y el nivel de riesgo\n\n\n2) Mantener marcos de privacidad y derechos de autor que permitan el uso de información disponible públicamente a la vez que se respetan los derechos legítimos. \n\n\nDada la importancia de los datos en el desarrollo de la inteligencia artificial, es fundamental asegurar que las reglamentaciones que afectan el acceso y uso de los datos, como los marcos de derechos de autor y privacidad, permitan el uso de la información disponible públicamente, respetando los derechos legítimos. \nVarios países han dado pasos importantes para desarrollar sistemas de derechos de autor que apoyan la innovación y la creatividad, incluso para superar limitaciones y excepciones que protegen la capacidad de los desarrolladores para entrenar modelos de inteligencia artificial con datos públicamente disponibles.\nAdemás, la presencia de un marco de derechos de autor amigable con la innovación de inteligencia artificial se ha convertido en un indicador importante sobre si el país será un líder en este campo. \nDe manera similar, la privacidad es importante tanto para salvaguardar los datos personales como para preservar la capacidad que tienen los sistemas de inteligencia artificial de procesar datos disponibles públicamente. \nTambién, para que los marcos de derechos de autor y privacidad logren el equilibrio correcto entre la innovación y la protección de los derechos legítimos, los gobiernos deben garantizar que los usuarios, científicos, innovadores, investigadores y creadores que utilizan herramientas de inteligencia artificial estén completamente representados en el proceso legislativo.\nFinalmente, quisiéramos enfatizar que el consentimiento no debiera ser la única base legal para el tratamiento de los datos, como bien lo reconoce la ley No 18.331.\n\n\n3) Apoyar y contribuir al desarrollo de estándares técnicos internacionales para la IA. \n\n\nDada la naturaleza transfronteriza de la gobernanza de la inteligencia artificial, es importante que los gobiernos, investigadores y empresas de los mercados emergentes tengan un papel fuerte en el desarrollo de los estándares técnicos internacionales de la inteligencia artificial. \nEs importante impulsar la participación de una amplia diversidad de actores en el proceso de definición de estándares de la inteligencia artificial, y promover el uso y reconocimiento de estos por parte de la industria y los reguladores. \nLa alineación en torno a estándares internacionales para la inteligencia artificial ayuda a evitar fragmentaciones y a crear una línea de base común para los enfoques reglamentarios nacionales, de manera que cuando una empresa deba demostrar su cumplimiento normativo, también pueda hacerlo demostrando el cumplimiento de un estándar común, en vez de tener que cumplir con un requisito específico. \n\n\n4) Eje 2 - Capacidades para la IA\n\n\nSugerimos incluir una mención o apartado especial potenciando la adopción y/o a los sistemas de IA de código abierto que se destacan por impulsar la innovación, permitir la creación de mejores productos y servicios con más seguridad, de los que todos pueden beneficiarse. Entre los beneficios de la IA de código abierto se destacan:\n\nImpulsar la innovación y acelerar el ritmo de los descubrimientos científicos: El código abierto impulsa la innovación al permitir la implementación y adaptación en dispositivos y facilita la integración en sistemas complejos. Los modelos fundacionales son fundamentales para la investigación científica moderna, y un acceso más amplio a ellos es necesario para ampliar los descubrimientos científicos.\nMayor seguridad y control sobre el acceso a los datos: El código abierto facilita un mayor control sobre el acceso a los datos porque los modelos abiertos se pueden descargar. Los desarrolladores no necesitan compartir datos con proveedores externos. Esta es una ventaja significativa, en particular cuando gran parte de la innovación de los modelos abiertos resulta de aplicaciones de conjuntos de datos nuevos. Las organizaciones entonces pueden experimentar e innovar con modelos abiertos con mayor tranquilidad a este respecto.\nLa IA de código abierto proporciona a los actores la capacidad de identificar y mitigar los riesgos potenciales. Cuando se utiliza código abierto, se empoderan a otros actores para que ayuden a identificar y mitigar los riesgos generando una comunidad contra actores maliciosos. \nLa IA de código abierto mejora la seguridad, la protección y la eficiencia operativa de los modelos. Históricamente, el software de código abierto ha demostrado una seguridad y protección superiores, como resultado de la retroalimentación continua, el escrutinio riguroso y el desarrollo continuo de la comunidad global. Esto es particularmente significativo dada la importancia de la seguridad en el ámbito de la IA. El software de código abierto se caracteriza por su eficiencia computacional, lo que genera mejoras operativas y menores costos computacionales, un beneficio que se extiende a todas las partes interesadas.\nDemocratizar el acceso a la tecnología de IA. El enfoque de innovación abierta apoyado en los sistemas de código abierto prioriza el empoderamiento de la comunidad de investigadores y desarrolladores y democratiza el acceso, ayudando a garantizar una amplia distribución de la tecnología y sus beneficios para la sociedad en su conjunto y no para unos pocos seleccionados. Los modelos fundacionales de IA de código abierto reducen las barreras de entrada para que la IA pueda ser implementada por una comunidad más amplia de desarrolladores y organizaciones que se beneficiarán de estas innovaciones.\n\nEntendemos que Uruguay debería adoptar una postura que promueva y potencie los sistemas de IA de Código Abierto la cual sería ampliamente beneficiosa para el país y todos los actores involucrados en el ecosistema.\n\n\n5) Fiabilidad y Seguridad – \n\n\nProponemos modificar el §8 (Fiabilidad y seguridad) en la página 30 de la Estrategia como se detalla a continuación. \n\nLa redacción original establece:\n \n“Los actores de la IA deben asegurar que los sistemas de IA funcionen adecuadamente y no planteen riesgos en materia de seguridad, y cumplan con los principios de seguridad de la información desde el diseño. Esto supone que deben adoptar medidas y procedimientos para asegurar la robustez y resiliencia de los sistemas, su actualización y mejora continua, la calidad de los datos, la precisión y consistencia de los modelos, la estabilidad de los sistemas, la transparencia y explicabilidad, la privacidad, la protección de datos personales y la seguridad frente a posibles ataques cibernéticos, así como su desarrollo y adopción bajo principios éticos”\n \nProponemos que el texto sea sustuido por la siguiente redacción (se marcan en negritas los cambios sugeridos) :\n \n“Los actores de la IA deben tomar medidas razonables para que los sistemas de IA funcionen adecuadamente y no planteen riesgos en materia de seguridad, y cumplan con los principios de seguridad de la información desde el diseño. Esto supone que deben adoptar medidas y procedimientos razonables, en el ámbito de sus respectivas competencias durante el ciclo de vida del sistema de IA para procurar la robustez, la resiliencia y la estabilidad de los sistemas, la protección de datos personales, y la seguridad frente a posibles ataques cibernéticos, así como su desarrollo y adopción bajo principios éticos.”\n\n\n6) Principio 2 – Fortalecimiento de la Democracia. \n\n\nProponemos eliminar la mención a la necesidad de desarrollar marcos para la gobernanza de las plataformas digitales que realizan curación de contenidos. Esta mención se realiza en el contexto de la prevención de la desinformación, lo que no está directamente relacionado con el desarrollo de la IA. \nConsideramos que estos aspectos deben tratarse, y así sucede, en otros contextos donde se discuten estos temas de forma más específica. \n\n\n7) Principio 3 – Respeto a la Dignidad y Derechos Humanos. \n\n\nSugerimos remover la mención de que \n\n“en función de la posición garante del Estado, implica el deber de los organismos públicos de mantener o adoptar en el ámbito de sus competencias, las medidas que resulten necesarias y adecuadas para proteger los derechos humanos…” (…) “Estas medidas deben incluir marcos y procedimiento que posibilite evaluar, prevenir y mitigar, ex ante y -según corresponda- de manera iterativa durante el ciclo de vida de los sistemas de IA, los riesgos e impactos adversos en los derechos humanos”.\n\nEste texto podría interpretarse como una recomendación para que el Estado regule en sentido de evitar los impactos “adversos” de la tecnología y al proponerse una regulación ex ante, es decir previa al caso concreto que genere la afectación, puede dar lugar a planteos regulatorios que atenten contra la innovación.\n\n\n\nNuevamente agradecemos la oportunidad de presentar estos comentarios y contribuciones a la elaboración de la estrategia Nacional de Inteligencia Artificial y quedamos a su completa disposición en las futuras etapas de este proceso. \n\n\nCordiales Saludos, \n\n\nRaúl Echeberría \nAsociación Latinoamericana de Internet – ALAI\nDirector Ejecutivo"]