El Gobierno de la Provincia de Buenos Aires ha decidido impulsar una nueva regulación de la Inteligencia Artificial (IA), con una serie de reglas para regular su uso que incluyen auditorías, límites, registros, clasificaciones y prohibiciones, entre otras cosas. La regulación llega luego de que el Municipio de Zárate designara a “ZARA” –un chatbot– como Directora General de Atención al Vecino, otorgándole facultades administrativas y delegando en ella la gestión de los reclamos y la firma de los documentos. El caso generaría críticas sobre el alcance de facultades y autoridad.
Por medio de una resolución oficial, publicada en el Boletín Oficial, el Gobierno bonaerense –bajo la conducción de Axel Kicillof– fijó y determinó una regulación al uso de la Inteligencia Artificial, que se aplicará de manera transversal a la gestión estatal. La nueva disposición regula el desarrollo, la elaboración, la innovación, la investigación, la adquisición, la contratación, el uso y/o el despliegue de la Inteligencia Artificial en todos los organismos estatales de la provincia, a fin de proteger los derechos y garantías de la ciudadanía.

De este modo, se estableció que cualquier entidad pública que diseñe, adquiera o implemente la Inteligencia Artificial deberá cumplir con un conjunto de estándares de seguridad, transparencia, sustentabilidad, equidad y control humano, que serán de carácter obligatorio y podrán ser auditados. Dos de los ejes centrales de la nueva regulación son, precisamente, el modelo de clasificación por riesgo, inspirado en el marco normativo de la Unión Europea, y el registro obligatorio.
Clasificación de IA por tipo de riesgo
Sobre el marco europeo, Buenos Aires adoptará e introducirá cuatro categorías del modelo de clasificación por riesgo: inaceptable, alto, limitado y nulo. Los sistemas clasificados de riesgo inaceptable serán aquellos que quedarán terminantemente prohibidos. Esta categoría incluye todos aquellos sistemas de IA que puedan afectar gravemente la seguridad, “el orden constitucional-democrático”, los derechos fundamentales y la salud. En esta misma línea, la disposición también veta el desarrollo de sistemas de IA que realicen “clasificación y/o scoring social” o apliquen técnicas subliminales, orientadas a evaluar, de manera automatizada, el comportamiento de los sujetos con fines de control o discriminación.

Por su parte, los sistemas clasificados con riesgo alto serán todos aquellos que puedan impactar, de manera directa, en los derechos individuales. Entre ellos, se destacan los sistemas de identificación biométrica y de gestión de infraestructura crítica, que son utilizados en la educación, la justicia, la administración pública y el empleo. Para estos casos, la Provincia de Buenos Aires exigirá una evaluación de impacto algorítmica previa, orientada a anticipar todos los riesgos de carácter legal, social, técnico y ético que puedan desencadenarse de su uso.
Los sistemas de riesgo limitado, como los chatbots informativos, estarán permitidos pero bajo condiciones de transparencia. Esto quiere decir que, la ciudadanía debe tener el derecho de saber si interactúa con un sistema de IA, de manera anticipada y explícita. Finalmente, los sistemas de riesgo nulo, como las automatizaciones internas sin impacto directo en los sujetos o los filtros de spam, solo requerirán buenas prácticas técnicas.

Reglas y registro obligatorio
En el marco de esta nueva regulación, la Provincia de Buenos Aires impondrá una serie de controles en el ciclo de vida de cada sistema de IA desarrollado, bajo la órbita de la administración pública y la gestión estatal. Por ello, fijó un conjunto de reglas para quienes usen o desarrollen sistemas de Inteligencia Artificial en el Estado, donde se incluye evaluaciones preliminares de riesgos, estrategias de gestión de riesgo periódicas y almacenamientos de datos para garantizar la auditabilidad.
La disposición establece, además, que cuando haya interacción directa con la ciudadanía, el Estado tendrá la obligación de informar, de manera explícita y anticipada, que la respuesta proviene de un sistema automatizado, en virtud de no inducir al ciudadano a error o confusión. A su vez, la resolución fija el registro obligatorio de todos los sistemas de IA dentro de un padrón provincial. La implementación de dicho padrón dependerá de la Subsecretaría de Gobierno Digital de la Provincia de Buenos Aires.

Por último, se precisa que los sistemas de IA deben ser sostenibles y sustentables. Por lo que, se determina la adopción de medidas técnicas y administrativas para prevenir daños ecológicos y ambientales, derivados del uso y el desarrollo de modelos de Inteligencia Artificial. De acuerdo a los expertos en la materia, la Provincia de Buenos Aires se anticipa a uno de los debates más contemporáneos, vinculado al alto consumo energético de los modelos de Inteligencia Artificial y su impacto ambiental, e inserta la necesidad de medir la huella de carbono y la regulación ambiental como dos de los ejes centrales, de cara al futuro.
De esta manera, el Gobierno de la Provincia de Buenos Aires comienza a regular el uso de los sistemas de Inteligencia Artificial en la gestión estatal, tras lo sucedido en el Municipio de Zárate, con reglas y límites claros y modelos de clasificación de riesgos, orientados a la protección ciudadana y civil. El impacto ambiental, por su parte, es otro de los ejes centrales y más novedosos de esta nueva regulación estatal, impulsada por el Gobierno de Axel Kicillof en la Provincia de Buenos Aires.
Te puede interesar: Argentina busca consolidar su desarrollo en materia de energía renovable – El nuevo proyecto de energía undimotriz
