Inteligencia Artificial: el Senado comenzará hoy el análisis de una iniciativa para imponer “controles y principios rectores”
Los asesores de la comisión de Ciencia de la Cámara alta comenzarán a analizar una iniciativa del peronista disidente Juan Carlos Romero. Permisos y prohibiciones para revisiones biométricas
La ola cada vez más alta generada por la aparición y aplicación de la Inteligencia Artificial (IA) llegará hoy al Senado: asesores de la comisión de Ciencia comenzarán este martes con el análisis de un proyecto presentado por el peronista disidente Juan Carlos Romero (Provincias Unidas-Salta) para establecer “controles y principios rectores para el desarrollo, implementación y utilización de sistemas”, que incluye permisos y prohibiciones para revisiones biométricas.
Según consta en el texto, la ley aplicaría “a todas las entidades públicas y privadas que empleen, diseñen, desarrollen o desplieguen sistemas de IA, así como a los proveedores de dichos sistemas, con independencia de su ámbito de aplicación, alcance o nivel de complejidad”.
Hay cinco principios rectores en el proyecto: “crecimiento inclusivo, desarrollo sostenible y bienestar”; “transparencia y explicabilidad -sic-”; “robustez, seguridad y protección”; “colaboración y Supervisión Humana”; y “Responsabilidad y Rendición de Cuentas”.
La ley impone un “Registro Nacional de Sistemas de Inteligencia Artificial” con el que la Autoridad de Aplicación -Ministerio de Ciencia o área encargada- realizará una “evaluación de impacto previa a la comercialización y utilización de los sistemas de IA, a través de la cual analizará los posibles sesgos, riesgos de discriminación, transparencia y otros factores relevantes para garantizar el cumplimiento de los principios” informados en la norma.
En otro tramo del articulado se sugiere considerar de “alto riesgo” a los sistemas de IA que sean utilizados para fines como seguridad en la gestión y funcionamiento de infraestructuras críticas -control de tráfico y servicios esenciales-; educación; evaluación de candidatos, toma de decisiones sobre ascensos o ceses de relaciones laborales; envío o priorización de servicios de respuesta a emergencias, incluidos bomberos y asistencia médica; investigación penal y seguridad pública; gestión de la migración y control de fronteras; y sistemas de identificación biométrica, entre otras cuestiones.
Dentro de las prácticas consideradas “inaceptables” se encuentra, por caso, la “introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona para alterar de manera sustancial su comportamiento”.
Un punto no menor se registra en el artículo 10, que desactiva “el uso de sistemas de identificación biométrica remota -en tiempo real- en espacios de acceso público con fines de aplicación de la ley, salvo en que dicho uso sea estrictamente necesario para alcanzar uno o varios de los objetivos siguientes: la búsqueda selectiva de posibles víctimas concretas de un delito, incluidos menores de edad; la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas de existencia visible o de un atentado terrorista”; y “la identificación y el reconocimiento de personas buscadas exclusivamente por orden judicial, registradas en la Base de Datos de Consulta Nacional de Rebeldías y Capturas (CONARC), o el que lo reemplace”.
En los fundamentos del proyecto, Romero manifestó que las “experiencias y datos de otros países evidencian la imperante necesidad de una regulación clara y efectiva en materia de Inteligencia Artificial”. En esa línea, detalló: “Varios países han tomado medidas legales y políticas para enfrentar los desafíos asociados con la IA y garantizar su uso ético, transparente y responsable. Estas experiencias han sido y son valiosas referencias para adecuar nuestra legislación nacional”.
“La falta de transparencia de los sistemas de Inteligencia Artificial genera desconfianza y limita la rendición de cuentas”, señaló Romero. Y agregó: “El objetivo es que los desarrolladores y proveedores involucrados en el ciclo de vida de los sistemas de IA proporcionen explicaciones claras y comprensibles sobre cómo llegan a sus decisiones, y que los procesos y algoritmos sean accesibles y auditables por la Autoridad de Aplicación. Esto permitirá una mayor confianza en el uso de la Inteligencia Artificial y facilitará la detección y corrección de posibles errores o sesgos”.
Fuente: Infobae
Rivero. C
Los comentarios están cerrados.