IA: PRIMERA NORMA EUROPEA REGULADORA DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL .
IA: PRIMERA NORMA EUROPEA REGULADORA DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL .
¿ Ley ? Antes de nada, y desde el punto de vista jurídico, aclarar que la UE no hace leyes en sentido estricto, sino otra serie de normas. En las notas de prensa, y en las propias noticias de los distintos medios, al hablar de ley, se refieren a ley en sentido amplio, es decir, norma jurídica, que luego revestirá la forma que sea conveniente (Reglamento, Directiva, etc...)
¿ Qué sabemos hasta ahora ?
En realidad tenemos un acuerdo de bases, de principios, (que no es poco desde luego, dado el número de Estados que deben ponerse de acuerdo, y los intereses económicos y de todo tipo que hay detrás de esto), a partir del cual desarrollar las normas futuras. Y a la vista de este inicio, ya podemos entrever cómo van a ser las cosas próximamente, una vez se plasme en normas aplicables.
¿ En qué consiste este acuerdo inicial ?
Aquí os copio lo que la propia UE ha colgado en su web:
( Texto obtenido de la web de la UE )
La UE y la IA
Una IA fiable puede aportar muchos beneficios: desde una mejor atención sanitaria, un transporte más seguro y limpio, y una fabricación más eficiente hasta una energía más barata y sostenible. El planteamiento de la UE en materia de IA ofrecerá a los ciudadanos la confianza necesaria para adoptar estas tecnologías, animando al mismo tiempo a las empresas a desarrollarlas.
La IA puede ayudar a encontrar soluciones a muchos de los problemas de nuestra sociedad. Esto solo puede lograrse si la tecnología es de gran calidad y se desarrolla y se utiliza de tal manera que merezca la confianza de los ciudadanos. Por lo tanto, un marco estratégico de la UE basado en los valores de la Unión ofrecerá a los ciudadanos la confianza necesaria para que acepten las soluciones basadas en la IA, animando al mismo tiempo a las empresas a desarrollarlas e impulsarlas.
Por eso la Comisión Europea ha propuesto un conjunto de acciones para impulsar la excelencia en IA, así como normas para garantizar que la tecnología sea fiable.
El Reglamento sobre un planteamiento europeo en materia de inteligencia artificial y la actualización del Plan Coordinado sobre la IA garantizarán la seguridad y los derechos fundamentales de las personas y las empresas, reforzando al mismo tiempo la inversión y la innovación en todos los países de la UE.
Generar confianza mediante el primer marco jurídico sobre la IA
La Comisión propone nuevas normas para garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, éticos e imparciales y estén bajo control humano. Por lo tanto, se clasifican en función del riesgo:
Inaceptable
Se prohibirá todo lo que se considere una amenaza clara para los ciudadanos de la UE: desde la clasificación social por parte de los gobiernos a los juguetes que utilicen un asistente de voz que incentive comportamientos peligrosos en los niños.
Riesgo alto
Las infraestructuras críticas (por ejemplo, el transporte) que puedan poner en peligro la vida y la salud de los ciudadanos.
La educación y formación profesionales que puedan determinar el acceso a la educación y la trayectoria profesional de una persona (por ejemplo, la calificación de exámenes).
Los componentes de seguridad de los productos (por ejemplo, la aplicación de la IA en la cirugía asistida por robots).
El empleo, la gestión de los trabajadores y el acceso al autoempleo (por ejemplo, el software para la clasificación de los currículos en los procesos de selección de personal).
Los servicios públicos y privados esenciales (por ejemplo, las calificaciones crediticias que denieguen a los ciudadanos la oportunidad de obtener un préstamo).
Los asuntos relacionados con la aplicación del Derecho que puedan interferir en los derechos humanos fundamentales (por ejemplo, la evaluación de la fiabilidad de las pruebas).
La gestión de la migración, el asilo y el control fronterizo (por ejemplo, la verificación de la autenticidad de los documentos de viaje).
La administración de justicia y los procesos democráticos (por ejemplo, la aplicación del Derecho a un conjunto concreto de hechos).
Todos ellos serán evaluados cuidadosamente antes de su introducción en el mercado y a lo largo de su ciclo de vida.
Riesgo reducido
Los sistemas de IA como los robots conversacionales están sujetos a unas obligaciones mínimas de transparencia, para que quienes interactúen con los contenidos tomen decisiones con conocimiento de causa. El usuario puede entonces decidir si quiere continuar o dejar de utilizar la aplicación.
Riesgo mínimo
Libre utilización de aplicaciones tales como videojuegos basados en la IA o filtros de correo no deseado. La gran mayoría de los sistemas de IA pertenece a esta categoría, en la que las nuevas normas no serán de aplicación porque solo representan un riesgo mínimo para los derechos o la seguridad de los ciudadanos, o ningún riesgo en absoluto.
Nuevas normas para los proveedores de sistemas de IA de riesgo alto
Etapa 1
Se desarrolla un sistema de IA de riesgo alto
Etapa 2
Debe someterse a la evaluación de la conformidad y cumplir los requisitos de la IA. En el caso de algunos sistemas, interviene un organismo notificado.
Etapa 3
Registro de los sistemas de IA autónomos en una base de datos de la UE.
Etapa 4
Debe firmarse una declaración de conformidad y el sistema de IA tiene que llevar el marcado CE. El sistema puede introducirse en el mercado.
Si se producen cambios sustanciales en el ciclo de vida del sistema de IA, debe volverse a la etapa 2.
Una vez que el sistema de IA está en el mercado, las autoridades son responsables de la vigilancia del mercado, los usuarios se ocupan de la supervisión y el seguimiento humanos y los proveedores disponen de un sistema de seguimiento poscomercialización. Los proveedores y los usuarios también notificarán incidentes graves y fallos de funcionamiento.
… y esto todo… por el momento...
Comentarios
Publicar un comentario