Después de dos años de debate en la Unión Europea sobre la nueva ley de Inteligencia Artificial, esta institución está ultimando detalles para el nuevo reglamento para así equilibrar derechos fundamentales como la privacidad de los datos y que todos los usuarios tengan accesos a sus beneficios con la necesidad de evitar que miles de empresas se lancen sin reparo a innovar en IA, pudiendo dar lugar a herramientas o sistemas fallidos.

Los beneficios potenciales de la IA para nuestra sociedad son múltiples, desde una mejor atención médica hasta una mejor educación. Ante el rápido desarrollo de la tecnología de inteligencia artificial, la UE debe actuar de forma conjunta para aprovechar estas oportunidades. Si bien la mayoría de los sistemas de IA presentan poco o ningún riesgo, algunos presentan peligros que deben abordarse para evitar lo inesperado. Por ejemplo, la opacidad de muchos algoritmos genera incertidumbre y dificulta la aplicación efectiva de la legislación vigente en materia de seguridad y derechos fundamentales. Para hacer frente a estos desafíos, se deben tomar medidas legislativas para garantizar el correcto funcionamiento del mercado interior de los sistemas de IA, con un equilibrio adecuado de beneficios y riesgos.

Esto abarca aplicaciones con sistemas de identificación biométrica o decisiones de IA que afectan a intereses personales importantes, por ejemplo, en los ámbitos de la contratación, la educación, la asistencia sanitaria o la aplicación de la ley. La propuesta de la Comisión de una normativa en materia de IA tiene por objeto garantizar la protección de los derechos fundamentales y la seguridad de los usuarios, a fin de que haya confianza en el desarrollo y la adopción de la IA.

Sistemas IA de ‘alto riesgo

En general, estos productos, servicios o actividades han sido estrictamente regulados para gestionar y mitigar dichos riesgos. En un entorno donde tales fallos pueden tener consecuencias catastróficas, está claro que “delegar” la toma de decisiones a los modelos de IA requiere importantes precauciones, por lo que es lógico que la nueva regulación se centre en ellas.

 

Entre los productos, servicios o actividades pertenecientes a este grupo (la lista no es exhaustiva por su extensión) podríamos citar: juguetes, barcos, ascensores y montacargas, explosivos, equipos de radio, teleféricos, combustibles gaseosos, equipos médicos, aviación, Vehículos a motor, ayudas a la navegación, sistemas ferroviarios, sistemas digitales de seguridad de infraestructuras críticas, tráfico rodado o suministro de agua, gas, calor y electricidad.

Identificación biométrica a distancia

Existe un gran potencial para la identificación biométrica y remota de personas en una variedad de industrias, incluida la seguridad y el análisis del comportamiento del consumidor. Sin embargo, también presenta riesgos reales para las personas, particularmente en términos de privacidad (dado lo simple que es monitorear de cerca la actividad de una persona identificada) y discriminación (los errores en el modelo de IA pueden resultar en resultados sesgados).

Los modelos de IA utilizados para la identificación biométrica remota deben cumplir con pautas estrictas porque la Ley de IA es consciente de estos riesgos.

Hay que aclarar dos cosas, independientemente. Los modelos de identificación biométrica que no actúan a distancia no se consideran de “alto riesgo” y no están sujetos a las mismas normas estrictas. La falta de distancia permite mucho mayor control por parte del individuo analizado, y ello reduce los peligros señalados.

Uso de Inteligencia Artificial en la educación:

Existe una clara correlación entre la educación y la formación y el desarrollo personal. Por ello, es necesario garantizar que las personas tengan un acceso adecuado a los recursos de formación para lograr la comprensión a través de la “plenitud” y evitar prejuicios que puedan vulnerar el derecho a la educación y el derecho a la no discriminación.

En este contexto, los modelos de inteligencia artificial utilizados en el proceso de admisión de personas a instituciones educativas o cursos en todos los niveles o para evaluar los resultados de aprendizaje de las personas también se consideran de “alto riesgo” y son necesarios.

Análisis de solvencia financiera y la puntuación crediticia:

Los modelos de IA que se utilizan para evaluar la solvencia financiera y crediticia de una persona son otros modelos que demandan especial atención. Estos sistemas funcionan como una especie de “filtro” para el acceso de las personas a los servicios que se consideran necesarios para que las personas, algunas de ellas vulnerables, participen plenamente en la sociedad o eleven su nivel de vida, como electricidad, gas, telecomunicaciones, financiamiento, etc.

La Ley de IA garantiza que estos modelos de IA se creen y entrenen con especial cuidado para evitar sesgos que resulten en discriminación contra personas o grupos específicos, permitan que continúen viejos patrones de discriminación o produzcan nuevos tipos de efectos discriminatorios.

Chatbots, deep fake y sistemas de Inteligencia Artificial que interactúen con personas:

Finalmente, queremos presentarles una gran clase de sistemas de IA que tienen en común que los humanos se encuentran en una posición particularmente vulnerable debido al poder de los modelos de IA y su capacidad para explicarnos. comportamiento o “engañarnos”.

La Ley de IA regula estos sistemas de forma singular, aunque con menor intensidad que los que ha tratado hasta ahora. En general, el estándar intenta “equilibrar las fuerzas” haciendo que estos sistemas cumplan con los requisitos de transparencia, haciendo que su existencia y operación sean obvias para los humanos, quienes pueden tomar las acciones que consideren apropiadas desde allí.

En principio, se recomienda a todas las empresas que utilicen o participen en el diseño, fabricación y comercialización de los modelos de IA comentados hasta ahora o sistemas basados ​​en ellos, con especial atención a la Ley de IA, que analicen cómo funciona la Ley de IA. afecta su gobernabilidad.

En resumen

La ley también busca definir quién es legalmente responsable de las acciones de un sistema de IA, como la empresa que lo emplea o la empresa que lo creó. Como resultado, antes de ser utilizadas en la Unión Europea, las aplicaciones de inteligencia artificial que la UE considere de alto riesgo deberán demostrar que cumplen con las regulaciones.

Y con el fin de fomentar el cumplimiento de las leyes y que sean ventajosas para la sociedad, también pretenden proporcionar una certificación de “IA confiable”. Si luego se descubre que los sistemas certificados han infringido las reglas, se pueden aplicar sanciones.

A fines de marzo, se prevé que el Parlamento Europeo vote sobre la tan esperada Ley de Inteligencia Artificial de la Unión, luego de lo cual las naciones comenzarán a negociar las disposiciones precisas de la ley.

Visita nuestro Blog.

Abrir chat
1
Escanea el código
Hola
¿En qué podemos ayudarte?