La Unión Europea plantea restringir el uso de la IA.
La Unión Europea trabaja desde hace tiempo para la regulación de el uso de la Inteligencia Artificial en sistemas biométricos y de vigilancia masiva. Lo que se busca, es que las empresas que no cumplan con el uso adecuado y los límites establecidos en los que se puede utilizar enfrenten multas similares a las de la GDPR.
Esta nueva regulación establecerá un marco legal que permita la innovación, pero que garantice la seguridad y protección de los derechos humanos. Además de lo anteriormente mencionado, también se quiere restringir la aplicación de esta tecnología en otros casos considerados de alta vulnerabilidad, como su uso para analizar puntuaciones de crédito (Sistema ya usado en algunos piases fuera de la UE).
Según el borrador filtrado por el medio de comunicación Político que corresponde a regulación europea sobre IA, se evidencia que esta además de tener similitudes con la ley de protección de datos GDPR, distanciaría una vez más a los 27 países que conforman la UE de Estados Unidos y China, aplicando leyes más firmes para el uso de la tecnología.
Restricciones planteadas en el borrador:
- Prohibición del uso de IA para la «vigilancia indiscriminada», incluso para los sistemas que rastrean directamente a personas en entornos físicos o agregan datos de otras fuentes.
- Prohibición de los sistemas que generan puntuación de crédito social, es decir, juzgan la confiabilidad de una persona según su comportamiento social o sus rasgos de personalidad predichos.
- Se requiere autorización especial para el uso de «sistemas de identificación biométrica remota» como el reconocimiento facial en espacios públicos.
- Será obligatorio notificar cuando las personas interactúan con un sistema de inteligencia artificial, a menos que esto sea «obvio por las circunstancias y el contexto de uso».
- Nueva supervisión de los sistemas de inteligencia artificial de «alto riesgo», incluidos aquellos que representan una amenaza directa para la seguridad, como los coches autónomos, y los que tienen una alta probabilidad de afectar el sustento de alguien, como los que se utilizan para la contratación laboral, las decisiones judiciales y puntuación de crédito.
- Se priorizará la evaluación de sistemas de alto riesgo antes de que se pongan en servicio. Con esto se pretende garantizar que estos sistemas sean explicables a los supervisores humanos y estén capacitados en conjuntos de datos de «alta calidad» probados para detectar sesgos.
- Se creará una «Junta Europea de Inteligencia Artificial», compuesta por representantes de cada estado-nación, para ayudar a la comisión a decidir qué sistemas de IA cuentan como «de alto riesgo» y recomendar cambios a las prohibiciones.
Deja una respuesta