Propuesta europea para regular el uso de la inteligencia artificial
En este artículo, McKinsey ofrece una descripción general de la propuesta de reglamento de la Unión europea (UE) para regular específicamente el desarrollo y uso de la Inteligencia Artificial (IA). Esta futura regulación se aplicaría a cualquier sistema de inteligencia artificial utilizado dentro de la Unión Europea, no sólo a compañías europeas y, según McKinsey, proporciona una visión sobre cómo se espera que se desarrolle la regulación de la IA en el mundo, y sus posibles implicaciones en las empresas.
Según McKinsey, muchas organizaciones aún tienen mucho trabajo por hacer para cumplir con esta regulación y abordar los riesgos asociados con la IA (no solo los riesgos de cumplimiento, sino otros relacionados con la reputación, la privacidad y la confianza en el ámbito comercial...). En su opinión, esta propuesta regulatoria proporciona una visión sobre cómo se espera que se desarrolle la regulación de la IA en el mundo, y sus posibles implicaciones en las empresas.
El artículo proporciona una descripción general de los principales aspectos incluidos en el proyecto de reglamento europeo de IA, como por ejemplo los siguientes:
- Los sistemas de IA se clasificarán en tres categorías de riesgo atendiendo a su posible impacto en los particulares:
- Sistemas de IA de riesgo inaceptable: incluyen (1) sistemas que subliminalmente manipulen o utilicen técnicas que puedan causar un daño, (2) sistemas de identificación biométrica en tiempo real, utilizados en espacios públicos para hacer cumplir la ley y (3) y cualquier mecanismo de evaluación de los individuos en base a su comportamiento o su personalidad.
- Sistemas de IA de alto riesgo: incluidos aquellos que evalúan la solvencia crediticia del consumidor o se usan en la contratación y gestión de empleados, … Según la propuesta de reglamento, la UE actualizaría la lista de sistemas incluidos en esta categoría anualmente.
- Sistemas de IA de riesgo limitado y mínimo: incluyen muchas de las aplicaciones de IA que se utilizan actualmente en todo el mundo empresarial, como los chatbots o la gestión de inventarios gestionados por IA.
- Los sistemas de IA tendrán distintos requerimientos en función de su nivel de riesgo. Los “sistemas de IA de alto riesgo” estarían sujetos al mayor conjunto de requerimientos (transparencia y suministro de información a los usuarios, implementación de sistemas de gestión de riesgos, gobernanza de la calidad de los datos y obligaciones de información…), mientras que los "sistemas de IA de riesgo limitado y mínimo" tendrían muchos menos requisitos, principalmente en forma de obligaciones específicas de transparencia, como informar a los usuarios de que están interactuando con una máquina. La "categoría de riesgo inaceptable" no se permitiría en la UE.