Europa aprueba su Ley de Inteligencia Artificial

La Ley de Inteligencia Artificial europea da un paso más. El Parlamento Europeo acaba de aprobar la que pasará a la historia como primera ley vinculante sobre esta tecnología a nivel mundial.

El resultado de la votación ha sido de 523 votos a favor, 46 en contra y 49 abstenciones. El Reglamento había sido acordado con los Estados miembros en el mes de diciembre.

Su objetivo es impulsar la innovación sin perjudicar “los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental”, tal y como explican las autoridades europeas en referencia a los riesgos que implica la expansión de la IA.

La aprobación definitiva debería suceder antes de que finalice la legislatura en junio de 2024. La nueva normativa todavía tiene que ser adoptada formalmente por el Consejo Europeo. Una vez publicada en el Diario Oficial entrará en vigor a los veinte días y, veinticuatro meses más tarde, comenzará a aplicarse con algunas excepciones.

La Ley de Inteligencia Artificial prohíbe aplicaciones como los sistemas de categorización biométrica basados en características sensibles, la captura indiscriminada de imágenes de rostos de internet y las grabaciones de cámaras de vigilancia para generar bases de datos de reconocimiento facial.

Asimismo, el texto impide el reconocimiento de emociones en el lugar de trabajo o la escuela, los sistemas de puntuación ciudadana, la actuación policial predictiva y aplicaciones capaces de manipular el comportamiento humano o de explotar sus vulnerabilidades.

Las fuerzas de seguridad podrán recurrir a la identificación biométrica para usos limitados a un tiempo y lugar específicos, con autorización judicial o administrativa previa. Aquí entra la búsqueda de personas desaparecidas y la prevención de atentados.

En usos de alto riesgo, como aquellos que tienen que ver con infraestructuras críticas, servicios públicos, migración o procesos democráticos, entre otros, los sistemas desarrollados tendrán que mantener registros y ser transparentes. Deberán contar con supervisión humana y los ciudadanos podrán presentar reclamaciones.

A nivel de transparencia se tendrán en cuenta cuestiones como el cumplimiento de la legislación comunitaria sobre derechos de autor, la publicación de resúmenes del contenido usado para entrenar modelos o el informe sobre incidentes.

También cabe destacar que, conforme a la ley, los vídeos, imágenes y audios considerados “ultrafalsificaciones” irán etiquetados como tales.

Otro punto recogido tiene que ver con la innovación y la puesta disposición de pymes y startups espacios de prueba controlados para realizar sus ensayos en condiciones reales y trabajar con la IA antes de su comercialización.

Redacción Silicon

La redacción de Silicon está compuesta por profesionales del periodismo 2.0

Recent Posts

Un ejemplo de cómo puede evitar la MFA una ciberestafa con Gen AI

Panda comparte un caso real en el que la autenticación multifactor (MFA) ayuda a prevenir…

2 días ago

Las iSIM instaladas en 2026 sobrepasarán los 10 millones

Juniper Research prevé un crecimiento de más del 1200 % en los próximos dos años.…

2 días ago

Llega Workplace Móvil, el nuevo servicio de Telefónica para empresas

Engloba desde la conectividad y la seguridad a la renovación de dispositivos, impulsando la economía…

3 días ago

1 de cada 2 españoles cambia sus contraseñas de forma periódica

Pero todavía hay que mejorar: más de un 42 % de los encuestados por Finetwork…

3 días ago

7 de cada 10 empleados volverían gustosos a la oficina si se fomentase la colaboración

De acuerdo con un estudio de Cisco, reclaman espacios que permitan la interacción social y…

3 días ago

OVHcloud renueva sus servidores Bare Metal High Grade con procesadores Intel Xeon Gold

Estos servidores afrontan "desde la resolución de los desafíos de las infraestructuras hiperconvergentes hasta los…

3 días ago