Reina el desconocimiento sobre el Reglamento de Inteligencia Artificial de la Unión Europea

Europa tiene su propia ley sobre inteligencia artificial (IA), pero la población todavía tiene que familiarizarse con ella. Esta es la conclusión a la que se llega con los datos de una encuesta de Entelgy, The Business Tech Consultancy, en la mano.

Según esta encuesta, el 51 % de los españoles dice tener conocimiento de la existencia de una normativa aprobada por la Unión Europea (UE) para establecer reglas sobre la aplicación de la IA. Eso sí, a la hora de la verdad únicamente un 7,3 % entiende en qué le afecta dicha regulación.

El Reglamento de IA de la UE entró en vigor el pasado 1 de agosto para regular la introducción de esta tecnología en el mercado, su puesta en servicio y la utilización de sistemas inteligentes en los países miembros.

Con la IA abriéndose paso, aumentan las preocupaciones en torno a la seguridad, la privacidad y la ética. Un 93,1 % de los ciudadanos españoles ve necesario contar con una regulación que impacte tanto a empresas como a particulares.

Cuatro niveles de riesgo

Sobre la nueva normativa, Entelgy explica que su objetivo es “garantizar la seguridad y los derechos fundamentales de los ciudadanos de la UE frente a los riesgos potenciales de la IA”.

“Para ello”, ahonda, “clasifica las aplicaciones de IA en cuatro niveles de riesgo: riesgo inaceptable, alto, limitado y mínimo, siendo los sistemas de IA que manipulen comportamientos humanos o el reconocimiento facial en tiempo real en espacios públicos la categoría más alta de riego, mientras que las aplicaciones de riesgo limitado y mínimo están sujetas a obligaciones de transparencia, asegurando que los usuarios sean informados cuando interactúan con sistemas de IA”.

“Esta normativa representa un paso crucial para asegurar que las aplicaciones de IA se desarrollen y utilicen de manera segura y ética. Esto no sólo fortalecerá la confianza de los consumidores en las tecnologías de IA, sino que promoverá un entorno de innovación. Ante ello”, resuelve Entelgy, “las empresas debemos facilitar la adopción de las medidas y prácticas propuestas”.

Las empresas proveedoras de IA deberán llevar a cabo evaluaciones, asegurar requisitos, incorporar principios éticos y de seguridad en todas las fases de desarrollo y someterse a auditorías.

La puesta en marcha de esta ley podría terminar incentivando un estándar internacional, protegiendo a los ciudadanos e impulsando la confianza en la tecnología.

Redacción Silicon

La redacción de Silicon está compuesta por profesionales del periodismo 2.0

Recent Posts

Brecha de realidad, preparación y datos: La situación de la IA en las empresas

Hoy por hoy solamente un 37 % de las compañías se encuentra preparado para implementar…

32 mins ago

Los ingresos mundiales por switches Ethernet cayeron un 14,1 % en el segundo trimestre

La caída fue mayor en el segmento que no corresponde a centros de datos, con…

2 horas ago

Las tecnologías cuánticas generarán 9.400 millones de dólares en 2030

Los ingresos comerciales de las tecnologías cuánticas crecerán casi un 250% en los próximos 6…

2 días ago

Adobe actualiza Premiere Pro y After Effects

Entre las novedades destacan la transformación automática de RAW y log en SDR y HDR,…

3 días ago

Google, Facebook y Amazon concentran los ataque de phishing

Una compañía española, Banco Santander, es la decimotercera marca más afectada por esta amenaza, según…

3 días ago

Fujifilm apunta a organizaciones con necesidades de almacenamiento a partir de 100 TB

Anuncia la solución de sobremesa Kangaroo LITE para el archivo de datos.

3 días ago