La Unión Europa y el uso de la IA para identificar a sus ciudadanos

549

Los problemas con el uso que se puede dar a la inteligencia artificial (IA), ha sido un tema muy polémico que ha acompañado a está tecnología desde su primer momento, ya que los uso posibles son enormes y muchos de ellos pueden ser moralmente reprobables y con unos efectos o impactos adversos sobre la población, la sociedad y el medioambiente. Es por esto que ha llegado una petición a la Comisión Europa para prohibir el uso de esta tecnología para la clasificación de individuos, además de una fuerte regulación sobre la vigilancia masiva por medio de la IA.

“Europa está entrando en la tercera ola de la digitalización”, como advierte el último conjunto de recomendaciones del grupo de alto nivel de expertos en Inteligencia Artificial de la Comisión Europea. Una tercera ola en la que adquiere protagonismo la IA y cuya adopción se estima que puede impulsar el crecimiento de la actividad económica europea en torno al 20 por ciento para 2030.

La IA se puede desplegar “tanto de manera que incremente el bienestar humano como que lleve a su potencial daño”, como recoge el informe elaborado para la Comisión. “Mientras crea una gran oportunidad para Europa, también implica ciertos riesgos sobre los que los legisladores son cada vez más conscientes”.

Por ello, desde este grupo de expertos abogan por el desarrollo de una IA ética, de confianza y que tenga al ser humano en el centro de su desarrollo. Características que chocan con el empleo de esta tecnología en la categorización de las personas y la vigilancia masiva.

Con el objetivo de salvaguardar “los derechos fundamentales” de los servicios públicos basados en IA y de “proteger las infraestructuras sociales”, el grupo insta a seguir las ‘directrices éticas para una IA confiable’, presentadas ante la Comisión el pasado mes de abril.

En concreto, instan a prohibir la clasificación masiva de los individuos basada en IA y a establecer “reglas claras y estrictas” para la vigilancia con motivo de la seguridad nacional y de otros intereses nacionales. Y a asegurar que no se usa para “suprimir o socavar la oposición (política) ni los procesos democráticos”.

Los sistemas de Inteligencia Artificial pueden provocar discriminación o sesgos injustos, violaciones de la privacidad, exclusión social o económica o incluso degradación medioambiental.

Una forma de limitar el impacto negativo de la IA en las sociedades pasa por evitar la vigilancia masiva y “desproporcionada” de las personas. Los sistemas de inteligencia artificial que se desplieguen para garantizar la seguridad deben ser “respetuosos con la ley y con los derechos fundamentales” y estar alineados con principios éticos.

El grupo advierte también en su informe sobre la vigilancia de los consumidores con fines comerciales, especialmente “cuando concierne a servicios gratuitos”, para lo que aconsejan la consideración de modelos alternativos de negocio.

El informe presentado este miércoles recoge en un conjunto de 33 propuestas, y como parte de los trabajos por concretarlos, en la segunda mitad de este año se desarrollará una fase piloto para mejorar y “asegurar la relevancia sectorial” de las directrices éticas de la IA de confianza.

 

El Economista (27/6/19)

Más información aquí

Si te resultó útil...Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin
Email this to someone
email