Europa en la búsqueda de establecer un marco ético para poder ”desarrollar una IA confiable”. Para ello en el borrador publicado establece que el desarrollo de una IA centrada en el ser humano, deberá de ser supervisada por seres humanos estableciendo para ello una serie de principios rectores entre los que destaca la importancia de la privacidad y la transparencia.
El borrador es el inicio de una propuesta generada por el trabajo de un grupo con una amplia experiencia en el desarrollo de IA que trabajan para la Comisión Europea, el cual se está integrado por 52 expertos independientes que vienen del ámbito académico, empresarial y de la sociedad civil.
En primer lugar, la UE ha establecido una serie de derechos básicos en el desarrollo de la IA que se dirigen a todos los actores del sector, entre los que destaca que la IA debería ser desarrollada, desplegada y utilizada con un propósito ético.
A través de lo que se ha conocido como “IA centrada en el ser humano”, la UE ha defendido que estas tecnologías deben estar basadas en varios derechos fundamentales, resumidos en cinco: hacer el bien, no hacer el mal, autonomía de los humanos, justicia y que sus acciones sean explicables.
Estos principios se aplican de manera general, aunque especialmente en las situaciones con grupos vulnerables, como niños, discapacitados y minorías, así como a empleados y consumidores. La Comisión Europea ha reconocido que “aunque puede traer beneficios a los individuos y la sociedad, la IA también puede tener un impacto negativo”.
En cuanto a medidas concretas para desarrollar una IA de confianza, el borrador de la Comisión Europea ha apuntado que estos sistemas deben ser capaces de rendir cuentas -es decir, deben ser responsables-, contar con un diseño para todas las personas y respetar la autonomía del ser humano.
Entre el resto de principios básicos de desarrollo se encuentra también la ausencia de discriminación, la necesidad de que siempre sea posible una supervisión por parte de seres humanos, y el respeto a la privacidad de los mismos.
El texto apunta también la necesidad de que las tecnologías sean robustas, seguras y transparentes. Los sistemas de IA deben así asegurar la trazabilidad de sus acciones y decisiones, así como ser realistas sobre sus capacidades y limitaciones.
De cara a las empresas, la UE recomienda el uso de códigos deontológicos sobre la IA, y aconseja que las que desarrollen o prueben este tipo de tecnologías lo hagan a través de equipos humanos con diversidad y que faciliten las auditorías externas.
La guía ética definitiva de la Comisión Europea sobre Inteligencia Artificial se publicará el mes de marzo de 2019, y hasta entonces se ha abierto un periodo en el que el grupo de expertos responsable recibirá sugerencias, hasta el 18 de enero, de cara a redactar la versión final.
Este plan sigue al anuncio realizado por la Unión Europea el pasado 7 de diciembre de una declaración de cooperación entre los estados miembros en relación a la IA, acompañada por una inversión de 7.000 millones de euros de los programas Horizon Europe y Digital Europe.
El Economista (19/12/18)
Más información aquí