5 riesgos de la Inteligencia Artificial que pueden hacerla peligrosa

955

La Inteligencia Artificial puede conllevar ciertos riesgos que pueden hacer que esta sea peligrosa, y así lo han afirmado numerosas personas influyentes como Stephen Hawking, y Elon Musk, CEO de las compañías de Tesla y de SpaceX.

A estas personas influyentes se le suma Bill Gates, cofundador de Microsoft, que afirma que hay que tener cuidado con la IA pero que todo irá bien si se utiliza correctamente, haciendo que lo bueno de la IA supere a lo malo

La Inteligencia Artificial se basa en la construcción de máquinas que son capaces de pensar y actuar de manera inteligente, con herramientas como los algoritmos de Google. Pero como todas las nuevas tecnologías, estas pueden ser utilizadas para hacer cosas buenas o por el contrario para delinquir y causar problemas a las personas.

Así, Elon Musk quiso recalcar estos peligros que se darán en la IA en los próximos años: “El ritmo del progreso en inteligencia artificial (no me refiero a la inteligencia artificial estrecha) es increíblemente rápido. A menos que tenga una exposición directa a grupos como Deepmind, no tiene idea de lo rápido que está creciendo a un ritmo cercano al exponencial. El riesgo de que ocurra algo realmente peligroso es en un plazo de cinco años. 10 años como máximo “.

Por tanto evaluar la Inteligencia Artificial es muy importante, así como conocer su parte buena y mala. Así que estos son los 5 riesgos de la IA que pueden hacerla peligrosa y que debes conocer:

  • Armas autónomas: Las armas programadas para matar suponen un grave riesgo en el futuro de la IA. Es posible que los armamentos nucleares se vean sustituidos por armas autónomas. No solo son peligrosas por que puedan convertirse en autónomas completamente y actuar sin supervisión, sino por las personas que puedan tenerlas en sus manos.
  • Manipular a la sociedad: Las redes sociales pueden ser una gran fuente para obtener información sobre cualquier persona, y además de utilizarse para el marketing y brindar anuncios específicos para cada persona, pueden utilizarse de muchas otras maneras. Con el escándalo de Cambridge Analytica en relación con las elecciones presidenciales de EEUU y el brexit en Reino Unido, se pudo ver el enorme poder que puede dar tener datos para manipular a las personas, con lo cual la IA al ser capaz de identificar algoritmos y datos personales, puede ser extremadamente peligrosa.
  • Invasión de la privacidad para oprimir socialmente: Es posible ‘seguir’ las pistas de un usuario en la Red, y utilizar mucha información invadiendo su privacidad. Por ejemplo, en China se utilizará información como el reconocimiento facial de cámaras y la forma en la que se comportan, si fuman, o si ven muchos videojuegos para el sistema de crédito social. Esta invasión de la privacidad puede convertirse por tanto en opresión social.
  • Divergencia entre nuestros objetivos y los de la máquina de IA: Si nuestros objetivos no coinciden con los de la máquina, las acciones que pedimos llevar a cabo pueden terminar en un desastre. Por ejemplo, mandar una orden a la IA de llevarnos a un lugar lo más rápido posible, pero sin especificar que tiene que respetar las reglas de tránsito para no hacer peligrar las vidas humanas.
  • Discriminación: Como las máquinas de IA pueden recoger tu información, analizarla y rastrarla, también pueden utilizar esta información en tu contra. Por ejemplo, una compañía de seguros puede negarte el seguro debido a las veces que las cámaras tienen imágenes de ti hablando por teléfono, o una persona que aspire a un puesto de trabajo puede perder la oportunidad debido a su baja red social de contactos en Internet.

Por tanto la Inteligencia Artificial puede conllevar estos riesgos que hacen que sea una tecnología peligrosa, pero tan solo ocurrirá esto si hacemos un mal uso de ella. Es necesario evitar que se utilice con fines destructivos y desarrollar las partes positivas de la IA para continuar con la investigación de enfermedades y otras buenas causas.

 

Tic Beat (20/11/18)

Más información aqui

Si te resultó útil...Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin
Email this to someone
email