FLI Condena el desarrollo de dispositivos con Inteligencia Artificial asesina
mal uso IA

Con el desarrollo de las nuevas tecnologías estamos cada vez más cerca de los dispositivos con una inteligencia artificial tan autónoma que sea capaz de controlarse por completo, sin necesidad del control de un humano a menos que sea para su reparación. Es más, es posible que en los próximos años podamos ver robots capaces de incluso repararse a sí mismos y evolucionar.

A todo esto, el Instituto Por el Futuro de la Vida o Instituto Future of Life en inglés (FLI) se ha promulgado respecto al desarrollo de armas letales autónomas mediante un comunicado de prensa. Mediante dicho comunicado el instituto espera hacer entrar en razón a los gobiernos del mundo para que eviten este tipo de armamentos que podrían terminar en catástrofes. Según Max Tegmark, presidente del FLI, la inteligencia artificial tiene muchísimo potencial para ayudar al mundo, pero se debe evitar el abuso de la misma. El mismo añadió también que las armas de inteligencia artificial que simplemente deciden matar personas por su cuenta son tan desestabilizadoras y repugnantes como los son las armas biológicas, por lo cual deben ser tratadas por igual.

El compromiso que prohíbe las armas con IA se encuentra firmado por 170 organizaciones y muchísimas personas. Dentro de las personas que se encuentran podemos hallar al fundador de Skype, los fundadores de Google DeepMind y al fundador de OpenAI. Por otro lado, países como Estados Unidos, Rusia y el Reino Unido no han firmado el tratado.

Slaughterbots, el cortometraje de un futuro cercano con drones asesinos con IA

El FLI previamente ha venido informado y previniendo sobre lo que podría pasar si no se hace un buen control sobre las armas autónomas o robots asesinos. Anteriormente, a finales de 2017 este instituto había subido un cortometraje a internet bastante terrorífico donde el desarrollo de un dron ha sido desarrollado por una empresa llamada StratoEnergetics. Dicho dron es capaz de acabar con la vida de una persona y atacar en forma de enjambre. Además, el mismo es capaz de detectar a su objetivo sin importar la distancia. Para eliminar a su objetivo solo necesita un dato cualquiera, de lo demás se encargaría este dron. Pero no todo es color de rosa. Como suele pasar muchas veces, las armas terminan en manos equivocadas y atacando a personalidades importantes. Si bien esta tecnología aún no se ha desarrollado, este corto da un aire de un futuro cercano si la IA se usara mal. Toma en cuenta que el vídeo es violento y podría ser perturbador para muchos.

¿La IA es peligrosa? ¿Qué opinan las grandes personalidades sobre la Inteligencia Artificial (IA)

Algunas de las personalidades más importantes si han hablado al respecto, otros no. Unos a favor, otros en contra. Veamos qué es lo que opinan las grandes personalidades más importantes del mundo sobre la Inteligencia Artificial.

Bill Gates, co-fundador de Microsoft

Gates es una de las personalidades más importantes de hoy en día y definitivamente cuenta con un cerebro sumamente brillante. Después de una sesión de preguntas y respuestas en Reddit, Bill Gates dio su posición al respecto de la inteligencia artificial:

“Estoy en el campo que está preocupado por las súper inteligencias. Primero, las máquinas harán muchos trabajos por nosotros y no serán súper inteligentes. Eso debería ser positivo si lo manejamos bien. Sin embargo, unas décadas después, las inteligencias serán suficientemente fuertes para convertirse en una preocupación. Estoy de acuerdo con Elon Musk y con otros en esto y no entiendo por qué algunas personas no están preocupadas.” -Bill Gates.

El empresario dejó bien en claro que la inteligencia artificial pone en un gran riesgo a toda la raza humana.

Elon Musk, director general de Tesla, Inc.

Elon Musk es uno de los físicos más importantes del momento con sus grandes trabajos y misiones, dentro de los cuales se encuentra colonizar marte.

“Estoy constantemente advirtiéndole del problema a las personas, pero hasta que no veamos robots en las calles asesinando a la población, no sabrán qué hacer porque lo consideran algo muy etéreo” – Elon Musk.

Este personaje opina que la IA es uno de los mayores peligros que enfrenta la humanidad a día de hoy. Al respecto, espera que se realicen regulaciones y restricciones respecto al desarrollo de armas con inteligencia artificial.

Eric Horvitz, científico del área de investigación en Microsoft

Otra opinión al respecto nace también desde Microsoft de parte de Eric Horvitz, el encargado del área de investigación de Microsoft. Al respecto, Horvitz no está completamente de acuerdo con las palabras de Bill Gates.

“Tenemos que estar seguros de que los sistemas se comportarán de forma segura y de acuerdo a nuestras metas, incluso en situaciones imprevistas, manteniendo vigilado en todo momento su evolución y riesgos potenciales.” -Eric Horvitz.

El mismo opina que no debemos tener miedo a esta tecnología, ya que supone un gran avance tecnológico en todos los ámbitos, pero que es necesario regularla para poder controlarla y evitar posibles riesgos.

Mark Zuckerberg, fundador de Facebook

Si usas Facebook como más de la mitad de la población conoces su nombre y sabes que es uno de los personajes más ricos del mundo a pesar de su corta edad.

Zuckerberg ve un futuro positivo relacionado con la IA, de hecho, afirma que en algunos años podamos tener una mejor calidad de vida gracias a estas tecnologías.

Incluso, debido a sus pensamientos en contra ha tenido varias veces que enfrentarse a Elon Musk desde las redes sociales.

Stephen Hawking, el astrofísico más importante del siglo

Hawking es una de las personalidades más importantes del siglo por su gran inteligencia que hizo revolucionar el mundo de la física y cómo vemos el universo. Antes de su muerte por su enfermedad degenerativa en este 2018, Stephen se había pronunciado al respecto de la IA.

Al respecto, el astrofísico opina que la inteligencia artificial podría convertirse en un verdadero peligro para la humanidad.

¿Su propuesta? Un gobierno mundial capaz de poder controlar todo el poder que tiene esta tecnología.

Fabio Gandour, jefe de investigación de IBM

Para finalizar tenemos la opinión de Fabio Gandour, otra personalidad bastante importante en este mundo tecnológico.

Al respecto, Gandour afirma que no le tiene miedo a la IA, ya que es programable y si te molesta simplemente la desconectas y listo.

En cambio, le tiene más miedo a la gente, la cual puede actuar de forma impredecible.

¿Tú qué piensas? ¿Será posible que la inteligencia artificial supere las barreras actuales y se salga de control?

 

Deja un comentario

Menú de cierre