A Elon Musk le preocupaba que la IA se volviera peligrosa cuando se trataba de controlar armas militares. Esto se está haciendo realidad con el experimento de la Fuerza Aérea de EE. UU.

El 15 de diciembre, la Fuerza Aérea de los Estados Unidos intentó esto por primera vez. AI En cuanto al control del sensor y la navegación, la vigilancia espía U-2 ayuda al piloto durante las pruebas en California. Un algoritmo de IA llamado «ARTUµ» operaba el sistema de navegación y los sensores espía continuos, mientras que el piloto controlaba la aeronave y se integraba con ARTUµ para garantizar el funcionamiento del sensor.

La Fuerza Aérea de los Estados Unidos aparentemente usó tecnologías desarrolladas por la firma británica de investigación de inteligencia artificial Deep Mind para desarrollar su propio algoritmo para la Fuerza Aérea de los Estados Unidos. Se usó para ARTUµ, pero Deep Mind insistió en que no lo sabían ni estaban involucrados en el proyecto.

Avión U-2 en vuelo de prueba el 15/12. Imagen: Fuerza Aérea de Estados Unidos.

Elon Musk Fue uno de los inversores iniciales en Deep Mind, esta última empresa Google Comprado, pero no porque quisiera obtener ganancias.

«Quiero hacer un seguimiento de lo que sucede con la IA. Creo que es tan peligroso como películas como esa Terminator. Tienen consecuencias nefastas y debemos garantizar buenos resultados, no malos «, dijo Musk hace unos años.

En una conferencia de tecnología en Texas en marzo de 2018, el anfitrión le dijo a Musk que «no hay muchos expertos en el cuidado de la IA como él».

READ  La aplicación Gmail está obteniendo la función de traducción nativa muy solicitada

«Las lunas ocultas están en la historia», respondió Musk. «El mayor problema con los autoproclamados profesionales de la IA es que exageran su propio conocimiento. De hecho, piensan que son inteligentes cuando son ignorantes. Esto les sucede a menudo a los intelectuales. Se definen a sí mismos intelectualmente y no les gusta la idea de que una máquina pueda ser más inteligente que ellos.

Kasturi luego se refiere directamente a la tecnología. Mente profunda Crear. «Me estoy acercando mucho a la tecnología de inteligencia artificial sofisticada, lo que me asusta. Es más de lo que la gente puede imaginar, y la tasa de mejora está aumentando exponencialmente», dijo.

Musk menciona el alfaco Go AI creado por Google. Inicialmente, no podía vencer a un jugador común, pero solo tomó de 6 a 9 meses vencer al campeón europeo antes de vencer al campeón mundial. «Entonces Alpaciro aplastó a Albaco con una puntuación de 100 – 0 y el usuario puede jugar cualquier juego que quiera».

En junio, Musk dijo que su «principal preocupación» en el campo de la IA era «la esencia de la IA está evolucionando porque puede vencer a los humanos en todos los deportes».

Musk cofundó el laboratorio de investigación OpenAI en San Francisco en 2015, un año después de que Google adquiriera Deep Mind. OpenAI enfatizó su misión de garantizar que la IA beneficie a la humanidad.

En febrero de 2018, Musk dejó la junta directiva de OpenAI, pero continuó asesorando a la compañía desde el presupuesto. Él y sus cofundadores de Deep Mind han firmado un compromiso con miles de investigadores, ingenieros y emprendedores de IA para no construir sistemas de armas automatizados. Los compromisos se anunciaron en 2018 en la Conferencia Internacional sobre Inteligencia Artificial (IJCAI) en Estocolmo, Suecia.

READ  El informe detalla la confusión detrás de los esfuerzos de inteligencia artificial de Apple, 'Siri X' y los controles de voz de los auriculares

«Los signatarios están de acuerdo en que la decisión de quitarse la vida nunca es mecánica. Armas de muerte automáticas capaces de atacar selectivamente objetivos sin coraje humano. Esto causará inestabilidad y peligro a todas las personas y naciones», dijo el comunicado.

Los signatarios prometen no «participar o ayudar en el desarrollo, producción, venta o uso de armas peligrosas».

Durante la prueba de la Fuerza Aérea de EE. UU. En California, ARTUµ colaboró ​​con el U-2, pero el piloto fue el principal responsable de la toma de decisiones. El avión de prueba simula el funcionamiento de un avión de reconocimiento U-2 durante un ataque con misiles enemigos. ARTUµ se dedica a la tarea de localizar misiles enemigos, mientras que los pilotos controlan a los cazas que amenazan al U-2.

El Dr. William Roper, subsecretario de la Fuerza Aérea a cargo de adquisiciones, tecnología y logística, dijo que «los militares deben dar la bienvenida a la IA para mantener un dominio decisivo».

A principios de este año, el Departamento de Defensa de EE. UU. Anunció planes para utilizar principios éticos para sentar las bases para el despliegue de IA durante la guerra. Esto debe ser «evaluado y revisado apropiadamente» cuando se utilizan sistemas de IA, mientras se asegura que sean «controlables y manejables».

Muchos activistas por el control de armas creen que la IA debe hacer más para prevenir decisiones de vida o muerte en el campo de batalla, al tiempo que piden más control sobre la tecnología.

En 2015, una serie de investigadores líderes en inteligencia artificial y robots publicó una carta abierta advirtiendo que «la carrera armamentista mundial es inevitable» si los países continúan promoviendo el desarrollo de la inteligencia artificial.

READ  "Por favor, camaradas, vengan": Annabelle Hernández promete que la Ley de Seguridad Nacional es un llamado al crimen organizado

Sin embargo, el pionero de la IA Joshua Bengio prometió que «el mundo está lejos de ver sistemas de IA inteligentes» debido a «muchos obstáculos para superar la inteligencia humana».

Consejo Ann (Como se indica allí Rápido)