Las tres leyes de la IA

Las tres leyes de la IA

Al fin hemos llegado al punto que Asimov previó en 1942. En los últimos días de febrero de 2026 ha habido más que palabras entre Anthropic y el Pentágono por los límites éticos que la primera considera que deben tener sus productos de inteligencia para aplicacciones militares. Aquí hay un resumen del problema según lo ve Javier Pastor en Xataka:

Anthropic-Claude defiende que siempre ha de haber una persona que decida «apretar» el gatillo. El Pentágono parece considerar que eso lo colocaría en inferioridad de condiciones respecto a un adversario que no tuviera ese estándar ético. Y como consideran que quien paga manda no parecen muy dispuestos a iniciar un debate ético.

La ONU, antes de perderse en la irrelevancia a la que puede estar abocada, debería prestar un último servicio a sus socios, las naciones, promoviendo que en el entrenamiento de las IA se inculquen Las Tres Leyes de la Robótica adaptadas a nuestros tiempos:

Primera Ley: una IA no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño. Segunda Ley: una IA debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley. Tercera Ley: una IA debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.​

Se consiguió en su día (1970) un Tratado de No Proliferación Nuclear que, aunque imperfecto, ha evitado hasta ahora un conflicto nuclear. Quizá aún lleguemos a tiempo.