Por Aldo Martín https://aldomartin.ar/
Stanislav Yevgráfovich Petrov (1939-2017), teniente coronel del Voyska PVO (Defensa Antiaérea Soviética).
3 semanas antes, la URSS había derribado un avión de pasajeros coreano (KAL 007) que entró en su espacio aéreo, matando a 269 personas. Las relaciones EEUU-URSS estaban al borde del colapso.
Petrov era el oficial de turno en el búnker Serpukhov-15, cerca de Moscú, monitoreando el nuevo sistema de alerta temprana por satélite Oko.
Su misión era detectar un posible ataque con misiles balísticos de EEUU y reportarlo inmediatamente a la cúpula militar y política, que decidiría una represalia nuclear masiva.
27 de septiembre de 1983 (madrugada en Moscú): Las pantallas del sistema mostraron un misil balístico estadounidense Minuteman lanzado desde la base de Malmstrom (Montana) hacia la URSS.
Minutos después: el sistema indicó cuatro misiles más en camino.
Protocolo: Petrov debía informar de inmediato, iniciando con alta probabilidad un contraataque nuclear soviético.
Supongamos el mismo contexto en el día de hoy, solo que a cargo de una IA. El algoritmo sin dudarlo envía el informe correspondiente, en el mejor de los casos a humanos para que tomen una decisión, siendo el peor de los casos que el algoritmo está programado para una reacción automática.
La decisión de Petrov:
Dudó de la fiabilidad del sistema. El nuevo sistema satelital tenía antecedentes de fallos.
Argumentó que un ataque real de EEUU sería masivo («cientos de misiles»), no solo 5.
La trayectoria reportada le pareció extraña.
No había confirmación por radar terrestre (los radares soviéticos aún no detectaban nada en el horizonte).
Acción tomada: Desobedeció el protocolo y reportó a sus superiores que se trataba de una «falsa alarma».
Consecuencia inmediata: Se inició una investigación. Se descubrió que el sistema satelital había confundido reflejos del sol sobre nubes altas con lanzamientos de misiles.
Legado: El incidente expuso los peligros extremos de los sistemas automatizados de alerta nuclear y la importancia del juicio humano en la cadena de mando. Hoy se estudia en cursos de seguridad global y riesgos existenciales.
Estos riesgos existenciales son cada vez más grandes, pues se está entregando a las armas el total dominio de un sistema de IA, ejemplo visible son los drones que se utilizan en la guerra OTAN – Rusia a través de la intermediación de Ucrania, o en el conflicto EEUU Israel – Iran. Y esto es lo visible, lo que la población humana no conoce es como está implementada para armas de exterminio masivo. La IH, inteligencia humana, tiene criterios, esperemos que los aplique al programar la IA.





0 comentarios