В США рассказали, что может стать возможной причиной ядерной войны - «ДНР и ЛНР»

  • 08:45, 02-сен-2019
  • ДНР и ЛНР
  • Николай
  • 0


Серьезная опасность использования военными систем искусственного интеллекта заключается в его участии при принятии решения о нанесении ядерного удара. Об этом пишет издание Breaking Defense со ссылкой на бывшего заместители министра обороны США Роберта Уорка.

По его словам, системы искусственного интеллекта не должны участвовать в контроле ядерного вооружения, поскольку они запускаются по определенным параметрам и показателям. В некоторых ситуациях искусственный интеллект может расценить неопасные факторы как представляющие угрозу, и это является "тревожной перспективой".

В частности, приводится в пример российская система "Периметр", которая может принять сейсмическую активность за ядерные взрывы, после чего направит запрос в штаб войск, и если вдруг не получит ответа, может отдать команду на запуск межконтинентальных баллистических ракет.

Кроме того, Уорк добавил, что военное применение искусственного интеллекта может привести к плачевным последствиям и без его прямого участия в управлении ядерным оружием. В частности, такой сферой может быть его использование при анализе разведывательных данных, а также в системах раннего предупреждения.

"Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю и рекомендует нанести превентивный удар", — сказал Уорк.

Тем не менее, он отмечает, что искусственный интеллект несомненно может принести пользу для военных, однако его применение должно быть ограничено, и не должно распространяться на ядерное вооружение, поскольку это может привести к "катастрофическому сценарию".

РИА Новости

Серьезная опасность использования военными систем искусственного интеллекта заключается в его участии при принятии решения о нанесении ядерного удара. Об этом пишет издание Breaking Defense со ссылкой на бывшего заместители министра обороны США Роберта Уорка. По его словам, системы искусственного интеллекта не должны участвовать в контроле ядерного вооружения, поскольку они запускаются по определенным параметрам и показателям. В некоторых ситуациях искусственный интеллект может расценить неопасные факторы как представляющие угрозу, и это является "тревожной перспективой". В частности, приводится в пример российская система "Периметр", которая может принять сейсмическую активность за ядерные взрывы, после чего направит запрос в штаб войск, и если вдруг не получит ответа, может отдать команду на запуск межконтинентальных баллистических ракет. Кроме того, Уорк добавил, что военное применение искусственного интеллекта может привести к плачевным последствиям и без его прямого участия в управлении ядерным оружием. В частности, такой сферой может быть его использование при анализе разведывательных данных, а также в системах раннего предупреждения. "Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю и рекомендует нанести превентивный удар", — сказал Уорк. Тем не менее, он отмечает, что искусственный интеллект несомненно может принести пользу для военных, однако его применение должно быть ограничено, и не должно распространяться на ядерное вооружение, поскольку это может привести к "катастрофическому сценарию". РИА Новости


Рекомендуем


Комментарии (0)




Уважаемый посетитель нашего сайта!
Комментарии к данной записи отсутсвуют. Вы можете стать первым!