-Музыка

 -Поиск по дневнику

Поиск сообщений в vados2384

 -Подписка по e-mail

 

 -Статистика

Статистика LiveInternet.ru: показано количество хитов и посетителей
Создан: 14.06.2009
Записей: 12587
Комментариев: 15771
Написано: 28868


Роботы-убийцы — это уже не фантастика, а реальность

Среда, 13 Ноября 2019 г. 22:05 + в цитатник

Стоит признать, что робототехника за последние годы шагнула довольно далеко. Оружие, создаваемое оборонными компаниями, становится умнее, к нему подключают системы искусственного интеллекта, роботы обретают полную автономность и так далее. А это означает, что робот-убийца может стать реальностью раньше, чем мы думаем. По крайней мере, так считают представители PАХ, некоммерческой организации, базирующейся в Нидерландах и выступающей за мир во всем мире. Об этом они сообщили в своем докладе.

До киборгов-убийц нам еще далеко, но вот роботы уже вполне могут нанести вред человеку

Зачем создавать роботов-убийц?

Роботы-убийцы предназначены для принятия решений о лишении жизни или сохранении ее самостоятельно, без человеческого контроля. Этот тревожный признак специалисты РАХ назвали «третьей революцией в войне» после изобретения пороха и атомной бомбы. Как активисты, так и государства призывают к созданию свода международных правил, регулирующих создание подобного оружия, или даже прямого запрета на его исплозование. Но некоторые страны, в том числе США, Китай и Российская Федерация, до сих пор не приняли мер по данному вопросу.

Специалисты РАХ выявили по меньшей мере 30 мировых производителей оружия, которые не имеют политики против разработки вышеобозначенных видов систем вооружения.

До тех пор, пока государства не договорились коллективно создать какой-то режим регулирования или, в идеале, превентивный запрет, есть вероятность, что компании будут разрабатывать и производить, а в конечном итоге и использовать оружие, которое не имеет достаточного человеческого контроля. — сказал автор доклада Фрэнк Слипер.

Активисты не считают при этом, что военное применение той или иной системы искусственного интеллекта является проблемой. Проблема именно в том, что такие системы могут стать неподконтрольны человеку.

К примеру, американские военные уже разрабатывают пушку с искусственным интеллектом, которая будет самостоятельно выбирать и поражать цели, а также танки с искусственным интеллектом, которые, смогут «идентифицировать и поражать цели в три раза быстрее, чем любой человек». А STM, турецкая государственная оборонная компания, уже вовсю производит оснащенного искусственным интеллектом робота под названием KARGU. В комплекте с возможностями распознавания лиц, KARGU может автономно выбирать и атаковать цели, используя координаты, предварительно выбранные оператором. Сообщается, что Турция намерена использовать KARGU в Сирии.

PAX больше всего обеспокоены потенциальным развертыванием ИИ в наступательных системах, которые будут выбирать и атаковать цели самостоятельно, без человеческого надзора. Группа задается вопросом о том, каким образом это оружие будет проводить различие между военными и гражданскими лицами. У тому же, юристы до сих пор не знают, кто будет нести ответственность, если автономное оружие нарушит международное право.

Турецкий беспилотник KARGU выслеживает цель и уничтожает ее, падая сверху, как «камикадзе»

При этом в отличие от Google или Amazon, которые столкнулись как с публичной, так и с внутренней реакцией на свою работу над военными системами, компании вроде Lockheed Martin и Raytheon, имеют дела исключительно с военными, поэтому они сталкиваются с минимальной реакцией со стороны партнеров, а также со стороны обычных людей, так как большинство разработок до определенного момента остаются засекреченными.

В то время как развитие автономного оружия продолжается, РАХ считают, что еще есть возможность предотвратить возможную катастрофу. Группа заявила, что компании-производители могут сыграть решающую роль в этом, и должны выступить против производства полностью автономного летального оружия. Что касается систем вооружения с поддержкой искусственного интеллекта, то представители РАХ заявлют, что оборонные фирмы должны следовать некому своду правил, который еще предстоит разработать. Но полностью отказываться от ИИ никто не призывает.

Рубрики:  новости
техника
Метки:  

Понравилось: 3 пользователям



babeta-liza   обратиться по имени Среда, 13 Ноября 2019 г. 22:58 (ссылка)
Сами себя и уничтожим...
Ответить С цитатой В цитатник
Al_lexandra   обратиться по имени Четверг, 14 Ноября 2019 г. 01:49 (ссылка)
Даже как-то страшновато стало...
Ответить С цитатой В цитатник
 

Добавить комментарий:
Текст комментария: смайлики

Проверка орфографии: (найти ошибки)

Прикрепить картинку:

 Переводить URL в ссылку
 Подписаться на комментарии
 Подписать картинку