Роботы-убийцы уже существуют, и они здесь уже очень давно

2:26 /  Военное обозрение, Новое, Технологии, ТОП
Согласно заявлению Министерства обороны США, люди всегда будут принимать окончательное решение о том, смогут ли вооруженные роботы стрелять, сообщает kratko-news.com.

Согласно заявлению Министерства обороны США, люди всегда будут принимать окончательное решение о том, смогут ли вооруженные роботы стрелять, сообщает kratko-news.com.

Их разъяснение происходит на фоне опасений по поводу новой усовершенствованной системы прицеливания, известной как ATLAS, которую будет использовать искусственный интеллект в боевых машинах для нацеливания и устранения угроз.

В то время как общественность может испытывать беспокойство по поводу так называемых «роботов-убийц», концепция не нова — роботы с автоматами «SWORDS» были развернуты в Ираке еще в 2007 году.

Наши отношения с военными роботами уходят еще дальше. Это потому, что когда люди говорят «робот», они могут иметь в виду любую технологию с некоторой формой «автономного» элемента, которая позволяет ему выполнять задачу без необходимости прямого вмешательства человека.

Эти технологии существуют очень давно. Во время Второй мировой войны был разработан предохранитель для сближения артиллерийских снарядов на заданном расстоянии от их цели.

Это сделало снаряды гораздо более эффективными, чем они могли бы быть, за счет расширения процесса принятия решений человеком и, в некоторых случаях, полного выведения человека из цикла.

Поэтому вопрос не в том, должны ли мы использовать автономные системы оружия в бою — мы их уже используем, и они принимают разные формы. Скорее, мы должны сосредоточиться на том, как мы их используем, почему мы их используем и в какой форме — если таковые имеются — человеческое вмешательство должно быть.

Рождение кибернетики

Мое исследование исследует философию взаимоотношений человека с машиной, уделяя особое внимание военной этике и тому, как мы различаем людей и машины.

Во время Второй мировой войны математик Норберт Винер заложил основы кибернетики — изучения взаимодействия людей, животных и машин — в своей работе по управлению зенитным огнем.

Изучая отклонения между предсказанным движением самолета и его фактическим движением, Винер и его коллега Джулиан Бигелоу придумали концепцию «петли обратной связи», где отклонения могут быть возвращены в систему для корректировки дальнейших прогнозов.

Таким образом, теория Винера вышла далеко за рамки простого дополнения, поскольку кибернетические технологии могут использоваться для предотвращения человеческих решений — удаления ошибочных людей из цикла, чтобы принимать более быстрые решения и повышать эффективность систем вооружения.

За годы, прошедшие после Второй мировой войны, компьютер появился наравне с кибернетической теорией, сформировав центральную опору военного мышления: от «умных бомб» с лазерным наведением эпохи Вьетнама до крылатых ракет и беспилотников Reaper.

Уже недостаточно просто усиливать человека-воина, как это было в первые дни. Следующим этапом является полное устранение человека — «максимизация» военных результатов при минимизации политических издержек, связанных с гибелью союзников.

Это привело к широкому использованию военных беспилотников США и их союзниками. Хотя эти миссии весьма противоречивы, в политическом плане они оказались гораздо предпочтительнее общественного протеста, вызванного гибелью военных.

Человеческая машина

Одним из наиболее спорных вопросов, связанных с войной беспилотников, является роль пилота беспилотника или «оператора». Как и весь персонал, эти операторы обязаны работодателями «делать хорошую работу». Однако условия успеха далеко не ясны.

Как замечает философ и культуролог Лори Кэлхун:

Дело операторов дронов — убивать.

Таким образом, их задача состоит не столько в том, чтобы принимать человеческое решение, сколько в том, чтобы выполнять работу, для которой они наняты. Если компьютер говорит им убивать, есть ли причина, почему они не должны?

Аналогичный аргумент может быть сделан в отношении современного солдата. От GPS-навигации до видеосвязи, солдаты несут многочисленные устройства, которые связывают их в обширную сеть, которая отслеживает и контролирует их на каждом шагу.

Это приводит к этической головоломке. Если цель солдата состоит в том, чтобы выполнять приказы к письму — с камерами, используемыми для обеспечения соответствия, — тогда почему мы вообще беспокоимся о людях-солдатах?

В конце концов, машины намного более эффективны, чем люди, и не страдают от усталости и стресса так, как человек. Если солдаты должны вести себя программным, роботизированным образом, то какой смысл проливать ненужную кровь союзников?

Ответ здесь заключается в том, что человек служит алиби или формой «этического прикрытия» для того, что в действительности является почти полностью механическим, роботизированным.

Так же, как задача оператора беспилотника заключается в том, чтобы наблюдать за беспилотником с компьютерным управлением, так и роль человека в новой системе ATLAS Министерства обороны состоит лишь в том, чтобы действовать в качестве этического прикрытия на случай, если что-то пойдет не так.

Хотя беспилотники «Хищник» и «Жнец» могут стоять на переднем крае общественного воображения о военной автономии и «роботах-убийцах», эти нововведения сами по себе не являются чем-то новым.

Они являются лишь последними в длинной череде событий, которые уходят в прошлое на многие десятилетия.

В то время как некоторым читателям может быть приятно представить, что машинная автономия всегда будет подчиняться принятию человеческих решений, это действительно упускается из виду.

Автономные системы уже давно встроены в вооруженные силы, и мы должны подготовиться к последствиям.

Архивы

Март 2019
Пн Вт Ср Чт Пт Сб Вс
« Фев   Апр »
 123
45678910
11121314151617
18192021222324
25262728293031

При копировании материалов активная ссылка на сайт обязательна. KratkoNews.com (Кратко) © 2012-2022.