Является ли летальное автономное оружие будущим войны?

Система вооруженного оружия, способная принимать решения, звучит так, будто это прямо из фильма о Терминаторе. Но как только в мире появится летальное автономное оружие, пути назад уже не будет.

«Вполне возможно, что мы не сможем вернуть джинна в бутылку со смертоносными автономными системами оружия», — говорит доктор Майкл Ричардсон, который недавно был назван ABC в пятерку лучших исследователей гуманитарных наук за его работу над технологиями дронов.

Доктор Ричардсон, который исследует политическое насилие и новые технологии, говорит, что разработка летального автономного оружия радикально ускоряется. Он говорит, что эти системы еще не развернуты в оперативном режиме, но есть еще несколько причин, по которым мы все должны быть обеспокоены.

«Большинство крупных вооруженных сил по всему миру разрабатывают летальное автономное оружие различных типов, иногда даже в партнерстве с крупными технологическими компаниями», — говорит старший научный сотрудник UNSW Arts & Social Sciences.

«Это большой вопрос — что значит передать часть принятия решений в отношении насилия машинам, и все на планете будут заинтересованы в том, что происходит на этом фронте».

Военные технологии, близкие к автономности, уже используются. По его словам, с помощью беспилотных летательных аппаратов в отдаленные сражения все чаще можно вести боевые действия со станций управления, заполненных экранами и интерфейсами.

Однако настоящая трансформация заключается в прогнозировании угроз — и их устранении — до того, как они возникнут.

«В частности, в вооруженных силах США смертоносные удары дронов наносятся на основе определения того, может ли кто-то или группа людей стать угрозой, то есть они могут причинить [вред] в будущем», — говорит он.

«Если ваша угроза заключается в том, что кто-то направляет пистолет вам в лицо, угроза довольно неминуема. Но кто-то водит машину по сельскому Афганистану с рисоваркой сзади и мешком гвоздей… у вас могут быть некоторые данные , которые позволяют предположить человек собирается создать самодельное взрывное устройство, которое может поставить под угрозу войска. В этом случае угроза будет на несколько шагов дальше от того, что вы наблюдаете. У человека также может быть новая рисоварка и сломанный забор, чтобы починить . Таким образом, у вас есть возможность убить кого-то на основе предсказания о том, что может произойти, а не на основании того, что он конкретно делает в данный момент ».

В то время как военные обращаются к алгоритмам машинного обучения для выявления угроз до того, как они возникнут, они еще не передали контроль машине. Но доктор Ричардсон говорит, что это не слишком большой прыжок.

«Движение к убийствам, которые являются строго прогнозируемыми, безусловно, происходит, и это очень пугающий шаг», — говорит он. «Во многих случаях у нас был бы технологический потенциал, чтобы исключить принятие решений человеком из процесса и выдвинуть эти прогнозы на передний план. Мы не обязательно предоставляем право принятия решений этим технологиям для стрельбы из оружия, но порог необходимо пересечь не столько технологический, сколько моральный или стратегический «.

Регулирование летального автономного оружия

Доктор Ричардсон говорит, что глобальное управление и контроль над вооружениями являются одними из нескольких мер, которые нам необходимо принять для ограничения летального автономного оружия.

«Хотя это не остановило разработку ядерного оружия, широкая общественная оппозиция могла бы помочь остановить разработку летальных автономных систем оружия или, по крайней мере, замедлить производство технологии», — говорит он.

«Но в настоящий момент летальные автономные системы оружия в настоящее время не регулируются Конвенцией о конкретных видах обычного оружия. Фактически, нет даже принятого и согласованного определения того, что такое летальная автономная система оружия ».

Он говорит, что Австралия «инфраструктурно замешана» в разработке таких технологий благодаря своим партнерским отношениям с военными США и может подтолкнуть другие страны к большей ответственности.

«Мы можем утверждать, что мало что можем сделать, чтобы повлиять на основных игроков в этом пространстве, таких как США, Китай и Россия. Тем не менее, Австралия является частью этой мировой системы. Хотя это происходит« там »с точки зрения кинетического насилия, мы — неотъемлемая часть этого », — говорит он. «Виды методов наблюдения и контроля, [которые] начинаются в военных пространствах, часто расширяются в других местах, и мы, безусловно, наблюдали это после 11 сентября, особенно с наблюдением».

Доктор Ричардсон считает, что широко распространенное общественное неприятие ядерного оружия, а также программного обеспечения для распознавания лиц показывает, что все еще возможно замедлить разработку летального автономного оружия.

«Мы перешли от широкого внедрения и развития технологий распознавания лиц к крупным технологическим компаниям, которые ввели мораторий на их разработку. Это результат постоянного общественного давления , а также критического давления со стороны ученых и групп защиты интересов., которые показали … они глубоко проблематичны и приводят к большей несправедливости, а не к большей справедливости и безопасности. Если мы сможем создать такой толчок для распознавания лиц, возможно, мы также сможем выступить против летального автономного оружия. Они полагаются на аналогичные виды технологий автоматического обнаружения и распознавания, но делают гораздо более катастрофический выбор, чем то, получит ли человек работу или нет, разрешено ли ему находиться в помещении или нет. Они могут быть выбором вместо жизни и смерти «.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *