Эксперты AI бойкотируют южнокорейский университет из-за разработок автономного оружия

Якобы автономно-способное оружие, представленное Россией и группой Калашникова.

В преддверии крупного заседания Организации Объединенных Наций по решению растущих проблем, связанных со смертельным автономным оружием, группа ведущих исследователей ИИ и робототехники призвала к бойкоту южнокорейского университета, который недавно объявил об открытии лаборатории по искусственному оружию.

Еще в феврале ведущий государственный университет Южной Кореи , KAIST (Корейский передовой институт науки и технологий), объявил об открытии нового центра под названием «Исследовательский центр конвергенции национальной обороны и искусственного интеллекта». Объявление показало, что новая исследовательская установка будет исследовать различные военные системы на основе ИИ, включая автономные подводные аппараты и «системы командования и принятия решений на основе ИИ».

Это заявление было встречено с большим беспокойством многими в сообществе исследователей искусственного интеллекта, и недавно обнародованное открытое письмо, подписанное более 50 исследователями со всего мира, призывает бойкотировать все академическое сотрудничество с KAIST по этому вопросу.

«В то время, когда Организация Объединенных Наций обсуждает вопрос о том, как сдерживать угрозу, которую представляет международная безопасность автономным оружием, вызывает сожаление тот факт, что такое престижное учреждение, как KAIST, стремится ускорить гонку вооружений для разработки такого оружия», — отмечается в письме.

Поэтому мы публично заявляем, что будем бойкотировать все сотрудничество с любой частью KAIST до тех пор, пока президент KAIST не предоставит гарантии, которые мы искали, но не получили, что Центр не будет разрабатывать автономное оружие, лишенное значимого контроля со стороны человека. Мы будем Например, не посещайте KAIST, не принимайте посетителей из KAIST и не участвуйте в каких-либо исследовательских проектах, связанных с KAIST. «

Бойкот был организован Тоби Уолшем, исследователем искусственного интеллекта из Университета Нового Южного Уэльса в Сиднее, который сыграл важную роль в разработке правил разработки автономного оружия. Ранее Уолш руководил крупными открытыми письмами в 2015 и 2017 годах, в которых содержался призыв к запрещению вооруженного искусственного интеллекта.

«Еще в 2015 году мы предупреждали о гонке вооружений в автономном оружии», — говорит Уолш. «Эта гонка вооружений началась. Сегодня мы можем видеть прототипы автономного оружия, разрабатываемого многими странами, включая США, Китай, Россию и Великобританию».

Президент KAIST Сунг-Чул Шин отреагировал на угрожающий академический бойкот, выступив с заявлением, отрицающим, что институт работает над смертоносными автономными системами оружия или «роботами-убийцами».

«Центр нацелен на разработку алгоритмов для эффективных логистических систем, беспилотной навигации и авиационной системы обучения», — говорится в заявлении Шина . «KAIST будет нести ответственность за обучение исследователей и предоставление консультаций. Как академическое учреждение, мы очень высоко ценим права человека и этические стандарты. KAIST не будет проводить никаких исследований, противоречащих человеческому достоинству, включая автономное оружие, лишенное значимого человеческого контроля. «.

Любопытно, что веб-сайт KAIST удалил оригинальное объявление, опубликованное в конце февраля, описывающее открытие нового исследовательского центра.

Фраза «значимый контроль над человеком», по-видимому, является наиболее важной в этих продолжающихся нормативных дискуссиях. 9 апреля Группа правительственных экспертов Организации Объединенных Наций по системам автономного оружия со смертельным исходом соберется на первое из двух совещаний, запланированных на этот год, для изучения результатов политики, связанных с оружием искусственного интеллекта. Предварительная повестка дня этих совещаний предполагает, что определение того, что на самом деле означает «значимый контроль со стороны человека», будет основополагающим для любых будущих правовых положений.

В то время как 22 страны уже призвали к прямому, упреждающему запрету на разработку автономного оружия, некоторые крупные военные государства, похоже, откладывают любые действия. Россия, уже продемонстрировав свой прогресс в разработке автономного оружия, категорически отказалась поддержать любой « превентивный запрет » по этому вопросу, а Соединенные Штаты разрабатывают свои собственные программы автономного оружия. Без поддержки этих крупных военных держав трудно представить, чтобы какое-либо будущее регулирование Организации Объединенных Наций было чем-то иным, кроме символического.

Обновление от 9 апреля 2018 года: бойкот KAIST более чем 50 исследователями ИИ и робототехники закончился. 
«Я был очень рад, что президент KAIST согласился не разрабатывать смертоносное автономное оружие, а следовать международным нормам, обеспечивая значимый контроль со стороны человека над любым оружием на основе ИИ, которое будет разрабатываться», — сказал Тоби Уолш, который инициировал акцию. «Я аплодирую KAIST за то, что он поступил правильно, и я буду рад работать с KAIST в будущем». 
Это говорит о силе научного сообщества, когда мы решаем высказаться, — наши действия имели мгновенный успех. Первоначально мы искали заверения от университета более месяца назад о целях их новой лаборатории. Но на следующий день после того, как мы объявили бойкот, KAIST дала заверения очень публично и очень четко.
«Есть много хороших приложений для ИИ, даже в военных условиях. Никто, например, не должен рисковать жизнью или расчисткой минных полей — это идеальная работа для робота. Но мы не должны, однако, сдавать решение о том, кто живет или кто умирает на машине — это пересекает этическую черту и приведет к появлению нового оружия массового уничтожения «.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *