
Два года назад Институт « Будущее жизни» представил открытое письмона Международной конференции по искусственному интеллекту 2015 года (IJCAI), в которой призвал Организацию Объединенных Наций запретить разработку искусственного интеллекта с применением оружия. Теперь опубликовано второе открытое письмо, снова совпадающее с началом IJCAI 2017 года. Это новое письмо подписано более чем 100 основателями компаний-производителей робототехники и ИИ со всего мира и требует, чтобы ООН прекратила откладывать переговоры и предпринять действия.
Всего несколько лет назад идея автономного оружия существовала исключительно в сферах научной фантастики, но быстро развивающиеся области ИИ и робототехники превратили пугающую фантастику в зарождающуюся реальность. Благодаря тому, что мировой производитель оружия Калашников недавно запустил полностью автоматизированный ряд боевых модулей и стартап Duke Robotics, прикрепляющий пулеметы к дронам , будущее роботизированной и автономной войны кажется невероятно близким.
Оригинальное письмо 2015 года, направленное в ООН, было подписано более 1000 различными учеными и исследователями со всего мира, в том числе Стивеном Хокингом, Ноамом Хомским и Стивом Возняком. ООН медленно, но верно отреагировала, официально созвав группу экспертов в конце 2016 года под флагом Конвенции об обычных вооружениях (КНО) с целью обсуждения и введения глобального запрета.
Первые обсуждения этой недавно сформированной группы ООН должны были состояться в этом месяце, но они были отменены еще в мае из-за « недостаточного финансирования ». Этот бюрократический беспорядок, вызванный тем, что некоторые страны, по-видимому, имеют задолженность с обещанными взносами, также угрожает отменить вторую запланированную встречу по летальному автономному оружию, назначенную на ноябрь этого года.
Эти задержки вдохновили нас на второе открытое письмо, в котором основное внимание уделялось привлечению поддержки со стороны деловых и отраслевых сторон робототехники и искусственного интеллекта. Сто шестнадцать основателей крупных компаний со всего мира уже подписали это новое письмо, в том числе Элон Маск, продавец Mustafa (основатель DeepMind от Google) и Эссен Остергаард (основатель датской Universal Robotics).
«Смертельное автономное оружие грозит стать третьей революцией в войне», — говорится в письме. «После разработки они позволят вести вооруженный конфликт в масштабах, превышающих когда-либо, и в масштабах, превышающих сроки, которые могут постичь люди. Это может быть оружие террора, оружие, которое деспоты и террористы используют против ни в чем не повинного населения, и оружие, взломанное для поведения нежелательными способами. Нам не нужно долго действовать. Как только ящик этой Пандоры будет открыт, его будет трудно закрыть ».

Несмотря на получение заметной коллекции отраслевых светил на борту, это обращение выглядит так, как будто в предстоящие месяцы и годы ему предстоит непростая битва. Сторонники запрета смертоносного автономного оружия хотят, чтобы все разработки в этой области рассматривались как запрещающие, как это делается с биологическим и химическим оружием, но не все страны согласны с этим.
Хотя большинство стран-членов ООН, включая США и Великобританию, согласились сформировать эту группу экспертов, любое реальное предложение о запрете, вероятно, встретит сильную оппозицию. В 2015 году министерство иностранных дел Великобритании заявило The Guardian, что правительство не видит необходимости в этих новых законах. Россия, конечно, также не выразила поддержку всему этому процессу.
Соединенные Штаты не высказали твердой позиции по этому вопросу, и, хотя они поддержали созыв этой группы ООН, нельзя представить, чтобы крупнейшая военная держава в мире охотно поддержала предложение, которое подавило бы ее способность разрабатывать сложные новые системы вооружений — особенно когда Россия уже указала на поддержку систем Калашникова А.И.
Означает ли такая широкая коллективная поддержка в академической, исследовательской и отраслевой областях что-либо, еще неизвестно, но, надеюсь, это второе открытое письмо побудит к разговору о разработке ИИ-оружия, который так необходим миру.