• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
18.02.2019, 15:23
Редакция Naked Science
1
896

Группа экспертов и правозащитников призывает запретить разработку оружия, контролируемого ИИ

Развитие технологии беспилотных летательных аппаратов значительно продвинуло вперед разработки в сфере военной техники. Дроны и прочие системы оружия в итоге могут полностью заменить мужчин-солдат на поле битвы. Однако насколько этичен сам факт доступа искусственного интеллекта к оружию?

2016-12-30_14-12-36
©Wikipedia / Автор: Андрей Чернов

Группа экспертов, собравшаяся на заседании Американской ассоциации содействия развитию науки в Вашингтоне, округ Колумбия, резко осудила эту возможность: профессора по этике и правозащитники призывают запретить разработку оружия, контролируемого ИИ.

 

В заявлении ученых говорится, что автономное оружие может работать непредсказуемым образом и убивать невинных людей. Эксперты по этике также утверждают, что право на лишение человека жизни слишком серьезно и нельзя позволить системам искусственного интеллекта убивать людей без какого-либо вмешательства и контроля со стороны разработчиков и военных.

 

«Мы не говорим о гуляющих и говорящих роботах-терминаторах, которые собираются захватить мир. То, что нас беспокоит, реальнее и неизбежнее — это системы обычных вооружений, наделенные автономией и определенной самостоятельностью. Такие разработки все чаще становятся реальностью. Дроны — довольно очевидный пример, но есть и военные самолеты, которые взлетают, передвигаются и приземляются самостоятельно, и роботы-часовые, которые могут идентифицировать любое движение. Все они — предшественники автономного оружия», — уточняет директор международной неправительственной организации по защите прав человека Human Rights Watch Мэри Уэрхэм (Mary Wareham).

 

Human Rights Watch — одна из 89 неправительственных организаций из 50 стран, которые сформировали кампанию «Остановить роботов-убийц», добиваясь заключения международного договора. Инициативу нью-йоркской организации о запрете поддержал Райан Гариепи (Ryan Gariepy), технический директор Clearpath Robotics. Его компания берет военные контракты, но осуждает системы ИИ для ведения войны, а сам Гариепи заявил, что не будет заниматься подобными разработками, ведь когда подобная система терпит неудачу, ее последствия слишком сложно предсказать.

 

«Какой бы продвинутой ни была система, состояние ИИ ограничено контекстом распознавания изображений, то есть не имеет жизненно важных деталей, чтобы иметь право судить, кого убивать на поле боя, а кого оставить в живых, в «вакууме» принятие такого решения попросту неприемлемо. Фактически это решение принимается военными, программистами и учеными за тысячи миль от фронта, которые не имеют представления о ситуации, в которой развернуто оружие», — утверждает Гариепи.

 

Возникает еще один важный вопрос: кто несет ответственность, когда машина решает забрать человеческую жизнь? По словам сотрудника частного университета в Нью-Йорке New School Питера Асаро, передача роботу полномочий на убийство — это нарушение прав человека, так как машины не могут считаться существами с моралью, а потому не могут нести ответственность за принятие решений о жизни и смерти. 

 

Однако использование управляемых искусственным интеллектом систем оружия осуждается не всеми, а инициатива против ИИ встретила и сопротивление. К примеру, США и Россия были в числе нескольких стран, которые еще в сентябре, после недельных переговоров в Женеве, выступили против прямого запрета на автономное оружие.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
9 декабря, 10:59
НИУ ВШЭ

Специфическая тревога из-за ненадежности цифровых образов реальности и иллюзии тотального контроля над действительностью получила название «аффект зомби». Заведующий кафедрой философии НИУ ВШЭ — Санкт-Петербург Иван Микиртумов исследовал феномен в рамках проекта РНФ «Экзистенциальный опыт в цифровой среде».

8 декабря, 13:09
Александр Березин

С 2010-х в «Роскосмосе» говорили: будущая РОС сможет пролетать над полюсом, что даст ей возможности для новых научных экспериментов. Но вскоре после того, как в ноябре 2025 года Россия временно лишилась возможности запускать людей в космос, эта позиция изменилась. В результате запускать космонавтов с космодромов нашей страны станет довольно сложно.

10 декабря, 11:49
Игорь Байдов

Раскопки мастерской, погребенной в Помпеях почти 2000 лет назад, помогли археологам больше узнать о римских строительных технологиях, а именно — определить методы изготовления римского бетона и раскрыть секрет его долговечности.

8 декабря, 13:09
Александр Березин

С 2010-х в «Роскосмосе» говорили: будущая РОС сможет пролетать над полюсом, что даст ей возможности для новых научных экспериментов. Но вскоре после того, как в ноябре 2025 года Россия временно лишилась возможности запускать людей в космос, эта позиция изменилась. В результате запускать космонавтов с космодромов нашей страны станет довольно сложно.

9 декабря, 10:59
НИУ ВШЭ

Специфическая тревога из-за ненадежности цифровых образов реальности и иллюзии тотального контроля над действительностью получила название «аффект зомби». Заведующий кафедрой философии НИУ ВШЭ — Санкт-Петербург Иван Микиртумов исследовал феномен в рамках проекта РНФ «Экзистенциальный опыт в цифровой среде».

8 декабря, 10:59
НИУ ВШЭ

Команда психолингвистов Центра языка и мозга НИУ ВШЭ обнаружила, что у подростков в возрасте 15–18 лет навыки фонологической обработки продолжают влиять на скорость чтения текстов. Это открытие опровергает убеждение, что к подростковому возрасту эти навыки уже не играют значимой роли в беглости чтения.

8 декабря, 13:09
Александр Березин

С 2010-х в «Роскосмосе» говорили: будущая РОС сможет пролетать над полюсом, что даст ей возможности для новых научных экспериментов. Но вскоре после того, как в ноябре 2025 года Россия временно лишилась возможности запускать людей в космос, эта позиция изменилась. В результате запускать космонавтов с космодромов нашей страны станет довольно сложно.

29 ноября, 12:42
Александр Березин

Позавчера, 27 ноября 2025 года, при запуске космонавтов к МКС на стартовую площадку № 31 упала кабина обслуживания стартового комплекса. Это означает, что новые пуски оттуда до починки невозможны. К сожалению, в 2010-х годах, в рамках «оптимизации» расходов, резервную площадку (с которой летал Юрий Гагарин) упразднили. Поэтому случилось беспрецедентное: в XXI веке страна с пилотируемой космической программой осталась без средств запуска людей на орбиту. Пока ремонт не закончится, проблема сохранится. Чем это может грозить?

27 ноября, 20:20
Максим Абдулаев

Японские биологи повторили античную технологию производства вина из изюма, чтобы выяснить механизм его брожения. Исследователи показали, что сушеный виноград, в отличие от свежего, накапливает на поверхности дикие дрожжи и способен превращать воду в алкоголь без внесения дополнительных заквасок.

[miniorange_social_login]

Комментарии

1 Комментарий
DELETED
18.02.2019
-
0
+
Пока существуют государства, будет продолжаться борьба за власть, делёж природных ресурсов, а значит и производство оружия.
Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Закрыть
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно