Уведомления
Авторизуйтесь или зарегистрируйтесь, чтобы оценивать материалы, создавать записи и писать комментарии.
Авторизуясь, вы соглашаетесь с правилами пользования сайтом и даете согласие на обработку персональных данных.
Группа экспертов и правозащитников призывает запретить разработку оружия, контролируемого ИИ
Развитие технологии беспилотных летательных аппаратов значительно продвинуло вперед разработки в сфере военной техники. Дроны и прочие системы оружия в итоге могут полностью заменить мужчин-солдат на поле битвы. Однако насколько этичен сам факт доступа искусственного интеллекта к оружию?
Группа экспертов, собравшаяся на заседании Американской ассоциации содействия развитию науки в Вашингтоне, округ Колумбия, резко осудила эту возможность: профессора по этике и правозащитники призывают запретить разработку оружия, контролируемого ИИ.
В заявлении ученых говорится, что автономное оружие может работать непредсказуемым образом и убивать невинных людей. Эксперты по этике также утверждают, что право на лишение человека жизни слишком серьезно и нельзя позволить системам искусственного интеллекта убивать людей без какого-либо вмешательства и контроля со стороны разработчиков и военных.
«Мы не говорим о гуляющих и говорящих роботах-терминаторах, которые собираются захватить мир. То, что нас беспокоит, реальнее и неизбежнее — это системы обычных вооружений, наделенные автономией и определенной самостоятельностью. Такие разработки все чаще становятся реальностью. Дроны — довольно очевидный пример, но есть и военные самолеты, которые взлетают, передвигаются и приземляются самостоятельно, и роботы-часовые, которые могут идентифицировать любое движение. Все они — предшественники автономного оружия», — уточняет директор международной неправительственной организации по защите прав человека Human Rights Watch Мэри Уэрхэм (Mary Wareham).
Human Rights Watch — одна из 89 неправительственных организаций из 50 стран, которые сформировали кампанию «Остановить роботов-убийц», добиваясь заключения международного договора. Инициативу нью-йоркской организации о запрете поддержал Райан Гариепи (Ryan Gariepy), технический директор Clearpath Robotics. Его компания берет военные контракты, но осуждает системы ИИ для ведения войны, а сам Гариепи заявил, что не будет заниматься подобными разработками, ведь когда подобная система терпит неудачу, ее последствия слишком сложно предсказать.
«Какой бы продвинутой ни была система, состояние ИИ ограничено контекстом распознавания изображений, то есть не имеет жизненно важных деталей, чтобы иметь право судить, кого убивать на поле боя, а кого оставить в живых, в «вакууме» принятие такого решения попросту неприемлемо. Фактически это решение принимается военными, программистами и учеными за тысячи миль от фронта, которые не имеют представления о ситуации, в которой развернуто оружие», — утверждает Гариепи.
Возникает еще один важный вопрос: кто несет ответственность, когда машина решает забрать человеческую жизнь? По словам сотрудника частного университета в Нью-Йорке New School Питера Асаро, передача роботу полномочий на убийство — это нарушение прав человека, так как машины не могут считаться существами с моралью, а потому не могут нести ответственность за принятие решений о жизни и смерти.
Однако использование управляемых искусственным интеллектом систем оружия осуждается не всеми, а инициатива против ИИ встретила и сопротивление. К примеру, США и Россия были в числе нескольких стран, которые еще в сентябре, после недельных переговоров в Женеве, выступили против прямого запрета на автономное оружие.
Согласно гипотезе о так называемой Еврогондване, в эпоху динозавров Европа, как часть северного суперконтинента Лавразия, еще не полностью отделилась от южного суперконтинента Гондвана и животные могли свободно мигрировать между Европой и Африкой. Однако новый анализ найденных в Венгрии костей первобытного крокодила показал, что его сходство с гондванскими видами обусловлено не близким родством, а схожим образом жизни.
Треть века назад Штаты и Мексика подписали Североамериканское соглашение о свободной торговле. Авторы новой научной работы показали, что это спровоцировало рост войн между бандами и подъем смертности среди молодых мужчин на десятки процентов — но только в тех зонах, которые были интересны картелям. Всего после подписания соглашения в Мексике было убито (оценка с учетом исчезнувших трупов) более 0,85 миллиона человек.
Новые данные показали, что удар зонда DART не только изменил орбитальный период небольшого спутника Диморфа вокруг его «родителя» Дидима, но и вызвал небольшое изменение движения всей бинарной системы вокруг Солнца. Эти результаты укрепляют уверенность ученых в том, что технология кинетического удара, при заблаговременном обнаружении опасного объекта, может помочь отклонить потенциально опасный астероид от столкновения с Землей.
Одна сторона сыплет более дорогими и сложными баллистическими ракетами, другая — относительно дешевыми крылатыми. Но при этом первая на порядок беднее второй. А что у них с технологическим уровнем для наземной войны, и почему, кстати, глава второй избегает даже самого этого слова? Попробуем разобраться в реальных возможностях военных машин сторон потенциально самого опасного конфликта 2026 года.
Российские ученые из МФТИ с коллегами из Института прикладной математики им. М. В. Келдыша РАН и Института физики Земли им. О.Ю. Шмидта РАН разработали инновационный метод для расчета равновесного распределения несмешивающихся жидкостей в пористой среде. Результаты применения этого метода можно использовать в разработках по повышению нефтеотдачи и гидрологии, а также геологического СО2-хранения.
Запасы лития в России требуют переоценки и могут оказаться в разы выше, чем считалось до 2025 года. Об этом говорится в исследовании «Состояние ресурсной базы критически важных металлов и элементов для развития современных технологий», подготовленном учеными РГУ нефти и газа (НИУ) имени И.М. Губкина.
Астрономы недавно проанализировали базу данных о падающих на Землю объектах и пришли к выводу, что два из них прибыли из межзвездного пространства. Известна не только дата, но и место падения каждого из них.
В ноябре 2025 года при взлете российской ракеты с Байконура к МКС с существенной высоты упала кабина обслуживания 8У216. Поскольку в 2010-х годах из экономии средств у нас отказались от дублирования стартовых площадок, это создало ситуацию временной невозможности пилотируемых полетов. Теперь, всего через три месяца после происшествия, «Роскосмос» смог решить проблему, поставив запасную кабину обслуживания, найденную на складах Минобороны. Весенние пуски к МКС, запланированные ранее, теперь имеют шансы пройти в срок.
«Любить лишь можно только раз», — писал поэт Сергей Есенин, а герои культовых сериалов приходили к выводу, что «настоящая» влюбленность случается в жизни максимум дважды. Однако ни один из этих тезисов не подкреплен научными данными. Американские исследователи подошли к вопросу иначе: опросили более 10 тысяч человек и вывели среднее число сильных влюбленностей, возможных в течение жизни.
Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.
Понятно
Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.
Понятно
Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.
Понятно
Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.
Понятно
Последние комментарии