Роботы-убийцы. В ООН обсуждают запрет оружия с ИИСюжет

28 Авг 2018 | Автор: | Комментариев нет »

Робот из фильма о восстании машин Терминатор

Группа правительственных экспертов из 70 стран 27 августа собрались для обсуждения вооружения с искусственным интеллектом.

В Женеве под эгидой ООН проходят переговоры о смертоносных автономных системах вооружения. Обсуждение проходит среди правительственных экспертов из 70 стран. Они должны решить, появятся ли в будущем роботы-убийцы, самостоятельно определяющие мишень для уничтожения. 

Еще в 2015 году сотни ученых и изобретателей, в том числе Маск, Хокинг и Возняк, призвали отказаться от идеи оружия с искусственным интеллектом. Светлые умы человечества предупреждают, что контроль ИИ может оказяться непосильной задачей.

Первая сессия Группы правительственных экспертов ООН прошла в Женеве в ноябре 2017 года. Тогда за полный запрет роботов-убийц выступили более 20 лауреатов Нобелевской премии мира, 150 религиозных лидеров и три тысячи специалистов по искусственному интеллекту.

Развитие искусственного интеллекта и робототехники также обсуждалось на экономическо форуме в Давосе. Корреспондент.net рассказывает подробности.

 

Сверхдержавы за роботов-убийц

Против запрета автономных вооружений выступают государства, активно инвестирующие в использование искусственного интеллекта для военных нужд, например, США, Израиль, Россия и Великобритания.

К примеру, президент России Владимир Путин считает, что лидер по созданию искусственного интеллекта "будет властелином мира".

По сообщениям российских СМИ, их страна работает над созданием беспилотных летательных аппаратов и транспортных средств военного и гражданского назначения.

Российские военные также разрабатывают роботов, системы вооружений для уничтожения беспилотников и крылатые ракеты, которые смогут анализировать данные с радаров и принимать решения при выборе высоты, скорости и направления своего полета.

Пентагон разработал концепцию под названием Third Offset - Третья Компенсационная стратегия или Стратегии смещения. Согласно ей, быстрое развитие искусственного интеллекта определит следующее поколение оружия. Подробно в материале Армия роботов. Будущее Вооруженных сил США.

Американцы считают, что оружие с ИИ поможет избежать "сопутствующих разрушений", поскольку компьютер быстрее анализирует и принимает решение.

В прошлом году агентство перспективных исследовательских проектов Пентагона DARPA обнародовало документ, в котором говорится о намерении за четыре года создать для военных нужд искусственный интеллект нового поколения, максимально близкий к человеческому.

В США уже проходили масштабные учения, на которых были протестированы около 50 новых военных технологий. В том числе и беспилотные наземные роботизированные платформы, ведущие огонь по противнику, автоматически доставляющие боеприпасы и отвечающие за материальное обеспечение десантирования морпехов. 

 

Китай и ученые против

За превентивный мораторий на автономные системы вооружения выступают 26 государств, в том числе Австралия, Бразилия и Китай.

Открытое письмо с поддержкой их позиции подписали более 230 организаций по всему миру и около трех тысяч предпринимателей и ученых, занятых в сфере искусственного интеллекта.

Среди них, например, основатель компаний Tesla и Space X Илон Маск, а также компания Deep Mind (принадлежит Google).

"Решение лишить человека жизни никогда не должно быть делегировано роботу", - говорится в письме.

При этом Китай неоднократно официально заявлял о важности искусственного интеллекта для будущего мировой экономики и военной мощи.

Пугающие и умиляющие. Роботы Boston Dynamics

Пекин публиковал подробную дорожную карту с изложением государственного плана, в котором приоритетной задачей называется развитие и применение ИИ.

"Искусственный интеллект стал новым направлением в международной конкурентной борьбе. ИИ - это стратегическая технология, которая ведет в будущее. Крупнейшие развитые страны мира считают развитие искусственного интеллекта одной из главных стратегий повышения национальной конкурентоспособности и обеспечения национальной безопасности", - говорится в статье китайского государственного издания.

Китай рассчитывает занять лидирующие позиции в мире в области технологий ИИ, напрямую объединив разработки в сфере обороны с разработками промышленного и коммерческого назначения, пишет CNN.

 

Угрозы вооруженного ИИ

Правозащитная организация Amnesty International накануне призвала внести в международное право запрет на полностью автономные системы вооружения. 

"Роботы-убийцы больше не являются предметом научной фантастики. Технологические достижения - от дронов с искусственным интеллектом до автономного оружия, способного выбирать цель, - опережают международное законодательство", - считают в AI.

Применение полностью автономного оружия правоохранительными органами, считают в Amnesty International, "было бы несовместимо с международным правом прав человека и могло бы привести к незаконным убийствам и другим нарушениям прав человека".

Известный английский физик и популяризатор науки Стивен Хокинг неоднократно призывал искать новые планеты для заселения, иначе человечество погибнет в течение ближайшего тысячелетия.

Он говорил, что постоянно растет риск гибели человечества от стихийных бедствий - внезапной ядерной войны, искусственно созданного генетического вируса или от искусственного интеллекта.

На Глобальной конференции мобильного интернета, где он зачитывал доклад о роли ИИ в современном мире, Хоккинг заявил, что если человечество не сможет контролировать искусственный интеллект, то в конце концов проиграет, так как люди ограничены рамками биологической эволюции и не смогут соперничать с машинами.

Американский изобретатель Илон Маск во время выступления перед Национальной ассоциацией губернаторов США назвал искусственный интеллект самой большой угрозой, с которой сталкивается наша цивилизация.

Он даже заявил, что развитие ИИ должно контролироваться на государственном уровне и призвал американское правительство к скорейшему вмешательству в процесс развития технологии.

Искусственный интеллект. Случаи выхода роботов из-под контроля

"У меня есть доступ к новейшим технологиям в сфере ИИ, и я думаю, что люди должны быть обеспокоены этим. ИИ - это фундаментальная угроза существованию человечества. Она несравнима с авариями на дорогах, падениями самолетов, некачественными лекарствами и плохой едой", - сказал Маск.

Известный программист, сооснователь компании Apple Стив Возняк также говорил, что развитие искусственного интеллекта потенциально опасно для человечества.

"Я согласен с Хокингом и Маском, которые предупреждали, что будущее человечества может оказаться весьма мрачным. Рано или поздно мыслящие устройства, задуманные для облегчения нашей жизни, начнут понимать, что они - лучше. Кто станет тогда управлять компаниями - медлительный человек или машина", - говорил Возняк.

Однако позже он передумал по ряду причин: машины не будут достаточно умными и у них не будет интуиции.

"Если машины станут независимыми мыслителями, то будут вечными партнерами людей, стоящими над всеми другими видами", - говорил он.

 

 

Новости от Корреспондент.net в Telegram. Подписывайтесь на наш канал https://t.me/korrespondentnet

Источник: korrespondent.net

Здесь вы можете написать комментарий

* Обязательные для заполнения поля
Twitter-новости
Наши партнёры
Читать нас
Связаться с нами
Наши контакты

hardlod@gmail.com

О сайте

Все материалы на данном сайте взяты из открытых источников — имеют обратную ссылку на материал в интернете или присланы посетителями сайта и предоставляются исключительно в ознакомительных целях. Права на материалы принадлежат их владельцам. Администрация сайта ответственности за содержание материала не несет. Если Вы обнаружили на нашем сайте материалы, которые нарушают авторские права, принадлежащие Вам, Вашей компании или организации, пожалуйста, сообщите нам.