MyBooks.club
Все категории

Елена Ларина - Роботы-убийцы против человечества. Киберапокалипсис сегодня

На сайте mybooks.club вы можете бесплатно читать книги онлайн без регистрации, включая Елена Ларина - Роботы-убийцы против человечества. Киберапокалипсис сегодня. Жанр: История издательство -,. Доступна полная версия книги с кратким содержанием для предварительного ознакомления, аннотацией (предисловием), рецензиями от других читателей и их экспертным мнением.
Кроме того, на сайте mybooks.club вы найдете множество новинок, которые стоит прочитать.

Название:
Роботы-убийцы против человечества. Киберапокалипсис сегодня
Издательство:
-
ISBN:
-
Год:
-
Дата добавления:
28 январь 2019
Количество просмотров:
208
Читать онлайн
Елена Ларина - Роботы-убийцы против человечества. Киберапокалипсис сегодня

Елена Ларина - Роботы-убийцы против человечества. Киберапокалипсис сегодня краткое содержание

Елена Ларина - Роботы-убийцы против человечества. Киберапокалипсис сегодня - описание и краткое содержание, автор Елена Ларина, читайте бесплатно онлайн на сайте электронной библиотеки mybooks.club
Четвертая производственная революция открывает нам дверь в новый прекрасный мир, где нас ждут чудеса науки и техники: новые источники энергии, столь совершенная медицина, что человека, вполне возможно, ожидает почти бессмертие, искусственный интеллект и услужливые роботы: роботы-слуги, роботы-врачи, роботы-шоферы…Роботы-солдаты, которым безответственные политики и военные выдают лицензию на убийство человека! – уверены Елена Ларина и Владимир Овчинский. США, ЕС и другие западные страны уже вовсю готовятся выпустить на поле боя настоящих терминаторов, не имеющих эмоций, не знающих милосердия. ООН и другие международные организации бьют тревогу, пытаются остановить грядущую бойню между людьми и машинами – но генералы непреклонно ведут мир к кибернетическому апокалипсису.Как обстоят дела с разработками боевых роботов на Западе и в России? Можно ли предотвратить создание роботов-убийц? Откуда боевые роботы появились у террористов в ИГ? Эта книга покажет читателю самые мрачные варианты грядущего.

Роботы-убийцы против человечества. Киберапокалипсис сегодня читать онлайн бесплатно

Роботы-убийцы против человечества. Киберапокалипсис сегодня - читать книгу онлайн бесплатно, автор Елена Ларина

Роботы не могут идентифицировать себя с людьми, т. е. они неспособны испытывать сострадание (сильную проверку на готовность убить). Например, робот в зоне боевых действий мог бы выстрелить в ребенка, направляющего на него оружие. В отличие от робота, солдат-человек мог бы вспомнить своих детей, задержать открытие огня и найти более милосердное решение этой ситуации. Одно из самых больших ограничений для проявления жестокости во время войны всегда было естественное желание большинства людей не убивать. Этот естественный запрет так силен, что многие умерли бы сами, чем убили бы кого-то. Снятие этого запрета на убийство при помощи использования роботов устранило бы самое сильное психологическое и этическое ограничение на применение оружия во время войны. Война стала бы негуманно эффективной и не была бы ограничена естественным желанием солдат не убивать.

С другой стороны, полностью автономное оружие может стать прекрасным инструментом репрессии для диктаторов, стремящихся сохранить власть. Даже наиболее преданные диктатору войска могут, в конечном счете, повернуть против него свое оружие, если диктатор отдаст приказ стрелять в собственный народ. Диктатор, который обратился к помощи полностью автономного оружия, не будет бояться, что его вооруженные силы взбунтуются. Роботы не идентифицируют себя с их жертвами и будут выполнять приказ независимо от того, насколько негуманный он был.

3.1.5. Проблема ответственности за убийство полностью автономным оружием Учитывая, какие проблемы полностью автономного оружия создает международному гуманитарному праву и как оно игнорирует психологические основы гуманитарной защиты, неизбежно, что оно когда-нибудь убьет или ранит множество беззащитных гражданских лиц. Когда появляются многочисленные жертвы среди гражданского населения в вооруженном столкновении, люди хотят знать, кто за это должен нести ответственность. Если бы убийство было совершено полностью автономным оружием, встал бы вопрос: кого считать за это ответственным? Варианты ответов включают военачальника, программиста, изготовителя полностью автономного оружия и даже самого робота. Однако ни один из этих вариантов не является удовлетворительным. Поскольку нет никакого справедливого и эффективного способа назначить юридическую ответственность за противоправные действия, переданные полностью автономному оружию, подрывается еще один инструмент защиты гражданских лиц во время вооруженных конфликтов.

Первый способ решения проблемы может состоять в том, чтобы сделать военных начальников, которые используют такое оружие, ответственными за его действия на поле боя. Однако считается, что солдаты – достаточно автономные существа. И их командиры не несут юридической ответственности за противоправные действия своих подчиненных (за исключением очень особых обстоятельств). Поэтому было бы несправедливым возложить всю ответственность на военачальника за действия полностью автономного оружия. И, наверное, несправедливо считать людей ответственными за действия машин, над которыми они не имеют контроля. В некоторых ситуациях (принцип несения «ответственности за команду») военачальник может считаться ответственным за военные преступления, совершенные подчиненным. Этот принцип применяется, если военачальник знал (или должен был знать), что его подчиненный запланировал совершить преступление. И военачальник не принял меры, чтобы предотвратить преступление или не наказывал преступника после совершения преступления.

В то же время как этот принцип стремится обуздать нарушения международного гуманитарного права, усиливая ответственность военачальника, он плохо подходит для полностью автономного оружия. С одной стороны, «ответственность за команду», вероятно, можно было бы применить, если бы командующий знал потенциальные способности этого оружия выполнять незаконные действия против гражданских лиц и все же опрометчиво применил полностью автономное оружие.

С другой стороны, если бы военачальник понял (как только робот начал действовать), что робот совершает преступление, то военачальник был бы неспособен перепрограммировать робота в режиме реального времени, чтобы предотвратить преступление. Потому что робот разработан так, чтобы действовать полностью автономно. Кроме того (как будет обсуждено более подробно ниже), военачальник не может эффективно наказать робота после того, как тот совершит преступление. Таким образом, кроме случаев опрометчивого поведения «ответственность за команду» нельзя применять, и военачальник не будет считаться ответственным за действия полностью автономного оружия.

Противоправное действие, совершенное полностью автономным оружием, может быть результатом недоработки программного обеспечения. Однако программист с полной уверенностью не может предсказать решение, которое полностью автономный робот примет на поле боя. Поэтому считать программиста ответственным будет справедливо, если описанная выше ситуация произошла в результате небрежности со стороны команды программистов при написании компьютерной программы. Кроме того, чтобы считать программиста преступно ответственным в соответствии с международным гуманитарным правом, нужно доказать, что программист преднамеренно запрограммировал противоправное действие робота.

Некоторые эксперты отмечают возможность трактовать ответственность производителя за качество выпускаемой продукции как потенциальную модель для введения ответственности изготовителей полностью автономного оружия за его противоправные действия. Если бы изготовители могли бы считаться строго ответственными за недостатки в этом оружии, то ответственность изготовителей стала бы стимулом для производства очень надежных полностью автономных систем вооружения. Однако режим ответственности за качество выпускаемой оружейной продукции тоже противоречит верному решению, потому что производители оружия, как правило, не наказываются за то, как их оружие в дальнейшем используется.

К сожалению, возложение ответственности на любого из описанных выше действующих лиц (военачальника, программиста, изготовителя) не удержит самого робота от противоправных действий. По определению, полностью автономное оружие работает без человеческого контроля и возможности вмешательства в его работу. А отсутствие эмоций у полностью автономного оружия не позволит ему испытать раскаяние, если кто-то вместо самого робота будет наказан за его действия.

Также есть мнение, что само полностью автономное оружие могло бы считаться ответственным за незаконное убийство гражданских лиц. Однако в ближайшие 10-20 лет это невозможно сделать из-за недостаточного уровня развития робототехники. Робота можно «наказать», уничтожить его или ограничить его программное обеспечение. Однако это вряд ли удовлетворят жертв робота, ищущих возмездия. Кроме того, если робот не понимает, что будет наказан за то, что нарушил закон, его решения не будут находиться под влиянием угрозы ответственности.

3.1.6. Проблема понижения порога принятия решения о начале войны

Достижения в военной технологии позволили вооруженным силам значительно уменьшить непосредственное человеческое участие в ведении военных действий. Изобретение беспилотных летательных аппаратов (дронов) позволило США проводить военные операции в Афганистане, Пакистане, Йемене, Ливии без страха перед человеческими жертвами со своей стороны. Из-за этого фактора постепенная замена людей на полностью автономное оружие может сделать принятие решения начать войну более легким, а бремя потерь в зоне военного конфликта перейдет к гражданским лицам. Автоматизированное оружие изменяет политические расчеты при ведении войны. Потенциальная угроза жизни гражданских лиц вражеского государства может быть обесценена или даже проигнорирована при принятии решения об использовании военной силы. Результат применения вооруженных дронов показывает, к чему может привести применение оружия с еще большей автономией.

Военные эксперты утверждают, что беспилотные самолеты уже понизили порог для принятия решения о начале войны, облегчили политическим лидерам принятие решения на применение военной силы. Кроме того, быстрое увеличение количества беспилотных систем может притупить инстинктивное чувство неприятия убийства. Беспилотные системы создают физическое и эмоциональное «расстояние» от поля боя и поэтому делают убийство более легким.

Действительно, некоторые операторы дронов сравнивают атаки дрона с компьютерной игрой. Поэтому они чувствуют себя эмоционально отделенными от акта убийства. Война становится более безопасной и легкой, когда солдаты удалены от ужасов войны и рассматривают врага не как людей, а как человеческие фигурки на экране. И есть очень реальная опасность потерять средство устрашения, которое обеспечивают ужасы войны. Полностью автономное оружие создает те же самые проблемы.


Елена Ларина читать все книги автора по порядку

Елена Ларина - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки mybooks.club.


Роботы-убийцы против человечества. Киберапокалипсис сегодня отзывы

Отзывы читателей о книге Роботы-убийцы против человечества. Киберапокалипсис сегодня, автор: Елена Ларина. Читайте комментарии и мнения людей о произведении.

Прокомментировать
Подтвердите что вы не робот:*
Подтвердите что вы не робот:*
Все материалы на сайте размещаются его пользователями.
Администратор сайта не несёт ответственности за действия пользователей сайта..
Вы можете направить вашу жалобу на почту librarybook.ru@gmail.com или заполнить форму обратной связи.