WRONGTECH Telegram 535
О парадоксе (де)гуманизации войны дронов

Недавно натолкнулся на интересный парадокс. Речь шла о том, как использование дронов повлияет на гуманность военных конфликтов. С одной стороны, дроны обещают сделать удары более точечными, к тому же свести к минимуму потери среди личного состава. С другой стороны, использование дронов дегуманизирует войну: цели атак из живых людей превращаются в набор пикселей на панелях, «desk jockey warriors» (кабинетные военные) перестают воспринимать военные операции как моральную практику, а разработчиков дронов, по сути, можно приравнять к участникам боевых действий.

Ниже фрагмент из книги Арсения Куманькова "Война в XXI веке":

Дополнительное напряжение создаёт и вопрос об ответственности за действия робота или дрона. Лежит ли она на офицере, который отдал приказ о проведении операции, на обслуживающем персонале, операторе? Но является ли в принципе оператор, не находящийся физически на поле боя, комбатантом? Или, возможно, нужно учитывать также и ответственность программиста, который создал алгоритм, определяющий принципы функционирования робота: идентификация цели, способ прицеливания, параметры определения выполнения поставленной задачи, принятие решений в сложных условиях, например, когда противник использует живые щиты? Как мы отметили, у дрона нет психики, повреждение которой может заставить его действовать аморально. Но при этом сам характер его действий определяется людьми, участвующими в его создании, и военные заказчики, а возможно, и сам программист, закладывают в робота собственные принципы этики поведения на поле боя.

Но это также означает, что дрон не является субъектом морального действия, поскольку он не обладает эмоциями, эмпатией, не способен на чувства и не имеет представления о совести, вине, стыде. При этом он способен действовать с высочайшим уровнем автономии, самостоятельно находя цели и принимая решение о нанесении удара по ним. Если в связи с этим ответственность за действия роботизированной системы переносить на тех, кто обслуживает или создаёт её, мы окажемся в нетривиальной ситуации. Необходимо будет пересмотреть принцип различения jus in bello. Вместо того чтобы сократить число людей, задействованных на войне, использование роботизированных систем может заставить идентифицировать как участников боевых действий представителей гражданских профессий – таких, как программисты.



tgoop.com/wrongtech/535
Create:
Last Update:

О парадоксе (де)гуманизации войны дронов

Недавно натолкнулся на интересный парадокс. Речь шла о том, как использование дронов повлияет на гуманность военных конфликтов. С одной стороны, дроны обещают сделать удары более точечными, к тому же свести к минимуму потери среди личного состава. С другой стороны, использование дронов дегуманизирует войну: цели атак из живых людей превращаются в набор пикселей на панелях, «desk jockey warriors» (кабинетные военные) перестают воспринимать военные операции как моральную практику, а разработчиков дронов, по сути, можно приравнять к участникам боевых действий.

Ниже фрагмент из книги Арсения Куманькова "Война в XXI веке":

Дополнительное напряжение создаёт и вопрос об ответственности за действия робота или дрона. Лежит ли она на офицере, который отдал приказ о проведении операции, на обслуживающем персонале, операторе? Но является ли в принципе оператор, не находящийся физически на поле боя, комбатантом? Или, возможно, нужно учитывать также и ответственность программиста, который создал алгоритм, определяющий принципы функционирования робота: идентификация цели, способ прицеливания, параметры определения выполнения поставленной задачи, принятие решений в сложных условиях, например, когда противник использует живые щиты? Как мы отметили, у дрона нет психики, повреждение которой может заставить его действовать аморально. Но при этом сам характер его действий определяется людьми, участвующими в его создании, и военные заказчики, а возможно, и сам программист, закладывают в робота собственные принципы этики поведения на поле боя.

Но это также означает, что дрон не является субъектом морального действия, поскольку он не обладает эмоциями, эмпатией, не способен на чувства и не имеет представления о совести, вине, стыде. При этом он способен действовать с высочайшим уровнем автономии, самостоятельно находя цели и принимая решение о нанесении удара по ним. Если в связи с этим ответственность за действия роботизированной системы переносить на тех, кто обслуживает или создаёт её, мы окажемся в нетривиальной ситуации. Необходимо будет пересмотреть принцип различения jus in bello. Вместо того чтобы сократить число людей, задействованных на войне, использование роботизированных систем может заставить идентифицировать как участников боевых действий представителей гражданских профессий – таких, как программисты.

BY WrongTech




Share with your friend now:
tgoop.com/wrongtech/535

View MORE
Open in Telegram


Telegram News

Date: |

Hashtags 6How to manage your Telegram channel? In the next window, choose the type of your channel. If you want your channel to be public, you need to develop a link for it. In the screenshot below, it’s ”/catmarketing.” If your selected link is unavailable, you’ll need to suggest another option. 4How to customize a Telegram channel? Select: Settings – Manage Channel – Administrators – Add administrator. From your list of subscribers, select the correct user. A new window will appear on the screen. Check the rights you’re willing to give to your administrator.
from us


Telegram WrongTech
FROM American