Роботы-военные как пример неоднозначного изобретения

Если говорить про этичность искусственного интеллекта, стоит обратиться к вопросу заменимости современных профессий машинами. Так, пионер искусственного интеллекта Джозеф Вейценбаум считал, что в таких профессиях, как врач, судья, полицейский и так далее, люди не должны быть заменены на роботов. Возможно, не стоит давать широкое распространение социальной робототехникой, ведь, действительно, в подобных профессиях, необходима человеческая эмпатия, способность сопереживать и поддерживать.


Два подхода к определению морального поступка: утилитаризм

Машинное обучение делает принципы работы искусственного интеллекта непрозрачными, а значит затрудняет вопрос о распределении ответственности. Поведение машины нельзя объяснить замыслом программиста.

Ряд сфер, где предполагается использование искусственного интеллекта или уже используется искусственный интеллект, предполагает не только безупречное выполнение некоторого функционала, но и присутствие живого человека. Однако порой поведение современной машины нельзя объяснить замыслом человека. Некоторые решения она принимает фактически самостоятельно. Здесь уже встает вопрос об этичности данных решений.

Давайте обратимся к так называемым «автономным военным сооружениям», или же просто военным роботам – машинам, которые должны самостоятельно без участи человека принимать решение об огне на поражение. Фактически принимать решение о смерти или жизни человека. Конечно, возникает ряд этических вопросов: «Может ли машина принимать моральные решения?», «Может ли машина принимать моральные решения, если они аналогичны решениям человека?», «Может ли машина принимать моральные решения исходя из соображений безопасности?», «Может ли агент принимать моральные решения, если он не может нести за них моральной ответственности?».

 В философской этике есть два диаметрально противоположных ответа на эти вопросы: утилитаризм, или этика последствий, и деонтология, или этика долга. Для начала подробнее рассмотрим такое понятие, как утилитаризм. Утилитаризм – направление в этике, согласно которому моральная ценность поведения или поступка определяется его полезностью. Под принципом пользы, согласно И. Бентаму, понимается тот принцип, который одобряет или не одобряет какое бы то ни было действие, смотря по тому, имеет ли оно стремление увеличить или уменьшить счастье той стороны, об интересе которой идет речь, или, говоря то же самое другими словами, содействовать или препятствовать этому счастью. Иными словами, перед тем, как совершить какой-либо поступок, надо задуматься, какую пользу или какой вред он может принести.

Утилитаризм считается наиболее влиятельной версией консеквенциализма («теории последствий») – раздела нормативной этики, в которой правильность действия определяется характером его последствий. Согласно этой теории важны последствия, а не замыслы, мотивы. Общим программным принципом утилитаризма является требование содействовать наибольшему счастью наибольшего количества людей.

Если мы снова обратим внимание на наш пример про «роботов-военных», то согласно утилизации, данные современные машины имеют место быть, и они принесут скорее пользу, нежели вред, человечеству. Предполагается, что они должны заменить десятки тысяч опытных военных, соответственно, сохранить тысячи жизней участвующих на одно стороне боевых действий людей.


Два подхода к определению морального поступка: деонтология

Давайте представим себе такую гипотетическую ситуацию: в обществе существует дефицит доноров органов. Причем, в представленной ситуации донор, выбранный посредством, допустим, “черной лотереи”, теряет не только сам орган, но и жизнь. Выходит, что один член общества спасет жизни нескольких человек, но потеряет свою. С точки зрения полезности и всеобщего блага это не лишено смысла и выглядит вполне себе рационально, но, с другой стороны, интуиция подсказывает нам, что мы не очень-то хотим жить в обществе, где подобное может осуществиться, особенно с нами и нашими близкими.

Так есть ли поступки, которые всегда будут неправильны, независимо от последствий? Противоположный утилитаристскому взгляду ответ дает такое направление в моральной философии как деонтология, или же этика долга.

Деонтология – концепция, отстаивающая логический приоритет и “первичность” долга при принятии моральных решений. В основе этого подхода лежат правила поведения, поскольку именно они лежат в основе понятия долга. Соответственно, в центре деонтологической морали лежит моральный закон и неукоснительное ему следование, даже если с прагматической точки зрения было бы полезнее этим законом пренебречь.

Самым известным представителем данного взгляда на вещи являлся Иммануил Кант. Он занимался формирование деонтологических законов в самом общем смысле, так называемых “категорических императивов”.

  • Первая формулировка категорического императива звучала так: “Поступай так, чтобы максима твое воли могла бы быть всеобщим законом”. Это очень похоже на правило золотой морали: “Поступай так, как ты хотел бы, чтобы другие люди относились к тебе”.
  • Вторая формулировка категорического императива канта звучала следующим образом: “Поступай так, чтобы ты всегда относился к человечеству и в своем лице, и в лице всякого другого, как к цели и никогда не относился бы к нему только как к средству”.

Источником морали является субъект. Робот не является рациональным субъектом, следовательно не может быть носителем морали в кантовском смысле, не может обладать способностью устанавливать для себя моральные законы и, соответственно, принимать моральные решения.

Подводя итог в вопросе этических проблем искусственного интеллекта, стоит сказать, что при существовании двух совершенно противоположных подходов по взгляду на данное затруднение, они оба имеют право на существование и по-своему правы.

Читайте нас в Яндекс.Новостях

Подписаться
Уведомить о
guest

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
.