Этические проблемы искусственного интеллекта

Этика – философская дисциплина, исследующая вопросы морали и нравственности. Бурно развивающиеся современные технологии напрямую связаны с данными двумя понятиями. Например, медицинская диагностика и роботизированная хирургия в наши дни становится все популярнее. Данные технологии широко используются для обнаружения рака молочной железы. Можно задаться вопросом: «Кто будет ответственен за постановку диагноза?». Фактически в данном случае ответственность берет на себя диагност, который решает ставить или не ставить диагноз.

Еще одна сфера, порождающая множество этических дискуссий, — область автономного управления. Речь идет об автопилотируемых автомобилях. Перед нами сразу же возникает ряд морально-этических коллизий: «Кто будет ответственен за аварию?»; «Какие должны быть встроены моральные начала в автопилотируемый автомобиль?».


Этическая экспертиза технологии искусственного интеллекта

Стоит обратиться к нескольким вариантам направления мысли развития технологий, которые позволяют провести этическую экспертизу технологий. Для начала стоит выяснить, может ли та или иная технология быть использована злонамеренно. Рассмотрим следующий пример, связанный с технологией «умного города». Умный город предполагает систематизацию и автономизацию большинства систем: от автоматического включения искусственного света с наступлением темноты до системы управляющей движением в мегаполисе. Звучит весьма привлекательно, однако, если посмотреть с другой стороны, то можно представить взлом этой самый дорожно-транспортной системы и, следовательно, коллапс, произошедший на дорогах города.

Другой пример – технология «Deep Fake», способная создать виртуальную копию какой-либо персоны, ориентируясь на видеоматериалы с данным человеком. Особенность заключается в том, что очень сложно отличить копию от оригинального изображения. Здесь также могут быть как позитивные исходы развития событий, так и негативные. Например, в музее художника Сальвадора Дали в США представлено достаточно удачное применение данной технологии: воссозданное изображение великого художника запрограммированно повествовать посетителям о своих картинах. Однако есть и другой пример использования «Deep Fake»: видеоизображения политиков находятся на просторах Интернета в достаточном количестве, чтобы использовать их для создание видеороликов с репликами, которые могут угрожать национальной безопасности.

Если проследить за вышеуказанными рассуждениями с приведенными примерами, можно сделать вывод о том, что новейшие техники и технологии сами по себе нейтральны. Позитивный или негативный окрас они принимают тогда, когда попадают в руки к человеку, применяющему их в том или ином русле.


Развитие моральных качеств у роботов

Пока человечество не может быть уверенно в полной безопасности и сохранности нашего вида при передаче многих функций, выполняемых сейчас людьми, в руки роботов и искусственного интеллекта соответственно, но не за горами то время, когда наш мир сложно будет представить без использования технических достижений этого направления. Нашей задачей является развитие моральных качеств у представителей технической расы, чтобы они, хоть и отдаленно, но были похоже на нас, людей. Технический прогресс несет будущее и нам обязательно нужно сделать его как можно лучше ради нынешних и всех последующих поколений.

Автор: Дарья Петерсон

Читайте нас в Яндекс.Новостях

Подписаться
Уведомить о
guest

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

1 Комментарий
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
1
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
.