Роботы и морализм

Создав для роботов ситуацию этического выбора — кого из двух человек, одновременно попадающих в опасность, надо спасать — ученые выяснили, что больше всего смертей приносит не сам выбор, а слишком долгие размышления машины.

Кто из нас в далёком (и не очень) детстве не был уверен, что уже в начале 21 века роботы, похожие на людей, заполнят наш быт? Но не так быстро, как хотелось бы, развивается история роботов, хотя в их эволюции происходят новые замечательные открытия.

Это, к примеру, эксперимент Алана Винфилда из лаборатории робототехники города Бристоль (Великобритания), о котором сам специалист рассказал на конференции по автономным роботам, прошедшей в начале сентября в Бирмингеме. Кратко об исследовании пишет сетевое издание New Scientist.

Реклама на веке

Винфилд разработал специальную программу, которая даёт чёткую возможность роботу удерживать другие человекообразные автоматы, играющие роль людей, от падения в яму.

Такой своеобразный эксперимент представляет собой оригинальную иллюстрацию к первому закону робототехники знаменитого американского писателя-фантаста Айзека Азимова, впервые описанному и сформулированному в его рассказе "Хоровод". В нём речь идёт о том, что робот не может причинить вред человеку или же своим бездействием допустить, чтобы человеку был нанесён вред.

Сначала у робота никаких проблем с ориентированием в пространстве не возникало. И когда "человек" приближался к яме, робот быстро отодвигал его оттуда, не давая упасть.

Но когда ученые добавили второй автомат, приближавшийся к ловушке с той же скоростью, перед роботом возник вопрос морального толка — кого же начинать спасать в первую очередь?

Иногда ему удавалось сдержать "человека", несколько раз — двоих, но в 14 случаях из 33 робот тратил большое количество времени на определённые размышления этического толка. И пока это происходило, испытуемые "роботочеловеки" один за одним сваливались в яму.

Винфилд находит неутешительными результаты собственного эксперимента. Он делает основной акцент на том, что роботы всё еще остаются малоразвитыми с точки зрения этики, то есть, они способны соблюдать определенный поведенческий комплекс правил, но по-прежнему не понимают его моральных устоев.

Научить машины принимать этические решения помогут специалисты по военной робототехнике. Известный специалист по робоэтике Рональд Аркин разработал новую программу управления (назвав её "этический руководитель"), которая обязана помочь роботам активно действовать на полях боя, благодаря чему они сами смогут решать, в каких ситуациях прекращать огонь, в какой обстановке (близ школы или, к примеру, больницы) стремиться уменьшить количество жертв.

В отличие от солдат, подверженных различным переживаниям, машины никогда не нарушат эти законы, помогая снизить потери среди мирного населения во время боевых действий, считает учёный. Это ли не хорошая новость для всех, желающих воплощения научно-фантастических идей?

Конечно, есть определённые шансы, что будущие разработки попадут в руки террористам и просто аморальным политикам, став опасной игрушкой для разжигания войн и междоусобиц. Стоит только вспомнить фильмы о Терминаторе, которые на фоне новейших разработок уже не кажутся столь фантастичными. Но будем надеяться, что с каждым годом уровень интеллекта "умных машин" продолжит возрастать, а все перспективные предсказания фантастов сбудутся. Благодаря подобным разработкам у нас есть все шансы вскоре увидеть действительно похожих на человека, но унаследовавших лишь их позитивные качества, помощников. Терпение, только терпение - и мы дождёмся добрых и умных киборгов, которые станут надёжной защитой!

Реклама на веке
Динамика авторынка Санкт-Петербурга Рада одобрила назначение главы Нацгвардии министром обороны