«Меня заставил это сделать робот»: ИИ поощряет людей к принятию рискованных решений



Автор Сергей Лукавский

Источник

Появились хорошие новости для тех, кто любит принимать безумные решения, стараясь при этом уйти от ответственности за содеянное: теперь козлом отпущения они смогут сделать роботов.

Согласно данным очередной научной работы, результаты которой были опубликованы недавно Саутгемптонским университетом в журнале Cyberpsychology, Behavior and Social Networking, роботы действительно могут поощрять людей к принятию рискованных решений. Это исследование проводилось под руководством  доцента кафедры управления рисками Саутгемптонского университета доктора Янива Ханоха.

В исследовании приняли участие 180 студентов бакалавриата, которым компьютер выставлял оценку, определяющую насколько вероятным будет их готовность искушать судьбу в ситуациях, когда им предоставлялась возможность продолжить работу, столкнувшись с потенциальными убытками, или взять деньги и все бросить.

«Студенты из контрольной группы (треть участников) проходили тестирование одни в помещении; другая треть выполняла задания теста вместе с роботом, который лишь давал им инструкции, но молчал все остальное время; и, наконец, экспериментальная группа проходила тест с роботом, который давал инструкции, а также высказывал слова одобрения и поддержки…».

Как показал эксперимент, группа, которую воодушевляли роботы, шла на больший риск —  и в целом заработала больше денег, чем остальные.

«Мы знаем, что давление, оказываемое на студента сверстниками, может привести к принятию более рискованных решений. В условиях постоянно нарастающего масштаба взаимодействия людей и технологий — как онлайн, так и физически — очень важно, чтобы мы хорошо понимали, могут ли машины оказывать подобное влияние», — объяснил Ханох.

Он продолжил: «Мы наблюдали, как у участников из контрольной группы снижалась готовность рисковать из-за звука лопнувшего воздушного шарика, в то время как участники из экспериментальной группы демонстрировали после этого готовность рисковать, как и прежде. Таким образом, прямое ободрение со стороны робота, поощряющее риск, как оказалось, пересиливает личный опыт и инстинкты участников».

Ханох забил тревогу по поводу необходимости продолжения этого исследования в связи с грядущим массовым внедрением искусственного интеллекта, поскольку в ходе своего исследования пришел к заключению: «В связи с широким распространением технологий искусственного интеллекта и его взаимодействия с людьми эта сфера требует неотложного внимания со стороны ученых. С одной стороны, наши результаты могут вызвать тревогу по поводу того, что роботы могут причинить вред, способствуя принятию рискованных решений. С другой стороны, наши данные указывают на возможность использования роботов и систем ИИ в профилактических программах, таких как кампании по борьбе с курением в школах или работа с особыми группами населения, как например, наркоманы».

«Более полное понимания того, могут ли роботы влиять на принятие решений, связанных с высокими рисками, может иметь большое этическое, практическое и политическое значение», — говорится в заключении. И, конечно же, это также могло бы дать людям повод снять с себя какую-либо ответственность, обвинив в причинах своего сомнительного поведения неодушевленные «объекты», которые не могут «возразить».

 

Источник:  gearmix.ru

 

Заставка:  pixabay

Перейти к рубрике ЧЕЛОВЕК


Уважаемые посетители сайта! Настоятельно просим не употреблять брань в комментариях.
Комментарии модерируются. Пишите корректно.
А если вам понравился материал, пожалуйста поделитесь им в социальных сетях


Важно:
Все материалы представленные на данном сайте, предназначены исключительно для ознакомления. Все права на них принадлежат их авторам и/или их представителям в России. Если вы являетесь правообладателем какого-либо материала и не хотели бы, чтобы данная информация распространялась среди читателей сайта без вашего на то согласия, мы готовы оказать вам содействие, удалив соответствующие материалы или ссылки на них. Для этого необходимо, направить электронное письмо на почтовый ящик fond_rp@mail.ru с указанием ссылки на материал. В теме письма указать Претензия Правообладателя.