Кто виноват?  Как мы воспринимаем ответственность в человеке

Блог

ДомДом / Блог / Кто виноват? Как мы воспринимаем ответственность в человеке

Jun 02, 2023

Кто виноват? Как мы воспринимаем ответственность в человеке

Резюме: Даже когда люди рассматривают помощников на базе ИИ просто как инструменты, они все равно возлагают на эти системы частичную ответственность за принимаемые решения. В ходе исследования было изучено, как участники воспринимают

Краткое содержание:Даже когда люди рассматривают помощников на базе ИИ просто как инструменты, они все равно возлагают на эти системы частичную ответственность за принимаемые решения.

В ходе исследования изучалось, как участники воспринимают ответственность, когда водитель-человек использует помощника с искусственным интеллектом, а не навигационный прибор без искусственного интеллекта. Участники пришли к выводу, что ИИ-помощники частично ответственны как за успехи, так и за неудачи, хотя и утверждают, что эти системы являются всего лишь инструментами.

Исследование проливает новый свет на то, как люди применяют разные моральные стандарты для похвалы и порицания, когда ИИ участвует в принятии решений.

Ключевые факты

Источник:ЛМУ

Как показывает новое исследование, даже когда люди рассматривают помощников на базе ИИ исключительно как инструменты, они приписывают им частичную ответственность за решения.

Будущие системы на базе искусственного интеллекта смогут управлять автономными транспортными средствами в пробках без вмешательства человека. Исследования показали, что люди считают, что такие футуристические системы искусственного интеллекта столь же ответственны, как и люди, когда они принимают автономные решения о дорожном движении. Однако реальные помощники ИИ далеки от такой автономии.

Они предоставляют пользователям вспомогательную информацию, такую ​​как средства навигации и вождения. Итак, кто несет ответственность в реальных случаях, когда что-то идет хорошо или неправильно? Пользователь-человек? Или ИИ-помощник?

Команда под руководством Луи Лонгена с кафедры философии разума теперь исследовала, как люди оценивают ответственность в этих случаях.

«У каждого из нас есть умные помощники в карманах», — говорит Лонгин.

«Тем не менее, многие экспериментальные данные, которые мы имеем о пробелах в ответственности, сосредоточены на роботах или автономных транспортных средствах, где ИИ буквально находится на месте водителя, принимая решения за нас. Крайне важно расследовать случаи, когда мы по-прежнему принимаем окончательное решение, но используем ИИ скорее как сложный инструмент».

Философ, специализирующийся на взаимодействии между людьми и искусственным интеллектом, Лонгин, работая в сотрудничестве со своим коллегой доктором Бахадором Бахрами и профессором Офелией Дерой, заведующей кафедрой философии разума, исследовал, как 940 участников оценивали водителя-человека, используя интеллектуальный интеллектуальный компьютер на базе искусственного интеллекта. вербальный помощник, умный тактильный помощник на базе искусственного интеллекта или навигационный инструмент без искусственного интеллекта. Участники также указали, считают ли они навигационное средство ответственным и в какой степени оно является инструментом.

Амбивалентный статус умных помощников

Результаты показывают двойственность: участники решительно утверждали, что умные помощники — это всего лишь инструменты, однако они считали их частично ответственными за успехи или неудачи людей-водителей, которые с ними консультировались. Для прибора без искусственного интеллекта такого разделения ответственности не произошло.

Не менее удивительным для авторов было то, что умные помощники также считались более ответственными за положительные, а не за отрицательные результаты.

«Люди могут применять разные моральные стандарты к похвале и порицанию. Когда катастрофа предотвращена и вреда не наступает, стандарты смягчаются, и людям становится легче отдать должное, а не обвинять нечеловеческие системы», — предполагает доктор Бахрами, эксперт по коллективной ответственности.

Роль языка не имеет значения

В ходе исследования авторы не обнаружили разницы между умными помощниками, которые использовали речь, и теми, которые тревожили своих пользователей тактильной вибрацией колеса.

«В данном случае они предоставили одну и ту же информацию: «Эй, осторожно, кое-что впереди», но, конечно, на практике ChatGPT дает гораздо больше информации», — говорит Офелия Дерой, чье исследование изучает наше противоречивое отношение к искусственному интеллекту как форме анимистические верования.

Что касается дополнительной информации, предоставляемой новыми языковыми системами искусственного интеллекта, такими как ChatGPT, Дерой добавляет: «Чем богаче взаимодействие, тем легче его антропоморфизировать».

«В целом, наши результаты подтверждают идею о том, что ИИ-помощники рассматриваются как нечто большее, чем просто рекомендательные инструменты, но, тем не менее, они остаются далекими от человеческих стандартов», — говорит Лонгин.