19 сентября, 2024

SolusNews.com

Последние новости

Люди меняют свое поведение во время тренировки ИИ

Люди меняют свое поведение во время тренировки ИИ

Автор Крис Вулстон

Новое междисциплинарное исследование, проведенное исследователями из Вашингтонского университета, выявило неожиданный психологический феномен на стыке человеческого поведения и искусственного интеллекта: когда им сказали, что они обучают ИИ вести торговую игру, участники активно изменили свое поведение, чтобы оно выглядело более справедливым и справедливым. более справедливая мотивация, которая потенциально может иметь важные последствия для… реальных разработчиков искусственного интеллекта.

«Участники, похоже, заинтересованы в обучении ИИ справедливости, и это обнадеживает, но у других людей могут быть другие цели», — сказала Лорен Трейман, аспирант кафедры вычислительной техники и наук о данных и ведущий автор исследования. «Разработчики должны знать, что люди намеренно изменят свое поведение, когда узнают, что оно будет использоваться для обучения ИИ».

Исследование, опубликованное в журнале Proceedings of the National Academy of Sciences, было поддержано стартовым грантом от Междисциплинарный институт прикладных наук о данных (TRIADS)Это особая инициатива Стратегического плана искусств и наук. Соавторы: Водяное охлаждениеДоцент кафедры психологии и наук о мозге Колледжа искусств и наук, Чэнь Джу ХоДоцент кафедры компьютерных наук и инженерии Инженерной школы МакКелви. Коул — научный руководитель Тримана.

Исследование включало пять экспериментов, в каждом из которых участвовало от 200 до 300 участников. Участникам было предложено сыграть в «ультимативную игру» — задачу, которая требовала от них договориться о небольших суммах денег (всего от 1 до 6 долларов) с другими игроками-людьми или компьютером. В некоторых случаях им говорили, что их решения будут использованы для обучения ИИ-бота игре.

Игроки, которые считали, что тренируют ИИ, с большей вероятностью стремились получить справедливую долю прибыли, даже если эта справедливость стоила им нескольких долларов. Интересно, что это изменение в поведении продолжалось даже после того, как им сказали, что их решения больше не используются для обучения ИИ, что позволяет предположить, что опыт формирования технологии оказал длительное влияние на принятие ими решений. «Как ученые-когнитивисты, мы заинтересованы в формировании привычек», — сказал Коул. «Это отличный пример, потому что поведение сохраняется, даже когда оно больше не нужно».

READ  Дважды сыграть в Hellblade II необходимо, чтобы раскрыть его темы.

Но мотивация такого поведения не совсем ясна. Исследователи не спрашивали о конкретных мотивах и стратегиях, и Коул объяснил, что участники, возможно, не чувствовали твердого стремления сделать ИИ более этичным. Возможно, сказал он, что этот опыт просто продемонстрировал их естественную склонность отклонять предложения, которые кажутся несправедливыми. Он добавил: «Может быть, они на самом деле не думают о будущих последствиях. Возможно, они выбирают легкий выход».

«Исследование подчеркивает важность человеческого фактора в обучении ИИ», — сказал Ху, ученый-компьютерщик, изучающий взаимосвязь между человеческим поведением и алгоритмами машинного обучения. «Большая часть обучения ИИ зависит от человеческих решений. учет во время обучения ИИ. Полученный ИИ также будет предвзятым, и за последние несколько лет мы наблюдали множество проблем, возникающих из-за такого рода несоответствия между обучением ИИ и его развертыванием».

По словам Хо, некоторые программы распознавания лиц, например, менее точны при идентификации цветных людей. «Отчасти это связано с тем, что данные, используемые для обучения ИИ, являются предвзятыми и не репрезентативными», — добавил он.

Сейчас Треман проводит дополнительные эксперименты, чтобы лучше понять мотивацию и стратегии людей, тренирующихся с помощью ИИ. «Очень важно учитывать психологические аспекты информатики», — сказала она.

Трейман Л.С., Хо С.Дж., Кул В. Последствия обучения искусственному интеллекту для принятия человеком решений. Труды Национальной академии наук (PNAS) 6 августа 2024 г. DOI: https://doi.org/10.1073/pnas.2408731121

/общая версия. Этот материал исходной организации/авторов может носить хронологический характер и был отредактирован для ясности, стиля и объема. Mirage.News не занимает корпоративных позиций или партий, и все высказанные здесь мнения, позиции и выводы принадлежат исключительно авторам. Полный просмотр здесь.