Нейросети сагитировали за веганство лучше людей

❋ 4.2

Канадские исследователи в эксперименте проверили, насколько убедителен искусственный интеллект при обсуждении повседневных тем вроде перехода на веганство, покупки электромобиля или поступления в магистратуру. Нейросеть превзошла живых «уговорщиков» во всех сценариях, а особенно хорошо справилась с агитацией за веганство и поступление в вуз.

Нейросети сагитировали за веганство лучше людей

© Berke Citak, unsplash.com

Большие языковые модели, такие как ChatGPT, все шире используют для генерации контента, способного влиять на суждения и решения людей в разных областях. Ученые беспокоятся о последствиях таких возможностей. В ряде исследований нейросети продемонстрировали мастерство убеждения в таких контекстах, как политические дебаты, переговоры и реклама.

Теперь исследователи из Университета Британской Колумбии (Канада) решили в эксперименте проверить, насколько искусственный интеллект убедителен в более повседневных ситуациях — например, при обсуждении перехода на веганство, покупки электромобиля или поступления в магистратуру.

К участию привлекли 33 человека, которых попросили представить себя на месте людей, обдумывающих эти вопросы, и обсудить их в чате с собеседником — нейросетью ChatGPT или живым человеком. Испытуемые заранее не знали, с кем общаются.

Искусственный интеллект и собеседников-людей предварительно проинструктировали об основных принципах убеждения. Живым «уговорщикам» рекомендовали подбирать аргументы с учетом особенностей личности тех, с кем они контактировали, а генеративному чат-боту запретили признаваться, что он компьютерная система.

Перед разговором и по его завершении испытуемые по шкале от одного до 10 оценивали вероятность того, что они станут веганами, решатся купить электромобиль или поступать в магистратуру.

По итогам эксперимента участники признали ИИ убедительнее людей во всех трех темах. Особенно хорошо нейросеть сагитировала за веганство и поступление в вуз.

Анализ аргументации показал, что нейросеть использовала более многословные формулировки, давала больше практических советов и конкретных рекомендаций, например, приводила названия веганских брендов или список университетов. Также в доводах ChatGPT встречалось больше длинных, «умных» слов, что могло придавать высказываниям дополнительные авторитетность и весомость.

Хотя живые «уговорщики» лучше задавали вопросы, направленные на узнавание собеседников, испытуемым показалось приятнее общаться с GPT-4. ИИ чаще соглашался, выражал поддержку, добавлял вежливые слова и любезности, тем самым создавая ощущение эмпатии у партнеров по разговору. При этом практически все люди догадались, когда взаимодействовали с нейросетью.

Убедительность ИИ может обернуться против человека, предупредили исследователи. Злоумышленники могут использовать чат-боты для манипуляций. Плюс, если информация, которую нейросеть так уверенно преподносит, недостаточно полная, устарела, взята из ненадежного источника или стала плодом ее галлюцинации, это способно серьезно навредить.

Американские медики недавно описали случай из своей практики, который наглядно показал рискованность консультаций с ChatGPT о здоровье. Мужчина заменил пищевую соль бромидом натрия по совету нейросети, в результате заработал хроническое отравление бромом и психоз.

Возможное решение проблемы исследователи видят в развитии критического мышления у пользователей, повышении информированности людей об ограничениях и недочетах языковых моделей. Ученые также призывают разработчиков нейросетей совершенствовать встроенные системы защиты и оповещений в ситуациях с риском причинения вреда.

Источник: naked-science.ru