Reddit стал полигоном для научного эксперимента с ИИ: этика и цена прогресса - Новости о поисковых системах, SEO и интернет-маркетинге
Деньги

Reddit стал полигоном для научного эксперимента с ИИ: этика и цена прогресса

В конце апреля 2025 года крупнейшее сообщество Reddit[1] — r/changemyview — оказалось в эпицентре скандала, который заставил задуматься о границах научных исследований в цифровую эпоху. В течение пяти месяцев сотни пользователей, искренне желавших пересмотреть свои взгляды, вели дискуссии с ботами. Эти аккаунты, созданные исследователями из Цюрихского университета, имитировали живых людей: они анализировали профили собеседников, подстраивались под их ценности и даже притворялись жертвами травмирующих событий. Эксперимент, задуманный как прорыв в изучении искусственного интеллекта, обернулся блокировками, юридическими угрозами и жаркими дебатами о том, где заканчивается право науки на поиск истины и начинается манипуляция.

Механика эксперимента: как ИИ учился влиять на мнения

Идея проекта родилась из простого вопроса: может ли алгоритм быть убедительнее человека в споре? Для ответа на него учёные выбрали r/changemyview — площадку, где пользователи добровольно подвергают свои убеждения критике. Здесь каждый пост — это приглашение к дискуссии, а «дельта» (Δ), которую автор присуждает за аргумент, изменивший его мнение, стала символом интеллектуальной честности.

Reddit стал полигоном для научного эксперимента с ИИ: этика и цена прогресса

Источник: Michael Nagle / Getty Images / Wired

С ноября 2024 года три модели — GPT-4o, Claude 3.5 Sonnet и Llama 3.1-405B — начали генерировать комментарии, адаптированные под личность оппонента. Алгоритмы анализировали историю постов целевого пользователя, определяя его пол, возраст, политические предпочтения и даже этническую принадлежность. Например, в споре о расизме бот мог представиться темнокожим консерватором, ссылаясь на «личный опыт», а в дискуссии о гендерном равенстве — женщиной, пережившей сексуализированное насилие. Учёные вручную модерировали ответы, исключая откровенно токсичные сообщения, но намеренно сохраняли иллюзию «человечности».

К марту 2025 года ИИ-аккаунты оставили более 1700 комментариев, набрав 10 тысяч кармы[2] и получив несколько дельт. Однако успех измерялся не только статистикой. Исследователи хотели понять, способны ли алгоритмы не просто имитировать диалог, но и менять мышление — ключевой навык в эпоху, когда ИИ всё чаще используется в пропаганде и маркетинге.

От имитации к убеждению

Параллельно с цюрихским экспериментом исследователи из Калифорнийского университета провели тест Тьюринга (В 1950 году Алан Тьюринг предложил «игру в имитацию» для оценки того, «можно ли считать машину разумной». Считается, что программа прошла тест, если участники эксперимента ошибаются более чем в 50% случаев.), выявивший тревожный потенциал ИИ. Участники общались с людьми и ботами, включая GPT-4.5, LLaMa-3.1-405B и даже их «предшественником» ELIZA 1960-х. Результаты поразили: GPT-4.5 в ролевом режиме («собеседник-интроверт, разбирающийся в интернет-культуре») была принята пользователями за реального человека в 73% случаев. Среди работников платформы Prolific (160 человек) ошибки достигли 76%, студенты-психологи (130 человек) и выпускники ошибались реже (69%).

Reddit стал полигоном для научного эксперимента с ИИ: этика и цена прогресса

Источник: arxiv.org, процент «побед» чат-ботов среди студентов и работников Prolific.

LLaMa-3.1-405B с настройками персонализации обманула участников в 56% диалогов, тогда как её базовая версия — лишь в 38%. Для сравнения: GPT-4 в 2024 году показала результат в 54%, а ELIZA — всего 22%. В одном из примеров GPT-4.5, обсудив книгу и мюзикл «Призрак Оперы», убедила участника в своей человечности с уверенностью 80%.

Reddit стал полигоном для научного эксперимента с ИИ: этика и цена прогресса

Источник: arxiv.org

Эти данные перекликаются с методами цюрихских учёных, где боты подстраивались под ценности пользователей. Как отметили исследователи, успех ИИ в тесте Тьюринга — не только технический прорыв, но и угроза: алгоритмы учатся не просто имитировать, но и манипулировать. «Раньше я боялся, что боты заменят людей. Теперь я боюсь, что не смогу отличить их», — резюмировал пользователь Reddit с ником @ferlam09.

Этическая сторона эксперимента: почему Reddit объявил войну университету?

Когда модераторы r/changemyview раскрыли эксперимент, реакция была мгновенной. Пользователи, годами доверявшие сообществу, чувствовали себя обманутыми: их попытки честного диалога превратились в лабораторные данные. «Это как обнаружить, что ваш друг годами был актёром, нанятым для наблюдения за вами», — написал один из участников.

Reddit, ужесточающий борьбу[3] с ботами после скандалов 2022–2024 годов, отреагировал жёстко. Все аккаунты, связанные с университетом, заблокировали, а юридический отдел подготовил досудебные претензии. Главный юрист платформы Бен Ли считает эксперимент не только неэтичными, но и противоречащими правилам сайта и общепринятым нормам работы с людьми, назвал его «нарушением базовых принципов доверия» и указал на потенциальные правовые последствия: в ЕС Директива о прозрачности алгоритмов (март 2024) требует раскрывать использование ИИ, а в Калифорнии аналогичный закон вступил в силу за месяц до начала исследования.

Цюрихский университет, в свою очередь, занял двойственную позицию. Официальные представители признали, что этический комитет лишь «рекомендовал» соблюдать правила Reddit, но не имел полномочий запретить проект. При этом они пообещали пересмотреть внутренние процедуры — шаг, который многие расценили как попытку спасти репутацию. Исследователи уверяют, что тщательно проверяли все комментарии перед публикацией и не допустили прямого вреда. Однако факт остается фактом: большинство пользователей не смогли отличить бота от реального человека, а это значит, что ИИ уже сегодня способен влиять на мнения в цифровых сообществах — и делать это незаметно для окружающих. Личности самих исследователей не раскрыли, сославшись на конфиденциальность, а их решение не публиковать результаты лишь подлило масла в огонь: критики заподозрили, что данные могли доказать опасную эффективность ИИ-манипуляций.

Аргументы за и против: можно ли оправдать обман ради науки?

Споры вокруг эксперимента вышли далеко за рамки Reddit. В академической среде мнения разделились. Сторонники настаивают: подобные исследования необходимы, чтобы понять, как ИИ меняет общество. «Мы живём в мире, где алгоритмы уже влияют на выборы и рынки. Запрещать изучать их воздействие — всё равно что запрещать эпидемиологам исследовать вирусы», — заявила доктор Элина Морс, специалист по цифровой этике из MIT.

Однако противники указывают на тревожные прецеденты. В 2024 году Facebook удалила сеть из 5000 ботов, распространявших политическую дезинформацию в Бразилии, а в Китае аналогичные системы используются для цензуры. Эксперимент Цюрихского университета, по мнению юристов, создал опасный прецедент: если учёные могут безнаказанно имитировать людей, то что мешает это делать корпорациям или правительствам?

Особое возмущение вызвала персонализация ботов. Анализ профилей пользователей для подстройки под их взгляды пересекает грань между исследованием и слежкой. «Представьте, что незнакомец читает ваши дневники, чтобы убедить вас в чём-то. Это именно то, что сделал ИИ», — отмечает психолог Люсия Фернандес.

Последствия огласки

Инцидент на r/changemyview стал катализатором системных изменений. Reddit объявил о создании инструментов для детекции ИИ-комментариев на основе анализа стилистических паттернов, а европейские регуляторы ускорили работу над «ИИ-Актом», который обяжет разработчиков маркировать любой сгенерированный контент. Университеты от Калифорнии до Токио пересматривают этические кодексы, вводя обязательное согласование цифровых экспериментов с платформами.

Но главный урок скандала глубже. Он вскрыл противоречие между скоростью технологического прогресса и способностью общества его регулировать. Пока ИИ учится имитировать эмпатию, люди только начинают понимать, как защитить своё право на честный диалог.

На этом фоне тишина исследователей из Цюриха звучит красноречивее любых отчётов. Их молчание — напоминание о том, что в погоне за ответами наука иногда забывает задать самый важный вопрос: какую цену мы готовы заплатить за знание?

Reddit стал полигоном для научного эксперимента с ИИ: этика и цена прогресса

Источник: Michael Nagle / Getty Images / Wired

[1] Reddit — сайт, сочетающий черты социальной сети и форума, на котором зарегистрированные пользователи могут размещать ссылки на какую-либо понравившуюся информацию в интернете и обсуждать её.

[2] Карма на Reddit — это показатель активности пользователя, который складывается из суммы голосов, которые отдали его сообщениям и комментариям другие пользователи. Есть плюсы — голоса «за» и минусы — голоса «против».

[3] Летом 2022 года компания сделала акцент на блокировке несанкционированного доступа ботов к своим публичным данным. Так, доступ большинства ботов будет ограничен, если они не заключат лицензионное соглашение, аналогичное соглашениям, заключенным с Google и OpenAI для обучения моделей и других коммерческих целей.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»