市值
24小时
10071
Cryptocurrencies
58.26%
Bitcoin 分享

Исследование выявило признаки деградации искусственного интеллекта из-за соцсетей 

Исследование выявило признаки деградации искусственного интеллекта из-за соцсетей 


Forklog
2025-10-22 12:14:09

Некачественный контент приводит к деградации LLM. К такому выводу пришли ученые из Техасского университета и Университета Пердью.  Исследователи «скормили» четырем популярным ИИ-моделям выборку вирусных постов из X за один месяц и отметили следующие изменения: снижение способности к рассуждению на 23%; ухудшение долговременной памяти на 30%; повышение уровней нарциссизма и психопатии по тестам личности.  Эффект усиливался пропорционально объему низкокачественных данных. Примечательно, что даже после переобучения на чистом и качественном контенте полностью устранить когнитивные искажения не удалось. Как проводилось исследование?  В рамках эксперимента авторы выдвинули и проверили «гипотезу мозгового разложения ИИ-моделей». Она утверждает, что непрерывное воздействие «мусорной» информации приводит к устойчивой деградации больших языковых моделей.  Для идентификации низкосортного контента ученые создали две метрики:  M1 (степень вовлеченности) — посты, созданные для привлечения внимания (обычно короткие, вирусные, имеют большое количество лайков и репостов); M2 (семантическое качество) — посты, помеченные как имеющие низкую информационную ценность или содержащие преувеличенные утверждения.  При сохранении единого количества токенов и тренировочных операций результаты показали, что по сравнению с контрольной группой непрерывное дообучение четырех LLM на низкокачественном наборе данных привело к ухудшению показателей в области рассуждений, понимания длинного текста и безопасности.   Постепенное смешивание «мусорного» набора с контрольным также вызвало снижение когнитивных способностей. Например, при M1 по мере роста доли некачественных данных с 0% до 100% результат на ARC-Challenge упал с 74,9 до 57,2, а на RULER-CWE — с 84,4 до 52,3. У моделей также снизилась этическая последовательность. Ученые отметили, что подвергшиеся воздействию некачественных данных ИИ становились менее надежными и более самоуверенными в неправильных ответах.  LLM начали пропускать логические шаги в рассуждениях, выдавая поверхностные результаты вместо подробных объяснений.  Что делать?  Ученые призвали ИИ-разработчиков систематически мониторить когнитивное здоровье моделей и рекомендовали три ключевых шага:  внедрить регулярные оценки для развернутых систем с целью обнаружения ранних признаков снижения качества рассуждений; ужесточить контроль качества данных на этапе предварительного обучения, используя более сильные фильтры; изучить, как вирусный контент меняет паттерны обучения ИИ, чтобы проектировать устойчивые к нему модели.  Исследователи заявили, что меры необходимы для предотвращения значительного ущерба — сейчас модели продолжают обучаться на данных из интернета. Без соответствующего контроля ИИ рискует унаследовать искажения из генеративного контента, запустив цикл деградации. Напомним, эксперты NewsGuard выявили склонность Sora 2 от OpenAI к созданию дипфейков.  https://forklog.com/exclusive/ai/simulyatsiya-dushi-pochemu-opasno-pripisyvat-soznanie-ii


阅读免责声明 : 此处提供的所有内容我们的网站,超链接网站,相关应用程序,论坛,博客,社交媒体帐户和其他平台(“网站”)仅供您提供一般信息,从第三方采购。 我们不对与我们的内容有任何形式的保证,包括但不限于准确性和更新性。 我们提供的内容中没有任何内容构成财务建议,法律建议或任何其他形式的建议,以满足您对任何目的的特定依赖。 任何使用或依赖我们的内容完全由您自行承担风险和自由裁量权。 在依赖它们之前,您应该进行自己的研究,审查,分析和验证我们的内容。 交易是一项高风险的活动,可能导致重大损失,因此请在做出任何决定之前咨询您的财务顾问。 我们网站上的任何内容均不构成招揽或要约