市值
24小时
10071
Cryptocurrencies
58.26%
Bitcoin 分享

Нейросеть цифровых копий разума

Нейросеть цифровых копий разума


Forklog
2025-07-09 14:30:00

В конце июня сооснователь OpenAI Илья Суцкевер поделился видением развития искусственного интеллекта. По его мнению, уже скоро ИИ-агенты смогут выполнять месячный объем работы человека за считанные часы и станут полноценными виртуальными коллегами, которых можно масштабировать до миллионов. Переход к моделям с истинным «рассуждением», которые «меняют все», вызывают у многих тревогу. Суцкевер призвал не бояться будущего, а формировать его, адаптируясь к изменениям. В новом материале ForkLog рассмотрим, как развиваются когнитивные системы искусственного интеллекта и какие вызовы они бросают не только разработчикам, но и пользователям.  Думай о том, что думаешь Последние два года ИИ-сообщество все чаще обсуждает будущие последствия параболического развития цифрового разума, достижения интеллекта общего назначения (AGI) и даже сверхразумного ASI. В этом контексте ученые пытаются определить, каким будет следующий шаг. Большинство корпоративных «провидцев» предсказывают, что ближайшим поколением ИИ станут разные формы когнитивного искусственного интеллекта (CAI). Генеральный директор Google DeepMind Демис Хассабис в интервью Wired заявил, что шанс достичь AGI в ближайшие 5–10 лет составляет 50%. Дальше, по его словам, нас ждет «эра максимального расцвета человечества» с колонизацией галактики, стартующей уже в 2030 году.  Режим Deep Think чат-бота Gemini от Google может стать следующим этапом «метапознания», в котором машина выполняет многослойную логику и планирование, приближаясь к когнитивному мышлению. Старший научный сотрудник Meta AI Ян ЛеКун год назад предложил молодому поколению воздержаться от изучения LLM. Он считает, что в этой области уже доминируют крупные компании и это не путь к развитию искусственного интеллекта. «Если вы студент, заинтересованный в создании систем ИИ следующего поколения, не работайте над LLM», — сказал он. Вместо этого команда Meta сосредоточилась на «моделях мира» как у животных и людей — системе V-JEPA, предназначенной для формирования подлинного понимания окружающей среды. Она обучается интуитивному мышлению на основе видео с помощью самоконтролируемого обучения. По сравнению с мультимодальными LLM она продемонстрировала более глубокое понимание физики, несмотря на то, что ей потребовалось меньше обучающих данных. Модель делает прогнозы в абстрактном пространстве представлений — подобно тому как, по мнению ЛеКуна, обрабатывает информацию человеческий мозг. С начала 2024 года OpenAI начала внедрять долговременную память в ChatGPT, делая шаг к моделированию устойчивого «я» и индивидуального стиля мышления. Компания стремится в будущем создать сеть ИИ-агентов с глубоким пониманием пользователя. Один из главных поставщиков инфраструктурных ресурсов для мирового ИИ — корпорация Nvidia — создала серию инициатив в поддержку развития технологии ориентации роботов в пространстве — стека DePAI. Глава компании Дженсен Хуанг считает моделирование реального мира и его цифровых копий, включая людей, предварительным этапом рассуждающих ИИ.  Если обобщить, CAI — это попытка встроить в систему следующие качества: причинно-следственное мышление; предсказание последствий; учет моральных и правовых норм; поддержание целостности суждений на протяжении времени; контекстную память и моделирование идентичности пользователя. Такие модели пока далеки от настоящего сознания, но они уже создают системный сдвиг в сторону симуляции мышления. Если LLM — это синтаксис и риторика, то CAI, скорее, логика и философия. Когнитивные бомбы То, что 20 лет назад можно было увидеть лишь в фантастических боевиках, сегодня повсеместно внедряется в оборонные механизмы ведущих государств. Учитывая накаленность внешней политики последних лет, бюджеты на оборону с каждым годом раздуваются все сильнее. Главным драйвером прорыва в эффективной защите граждан выступает ИИ, а именно передовые разработки в области самостоятельного принятия решений и моделировании последствий. Армия США активно тестировала когнитивное взаимодействие задолго до появления моделей с уклоном в размышления.  Так, в 2012 году Агентство по перспективным оборонным научно-исследовательским разработкам США (DARPA) представило уникальную систему компьютерного зрения. Работа оператора когнитивного нейроинтерфейса CT2WS. Данные: ExtremeTech. CT2WS — система «мозг-компьютер», использующая нейроинтерфейсы и нейронные сети — предупреждала пехоту об угрозах. Она состоит из 120-мегапиксельных камер, радара, кластера компьютеров для распознавания объектов и операторов со сканерами мозговой активности. Для минимизации ложных срабатываний задействован мозг оператора. К системе видеонаблюдения подключали людей и быстро прокручивали перед ними подозрительные кадры. При этом с операторов снимали электроэнцефалограмму. Если человек видел опасность, его реакцию моментально фиксировал нейроинтерфейс. В результате количество фальшивых срабатываний удалось уменьшить с 810 до пяти в час. Системы компьютерного зрения в последние годы стали доступны рядовым пользователям. В первую очередь они пригодились в автомобилях Tesla для функции автопилота. Учитывая секретность и приоритетность правительственных организаций, трудно предположить, насколько развилось военное дело спустя декаду. За последний год темпы милитаризации искусственного интеллекта, информацию о которых можно найти в открытом доступе, настораживают. В марте стало известно о применении ИИ-агентов в Минобороны США для моделирования столкновений с иностранными армиями. В рамках сотрудничества со Scale AI планируется разработка платформы Thunderforge, предназначенной для повышения эффективности принятия решений на поле боя. Реализация проекта запланирована в сотрудничестве с Anduril и Microsoft. Это не первое участие ИИ-корпораций в оборонной сфере. Известно о многолетнем сотрудничестве Microsoft с Армией обороны Израиля: в феврале 2025 года это вызвало протесты со стороны сотрудников техгиганта.  В январе OpenAI заключила соглашение с Национальными лабораториями США для применения ИИ-моделей стартапа в исследовании ядерного оружия. Ранее Meta открыла свои технологии для правительственных учреждений и оборонных подрядчиков США и союзников. Вслед за ней это сделала компания Anthropic. К тому же существуют многочисленные свидетельства некорректной работы милитаризованного ИИ, приведшей к необоснованным разрушениям и гибели мирного населения. Все эти факторы наряду с централизацией технологии корпорациями вдохновляют инженеров на разработку методов этичного использования технологий искусственного интеллекта. https://forklog.com/glavnoe-za-mesyats-vyzovy-dlya-bitkoina-aktualnaya-kiberbezopasnost-i-militarizatsiya-ii Моральный компромисс Один из пионеров ИИ Йошуа Бенжио раскритиковал многомиллиардную гонку за разработкой передовых технологий. Он заявил о наличии опасных характеристик в последних моделях и обмане пользователей. Свои предостережения ученый высказал в начале лета во время запуска новой некоммерческой организации LawZero. По словам Бенжио, группа сосредоточится на создании более безопасных систем и «изолирует исследования от коммерческого давления». Решение специалиста совпадает с намерением OpenAI отойти от своих «благотворительных» корней и превратиться в коммерческую компанию. Предполагается, что ИИ-модели от LawZero не станут давать однозначных ответов, как это делают современные системы. Вместо этого они будут предоставлять вероятность того, насколько ответ может быть верным. В интервью The Guardian Бенжио отметил, что его модели будут обладать «чувством скромности — осознанием того, что они не уверены в своем ответе». Ученый надеется создать модель, которая сможет совершенствовать существующие предложения ведущих групп искусственного интеллекта и предотвращать их действия, противоречащие интересам человека. «Худший сценарий — это вымирание человечества. Если мы создадим искусственный интеллект, который будет умнее нас, не будет согласован с нами и конкурировать, то нам, по сути, конец», — заявил он. Среди новых стартапов находятся также те, кто готов отстаивать будущее человечества, строя разумные и этичные модели ИИ. MindCast AI (MCAI) — концептуально проработанный пример когнитивного ИИ. Система моделирует принятие решений с акцентом на этическую целостность суждений и предсказуемость поведения в будущем.  Основатель компании Ноэль Ли появился в публичном пространстве на Substuck около трех месяцев назад с предельно ясным и укомплектованным решением. Хотя практических подтверждений технологии продемонстрировать пока не удалось, сама концепция вызывает интерес. MCAI — это CAI, разработанная для симуляции суждений и поведения человеческих агентов. Она сосредоточена на результатах вместо предсказаний на основе исторических данных. Система использует моделирование, чтобы предвосхищать поведение в реальном мире. Согласно техническому описанию, с помощью MCAI пользователи могут: моделировать поведение ключевых фигур в условиях неопределенности или давления; предвидеть юридические, репутационные и эмоциональные реакции до того, как они произойдут; определить расхождения между речью и действиями; отслеживать влияние институциональных стимулов на траекторию решений; прогнозировать моральные риски и социальную реакцию; протестировать стратегии предвидения до их реализации. Текущие ИИ-модели оптимизированы под скорость и масштаб, но игнорируют более глубокие вопросы, определяющие разумные решения: доверие, благополучие человека, предсказуемость. «Миллиарды направляются в стартапы на основе репутации основателей, а не продемонстрированных возможностей», — говорится в манифесте MCAI. Сравнение LLM, специализированных инструментов и CDT от MCAI. Данные: MCAI. Система MCAI включает три основные способности: интеграция предвидения. Моделирование будущего с помощью запатентованного движка вероятностного прогнозирования, слоев байесовского вывода, сценарного анализа и оценки непредвиденных последствий; калибровка доверия. Все данные проходят через модель доверительных когнитивных сигналов, которая различает корреляцию и причинность, отфильтровывает статистический шум до включения логики решений; архитектура согласованности. Обеспечивает логическую и моральную согласованность с помощью движка ALI (языковая целостность действий), системы CMF (когнитивная точность моторики) для достоверности инсайтов в конкретной области. Патентованная структура когнитивного цифрового двойника (CDT) зарегистрирована в апреле 2025 года. Система уже применяется в анализе корпоративных стратегий, разработке политик и антимонопольных расследованиях. В построении личного ИИ-агента стартап использует доверие. «Без доверительных когнитивных архитектур ИИ-компаньоны превращаются в системы тотального наблюдения», — сказано в манифесте. MCAI решает эту проблему с помощью памяти, целостности и идентичности. Ноэль Ли утверждает, что их CDT моделирует решения, привязывается к моральной архитектуре, а также поддерживает согласованность с течением времени, развиваясь вместе с историей и ценностями. Отцы и дети Основатель ИИ-криптостартапа SingularityNET Бен Герцель считается одним из отцов ИИ, а также идейным лидером концепции AGI. Наверное, поэтому он так усердно пытается защитить ее будущее. Исследователь не приемлет централизацию и милитаризацию технологий, которые могут навредить свободе выбора и проявлению человека. Основанная Герцелем в 2017 году блокчейн-платформа SingularityNET стала продолжением его видения о достижении AGI. В основе проекта лежит децентрализованная инфраструктура для разработки ИИ с особым акцентом на системы вроде Hyperon.  Совместно с Fetch.ai, CUDOS и Ocean Protocol компания SingularityNET объединилась в коалицию под названием Artificial Superintelligence Alliance с токеном ASI. Цель альянса — максимально сконцентрировать ресурсы для конкуренции с лидерами индустрии.     В сентябре 2024 Герцель заявил, что система на базе OpenCog Hyperon проявляет признаки частичного самосознания: это автономный агент с «собственными целями» — не просто чат-бот. Выход экспериментальной версии Baby AGI запланирован на 2025 год. Еще один ИИ-отец — автор концепции «память-предсказание»Джефф Хокинс. Сейчас он работает над созданием «биологически правдоподобного» ИИ, основанного на неокортикальных принципах устройства мозга. Модель мира, память, иерархия представлений — все это приближает открытую в начале года некоммерческую организацию Thousand Brains Project на базе Numenta к когнитивному ИИ. Децентрализованная атмосфера Web3 располагает всем необходимым для свободного развития ИИ, позволяет отслеживать и корректировать вектор технологии. Artificial Superintelligence Alliance, построенная на схожих принципах, удачно воспользовалась всеми преимуществами блокчейна.  Развитие CAI происходит достаточно быстро, первые рабочие модели ожидаются в этом году. Пока гигантские ИИ-корпорации соревнуются за превосходство и новые оборонные заказы, обнадеживает растущее количество стартапов с уклоном в децентрализацию.


阅读免责声明 : 此处提供的所有内容我们的网站,超链接网站,相关应用程序,论坛,博客,社交媒体帐户和其他平台(“网站”)仅供您提供一般信息,从第三方采购。 我们不对与我们的内容有任何形式的保证,包括但不限于准确性和更新性。 我们提供的内容中没有任何内容构成财务建议,法律建议或任何其他形式的建议,以满足您对任何目的的特定依赖。 任何使用或依赖我们的内容完全由您自行承担风险和自由裁量权。 在依赖它们之前,您应该进行自己的研究,审查,分析和验证我们的内容。 交易是一项高风险的活动,可能导致重大损失,因此请在做出任何决定之前咨询您的财务顾问。 我们网站上的任何内容均不构成招揽或要约