Turuosa ülempiirid
24h turumaht
10071
Aktiivsed krüptovaluutad
58.26%
Bitcoin Jaga

Нейросеть цифровых копий разума

Нейросеть цифровых копий разума


Forklog
2025-07-09 14:30:00

В конце июня сооснователь OpenAI Илья Суцкевер поделился видением развития искусственного интеллекта. По его мнению, уже скоро ИИ-агенты смогут выполнять месячный объем работы человека за считанные часы и станут полноценными виртуальными коллегами, которых можно масштабировать до миллионов. Переход к моделям с истинным «рассуждением», которые «меняют все», вызывают у многих тревогу. Суцкевер призвал не бояться будущего, а формировать его, адаптируясь к изменениям. В новом материале ForkLog рассмотрим, как развиваются когнитивные системы искусственного интеллекта и какие вызовы они бросают не только разработчикам, но и пользователям.  Думай о том, что думаешь Последние два года ИИ-сообщество все чаще обсуждает будущие последствия параболического развития цифрового разума, достижения интеллекта общего назначения (AGI) и даже сверхразумного ASI. В этом контексте ученые пытаются определить, каким будет следующий шаг. Большинство корпоративных «провидцев» предсказывают, что ближайшим поколением ИИ станут разные формы когнитивного искусственного интеллекта (CAI). Генеральный директор Google DeepMind Демис Хассабис в интервью Wired заявил, что шанс достичь AGI в ближайшие 5–10 лет составляет 50%. Дальше, по его словам, нас ждет «эра максимального расцвета человечества» с колонизацией галактики, стартующей уже в 2030 году.  Режим Deep Think чат-бота Gemini от Google может стать следующим этапом «метапознания», в котором машина выполняет многослойную логику и планирование, приближаясь к когнитивному мышлению. Старший научный сотрудник Meta AI Ян ЛеКун год назад предложил молодому поколению воздержаться от изучения LLM. Он считает, что в этой области уже доминируют крупные компании и это не путь к развитию искусственного интеллекта. «Если вы студент, заинтересованный в создании систем ИИ следующего поколения, не работайте над LLM», — сказал он. Вместо этого команда Meta сосредоточилась на «моделях мира» как у животных и людей — системе V-JEPA, предназначенной для формирования подлинного понимания окружающей среды. Она обучается интуитивному мышлению на основе видео с помощью самоконтролируемого обучения. По сравнению с мультимодальными LLM она продемонстрировала более глубокое понимание физики, несмотря на то, что ей потребовалось меньше обучающих данных. Модель делает прогнозы в абстрактном пространстве представлений — подобно тому как, по мнению ЛеКуна, обрабатывает информацию человеческий мозг. С начала 2024 года OpenAI начала внедрять долговременную память в ChatGPT, делая шаг к моделированию устойчивого «я» и индивидуального стиля мышления. Компания стремится в будущем создать сеть ИИ-агентов с глубоким пониманием пользователя. Один из главных поставщиков инфраструктурных ресурсов для мирового ИИ — корпорация Nvidia — создала серию инициатив в поддержку развития технологии ориентации роботов в пространстве — стека DePAI. Глава компании Дженсен Хуанг считает моделирование реального мира и его цифровых копий, включая людей, предварительным этапом рассуждающих ИИ.  Если обобщить, CAI — это попытка встроить в систему следующие качества: причинно-следственное мышление; предсказание последствий; учет моральных и правовых норм; поддержание целостности суждений на протяжении времени; контекстную память и моделирование идентичности пользователя. Такие модели пока далеки от настоящего сознания, но они уже создают системный сдвиг в сторону симуляции мышления. Если LLM — это синтаксис и риторика, то CAI, скорее, логика и философия. Когнитивные бомбы То, что 20 лет назад можно было увидеть лишь в фантастических боевиках, сегодня повсеместно внедряется в оборонные механизмы ведущих государств. Учитывая накаленность внешней политики последних лет, бюджеты на оборону с каждым годом раздуваются все сильнее. Главным драйвером прорыва в эффективной защите граждан выступает ИИ, а именно передовые разработки в области самостоятельного принятия решений и моделировании последствий. Армия США активно тестировала когнитивное взаимодействие задолго до появления моделей с уклоном в размышления.  Так, в 2012 году Агентство по перспективным оборонным научно-исследовательским разработкам США (DARPA) представило уникальную систему компьютерного зрения. Работа оператора когнитивного нейроинтерфейса CT2WS. Данные: ExtremeTech. CT2WS — система «мозг-компьютер», использующая нейроинтерфейсы и нейронные сети — предупреждала пехоту об угрозах. Она состоит из 120-мегапиксельных камер, радара, кластера компьютеров для распознавания объектов и операторов со сканерами мозговой активности. Для минимизации ложных срабатываний задействован мозг оператора. К системе видеонаблюдения подключали людей и быстро прокручивали перед ними подозрительные кадры. При этом с операторов снимали электроэнцефалограмму. Если человек видел опасность, его реакцию моментально фиксировал нейроинтерфейс. В результате количество фальшивых срабатываний удалось уменьшить с 810 до пяти в час. Системы компьютерного зрения в последние годы стали доступны рядовым пользователям. В первую очередь они пригодились в автомобилях Tesla для функции автопилота. Учитывая секретность и приоритетность правительственных организаций, трудно предположить, насколько развилось военное дело спустя декаду. За последний год темпы милитаризации искусственного интеллекта, информацию о которых можно найти в открытом доступе, настораживают. В марте стало известно о применении ИИ-агентов в Минобороны США для моделирования столкновений с иностранными армиями. В рамках сотрудничества со Scale AI планируется разработка платформы Thunderforge, предназначенной для повышения эффективности принятия решений на поле боя. Реализация проекта запланирована в сотрудничестве с Anduril и Microsoft. Это не первое участие ИИ-корпораций в оборонной сфере. Известно о многолетнем сотрудничестве Microsoft с Армией обороны Израиля: в феврале 2025 года это вызвало протесты со стороны сотрудников техгиганта.  В январе OpenAI заключила соглашение с Национальными лабораториями США для применения ИИ-моделей стартапа в исследовании ядерного оружия. Ранее Meta открыла свои технологии для правительственных учреждений и оборонных подрядчиков США и союзников. Вслед за ней это сделала компания Anthropic. К тому же существуют многочисленные свидетельства некорректной работы милитаризованного ИИ, приведшей к необоснованным разрушениям и гибели мирного населения. Все эти факторы наряду с централизацией технологии корпорациями вдохновляют инженеров на разработку методов этичного использования технологий искусственного интеллекта. https://forklog.com/glavnoe-za-mesyats-vyzovy-dlya-bitkoina-aktualnaya-kiberbezopasnost-i-militarizatsiya-ii Моральный компромисс Один из пионеров ИИ Йошуа Бенжио раскритиковал многомиллиардную гонку за разработкой передовых технологий. Он заявил о наличии опасных характеристик в последних моделях и обмане пользователей. Свои предостережения ученый высказал в начале лета во время запуска новой некоммерческой организации LawZero. По словам Бенжио, группа сосредоточится на создании более безопасных систем и «изолирует исследования от коммерческого давления». Решение специалиста совпадает с намерением OpenAI отойти от своих «благотворительных» корней и превратиться в коммерческую компанию. Предполагается, что ИИ-модели от LawZero не станут давать однозначных ответов, как это делают современные системы. Вместо этого они будут предоставлять вероятность того, насколько ответ может быть верным. В интервью The Guardian Бенжио отметил, что его модели будут обладать «чувством скромности — осознанием того, что они не уверены в своем ответе». Ученый надеется создать модель, которая сможет совершенствовать существующие предложения ведущих групп искусственного интеллекта и предотвращать их действия, противоречащие интересам человека. «Худший сценарий — это вымирание человечества. Если мы создадим искусственный интеллект, который будет умнее нас, не будет согласован с нами и конкурировать, то нам, по сути, конец», — заявил он. Среди новых стартапов находятся также те, кто готов отстаивать будущее человечества, строя разумные и этичные модели ИИ. MindCast AI (MCAI) — концептуально проработанный пример когнитивного ИИ. Система моделирует принятие решений с акцентом на этическую целостность суждений и предсказуемость поведения в будущем.  Основатель компании Ноэль Ли появился в публичном пространстве на Substuck около трех месяцев назад с предельно ясным и укомплектованным решением. Хотя практических подтверждений технологии продемонстрировать пока не удалось, сама концепция вызывает интерес. MCAI — это CAI, разработанная для симуляции суждений и поведения человеческих агентов. Она сосредоточена на результатах вместо предсказаний на основе исторических данных. Система использует моделирование, чтобы предвосхищать поведение в реальном мире. Согласно техническому описанию, с помощью MCAI пользователи могут: моделировать поведение ключевых фигур в условиях неопределенности или давления; предвидеть юридические, репутационные и эмоциональные реакции до того, как они произойдут; определить расхождения между речью и действиями; отслеживать влияние институциональных стимулов на траекторию решений; прогнозировать моральные риски и социальную реакцию; протестировать стратегии предвидения до их реализации. Текущие ИИ-модели оптимизированы под скорость и масштаб, но игнорируют более глубокие вопросы, определяющие разумные решения: доверие, благополучие человека, предсказуемость. «Миллиарды направляются в стартапы на основе репутации основателей, а не продемонстрированных возможностей», — говорится в манифесте MCAI. Сравнение LLM, специализированных инструментов и CDT от MCAI. Данные: MCAI. Система MCAI включает три основные способности: интеграция предвидения. Моделирование будущего с помощью запатентованного движка вероятностного прогнозирования, слоев байесовского вывода, сценарного анализа и оценки непредвиденных последствий; калибровка доверия. Все данные проходят через модель доверительных когнитивных сигналов, которая различает корреляцию и причинность, отфильтровывает статистический шум до включения логики решений; архитектура согласованности. Обеспечивает логическую и моральную согласованность с помощью движка ALI (языковая целостность действий), системы CMF (когнитивная точность моторики) для достоверности инсайтов в конкретной области. Патентованная структура когнитивного цифрового двойника (CDT) зарегистрирована в апреле 2025 года. Система уже применяется в анализе корпоративных стратегий, разработке политик и антимонопольных расследованиях. В построении личного ИИ-агента стартап использует доверие. «Без доверительных когнитивных архитектур ИИ-компаньоны превращаются в системы тотального наблюдения», — сказано в манифесте. MCAI решает эту проблему с помощью памяти, целостности и идентичности. Ноэль Ли утверждает, что их CDT моделирует решения, привязывается к моральной архитектуре, а также поддерживает согласованность с течением времени, развиваясь вместе с историей и ценностями. Отцы и дети Основатель ИИ-криптостартапа SingularityNET Бен Герцель считается одним из отцов ИИ, а также идейным лидером концепции AGI. Наверное, поэтому он так усердно пытается защитить ее будущее. Исследователь не приемлет централизацию и милитаризацию технологий, которые могут навредить свободе выбора и проявлению человека. Основанная Герцелем в 2017 году блокчейн-платформа SingularityNET стала продолжением его видения о достижении AGI. В основе проекта лежит децентрализованная инфраструктура для разработки ИИ с особым акцентом на системы вроде Hyperon.  Совместно с Fetch.ai, CUDOS и Ocean Protocol компания SingularityNET объединилась в коалицию под названием Artificial Superintelligence Alliance с токеном ASI. Цель альянса — максимально сконцентрировать ресурсы для конкуренции с лидерами индустрии.     В сентябре 2024 Герцель заявил, что система на базе OpenCog Hyperon проявляет признаки частичного самосознания: это автономный агент с «собственными целями» — не просто чат-бот. Выход экспериментальной версии Baby AGI запланирован на 2025 год. Еще один ИИ-отец — автор концепции «память-предсказание»Джефф Хокинс. Сейчас он работает над созданием «биологически правдоподобного» ИИ, основанного на неокортикальных принципах устройства мозга. Модель мира, память, иерархия представлений — все это приближает открытую в начале года некоммерческую организацию Thousand Brains Project на базе Numenta к когнитивному ИИ. Децентрализованная атмосфера Web3 располагает всем необходимым для свободного развития ИИ, позволяет отслеживать и корректировать вектор технологии. Artificial Superintelligence Alliance, построенная на схожих принципах, удачно воспользовалась всеми преимуществами блокчейна.  Развитие CAI происходит достаточно быстро, первые рабочие модели ожидаются в этом году. Пока гигантские ИИ-корпорации соревнуются за превосходство и новые оборонные заказы, обнадеживает растущее количество стартапов с уклоном в децентрализацию.


Loe lahtiütlusest : Kogu meie veebisaidi, hüperlingitud saitide, seotud rakenduste, foorumite, ajaveebide, sotsiaalmeediakontode ja muude platvormide ("Sait") siin esitatud sisu on mõeldud ainult teie üldiseks teabeks, mis on hangitud kolmandate isikute allikatest. Me ei anna meie sisu osas mingeid garantiisid, sealhulgas täpsust ja ajakohastust, kuid mitte ainult. Ükski meie poolt pakutava sisu osa ei kujuta endast finantsnõustamist, õigusnõustamist ega muud nõustamist, mis on mõeldud teie konkreetseks toetumiseks mis tahes eesmärgil. Mis tahes kasutamine või sõltuvus meie sisust on ainuüksi omal vastutusel ja omal äranägemisel. Enne nende kasutamist peate oma teadustööd läbi viima, analüüsima ja kontrollima oma sisu. Kauplemine on väga riskantne tegevus, mis võib põhjustada suuri kahjusid, palun konsulteerige enne oma otsuse langetamist oma finantsnõustajaga. Meie saidi sisu ei tohi olla pakkumine ega pakkumine