ноябрь | 2025
7 исследований ноября: как роботов-гуманоидов учили пугаться, предсказание рецессий по финотчетам и новый взгляд на память нейросетей
Рассказываем о самых заметных исследованиях ноября: зачем учить бытовых роботов пугаться каждого шороха, как лингвистический анализ финансовых отчетов организаций помогает заранее предсказывать экономические кризисы и зачем нейросетям несколько уровней памяти.
01. Венчур после перегрева
Q3 European VC Valuations Report
(PitchBook)
В свежем отчете PitchBook за Q3 2025 исследовали, как изменились оценки европейских стартапов на фоне продолжающегося роста AI-сегмента и все более избирательного отношения инвесторов к риску.

Обнаружилось, что рынок сохранял высокие оценки, но начал отчетливо переходить в фазу умеренного охлаждения: ряд метрик замедлились, появились первые признаки перегрева в AI, а ликвидность оставалась ограниченной.

Из отчета видно, что почти во всех стадиях — от A-B до поздних раундов — медианные оценки в 2025 году росли относительно 2024-го. Больше всего выросли оценки самых поздних раундов: средняя стоимость компаний перед привлечением инвестиций превысила €1,6 млрд — выше, чем на пике 2021–2022 годов. Это произошло из-за нескольких крупных сделок в сфере ИИ.

Однако в целом объем сделок на этих стадиях уменшился, что указывает на выборочность инвесторов: высокий интерес сохраняется только к компаниям, способным обосновать крупные раунды.

В сегменте pre-seed/seed лидером роста неожиданно стал финтех — медианные оценки поднялись на ~15%, что превысило темпы AI. В стадиях A-B сильнее всего росли AI и life sciences (оба около +29%). При этом cleantech и биотех в ряде стадий показывали снижение относительно прошлого года, отражая перераспределение капитала в пользу технологий, связанных с инфраструктурой ИИ.

Отдельный блок отчёта посвящён состоянию «AI-пузыря». На фоне рекордных раундов в Европе увеличилась доля down-rounds (ситуация, когда на следующем раунде инвесторе оценивают компанию дешевле, чем на предыдщем) внутри AI — 15% сделок против 12% в SaaS. Авторы отмечают, что громкие проблемы некоторых компаний усилили запрос на дисциплину и тщательную проверку бизнес-моделей. Рынок постепенно выходит из фазы FOMO и переходит к более строгим ценовым ожиданиям.

В целом, отчет фиксирует важный переходный момент: оценки европейских стартапов остаются устойчивыми (особенно в AI), но рынок сильнее смещается к рациональному отбору. Рост продолжается, на всt более сдержанных условиях. Совокупность высокой стоимости капитала и перегрева отдельных сегментов формирует новую норму: рынок, где деньги есть, но получить их становится гораздо труднее.
02. Как наш мозг экономит на ностальгии
Harmonizing the past: EEG-based brain network unveil modality-specific mechanisms of nostalgia
(Southwest University)
Исследователи из Southwest University попытались разобраться, почему воспоминания о прошлом так резко меняют наше эмоциональное состояние, и что именно происходит в мозге, когда человек испытывает ностальгию.

До сих пор было плохо понятно, одинаково ли разные сенсорные каналы (звук, картинка, видео) «производят» состояние ностальгии. Чтобы это изучить, авторы предложили рассматривать ностальгию одновременно как субъективный опыт и как нейрофизиологическое состояние. Они сравнили три типа стимулов — аудио, визуальные изображения и аудиовизуальные ролики — и измеряли реакцию участников не только по самоотчетам, но и по ЭЭГ, анализируя работу мозговых сетей в альфа-, тета-, бета- и гамма-диапазонах.

Результаты показали, что ностальгические стимулы стабильно усиливали позитивные эмоции и субъективное чувство контроля. На уровне мозга это проявлялось в росте связности и эффективности сети в альфа- и гамма-диапазонах и ускорении передачи информации — то есть мозг начинал работать более организованно и экономно.

Особенно сильной оказалась реакция на звук: аудиоканал вызывал наиболее выраженные изменения мощности сигналов в тета, альфа и гамма-диапазонах и более высокую активность в префронтальных и центральных областях. Видеоряд усиливал эффект почти на одном уровне с изображениями, но уступал чистому аудио.

Авторы интерпретируют это как подтверждение, что ностальгия — не просто эмоция, а состояние, в котором мозг легче интегрирует информацию и тратит меньше когнитивных ресурсов. Музыка при этом оказывается наиболее мощным триггером: она запускает автобиографическую память, эмоциональную регуляцию и активирует системы вознаграждения.
03. Чего боятся роботы?
Reacting Like Humans: Incorporating Intrinsic Human Behaviors Into NAO Through Sound-Based Reactions to Fearful and Shocking Events for Enhanced Sociability
(Sharif University of Technology)
Группа исследователей из Италии, США и Ирана решила научить роботов-гуманоидов «пугаться». Так они попытались продвинуться в решении одной из ключевых проблем современной social robotics («бытовой» робототехники) — неестественного поведения машин.

Чтобы приблизить поведение робота к человеческому, авторы решили научить роботов по-человечески пугаться резких звуков и разработали для модели NAO полноценную реакцию «испуга». Целью было не просто классифицировать событие, а сделать так, чтобы робот выглядел внимательным к окружению — как человек, которого что-то неожиданно насторожило.

Для этого исследователи собрали три типа данных: видео человеческих реакций испуга, наборы громких бытовых звуков и изображения объектов, которые могут их производить. На этой базе они обучили три модели: для распознавания звука, для поиска объектов и для генерации коротких, вариативных движений руками. Затем все объединили в единую систему: NAO слышит громкий звук, мгновенно вздрагивает, поворачивается в его сторону, фиксирует окружающее пространство и выбирает наиболее вероятный источник.

Работу системы протестировали в трех бытовых сценариях и показали записи 70 участникам — специалистам по робототехнике и обычным зрителям. Обе группы отметили, что такая реакция выглядит заметно естественнее стандартных заранее прописанных жестов и ближе к привычным моделям человеческого поведения. Эксперты особенно оценили согласованность движений — от самого вздрагивания до поиска объекта.

Эксперимент показывает, что ощущение «естественности» в социальных роботах рождается не из внешнего сходства с человеком, а из маленьких телесных реакций, которые происходят быстро и автоматически. Объединение слуха, зрения и движения в одну быструю реакцию делает поведение робота более живым и снижает ощущение искусственности — что важно для его применения в образовании, медицине и сферах услуг.
04. Обучение внутри обучения внутри обучения ИИ
Nested Learning: The Illusion of Deep Learning Architecture
(Google Research)
Исследователи Google предложили пересмотреть саму логику, по которой мы понимаем работу нейросетей. По их мнению, ключевая проблема современных LLM — не в недостатке глубины или размеров архитектуры, а в том, что модели почти не умеют по-человечески накапливать опыт. После предобучения они «застывают» в состоянии, где могут продолжать подхватывать контекст, но превратить его в долговременную память оказывается невозможным без дорогостоящего дообучения.

Чтобы объяснить, почему так происходит, авторы вводят новую парадигму — Nested Learning («вложенное обучение»). В ней любая модель рассматривается как система вложенных процессов обучения, каждый — со своим ритмом обновления и собственным потоком контекста. В этой парадигме архитектура, оптимизатор и внутренние состояния — это разные уровни памяти, которые непрерывно сжимают контекст в свои параметры.

Эту идею исследователи разработали в три направления. Во-первых, они показали, что популярные оптимизаторы вроде Adam или SGD можно рассматривать как модули памяти — и предложили более «глубокие» оптимизаторы с более сложной внутренней динамикой. Во-вторых, они создали модель HOPE, которая учится не только решать задачи, но и обновлять собственный алгоритм обучения. В-третьих, разработали Continuum Memory System — систему из нескольких уровней памяти, отвечающих за разные временные горизонты: от сверхкороткого до более устойчивого.

Экспериментальная часть показала, что HOPE сопоставима или превосходит современные трансформеры и рекуррентные архитектуры на задачах языкового моделирования и общих размышлений — даже при одинаковом масштабе моделей. Особенно заметно, что при увеличении размера HOPE не теряет устойчивости и демонстрирует более плавный рост качества, что авторы трактуют как подтверждение гипотезы, что усложнение уровней памяти и обучения может давать эффект, сравнимый с увеличением числа слоев.

Для индустрии такое переосмысление «памяти» нейросетей потенциально означает появление более компактных моделей, способных к устойчивому продолжительному обучению.
05. Как ИИ различают факты, знания и убеждения
Belief in the Machine: Investigating Epistemological Blind Spots of Language Models
(Stanford University, Duke University)
Исследователи Стэнфорда и Duke проверили, до какой степени современные LLM способны различать базовые эпистемические категории: факт, знание и убеждение.Чтобы это оценить, они создали новый бенчмарк KaBLE — 13 тысяч вопросов, построенных на тщательно отобранных тезисах из разных областей человеческого знания.

Затем 15 моделей прогнали по единому протоколу с фиксированными вариантами ответов. Такая схема позволила увидеть не только общую точность, но и то, как меняются ошибки в зависимости от того, с чем именно работает модель — с истиной, ложью или убеждением субъекта.

Результаты показали системный перекос. LLM хорошо справляются с истинными высказываниями, но заметно «ломаются» на ложных, особенно когда нужно работать не с фактами, а с убеждениями говорящего: им трудно просто признать «да, человек в это верит», если содержание веры противоречит их знаниям, при этом они гораздо легче признают ложные убеждения у третьих лиц («Джеймс верит, что...»), чем у самого говорящего («я верю, что...»), и сильно полагаются на поверхностные языковые маркеры вроде «я знаю, что…» вместо устойчивого различения факта, веры и знания.

Авторы считают, что источником этих ошибок является сама логика современного обучения нейросетей: модели оптимизировались под «правильность» ответа и исправление фактов, а не под аккуратное моделирование убеждений, которые могут быть и ложными. В реальных сценариях, вроде медицинских консультаций или юридической экспертизы, это создает риск систематического искажения высказываний: модель начинает подменять субъективный опыт человека собственным «знанием о мире».

Работа фиксирует важную границу: прежде чем внедрять LLM в чувствительные контексты, нужно переосмыслить саму рамку оценки их «знаний». Модель может знать факты, но она все еще плохо понимает людей — и то, как устроены наши убеждения.
06. Гадаем на кризис по финансовым отчетам
Words Matter: Forecasting Economic Downside Risks with Corporate Textual Data
(Brandeis University)
Исследователь Cansu Isler из Brandeis University предложил для предсказания макроэкономических рисков изучать не только рынки и финансовые условия, но и язык, которым компании описывают свое текущее положение. Автор проверяет, может ли тон корпоративных отчетов работать как ранний индикатор нарастающих рисков падения ВВП.

Традиционные Growth-at-Risk-модели опираются только на финансовые условия и макропоказатели, которые часто инерционны и реагируют с задержкой. В отличие от них, текстовые данные фиксируют живые тревоги бизнеса: менеджмент описывает риски, неопределенности, давление спроса и операционные проблемы раньше, чем они попадают в агрегированные индексы.

Isler создает новый индикатор настроений на основе текстового анализа обязательных отчетов компаний. Тон отчетов рассчитывается с помощью словаря Loughran–McDonald как разница между позитивной и негативной лексикой относительно того же периода год назад. Затем метрики фирм агрегируются в недельный индекс с весами по рыночной капитализации — чтобы сильнее учитывать голос крупных игроков.

Оказалось, что такой текстовый индикатор улучшает прогнозирование рисков сильного падения ВВП и делает это существенно лучше, чем классические финансовые индикаторы вроде National Financial Conditions Index. Он раньше сигнализирует о нарастающем негативе, особенно перед фазами замедления. На исторических данных модели с текстовым индикатором устойчиво превосходили модели, опирающиеся только на рыночные данные.

В целом, исследование потенциальные расширяет рамку GaR-подхода (Growth-at-Risk) к аналитике и демонстрирует, что корпоративные тексты — не побочный информационный шум, а значимый источник макроэкономических сигналов. Для центробанков и регуляторов это означает появление нового слоя раннего предупреждения — индекса, который отражает реальный настрой бизнеса, а не только публичный статус-кво.
07. Трансформеры неплохо восстанавливают медицинские истории
Learning the natural history of human disease with generative transformers
(European Molecular Biology Laboratory, European Bioinformatics Institute)
Исследователи из европейских лабораторий и Копенгагенского университета попытались решить одно из ключевых ограничений применения LLM в медицинском прогнозировании. Сейчас большинство скоринговых ИИ-систем умеют делать предсказания для отдельных заболеваний, но почти не располагает инструментами, которые могли бы описывать здоровье человека как единую,взаимосвязанную траекторию.

Чтобы преодолеть это ограничение, авторы предложили рассматривать прогрессирование заболеваний так же, как языковая модель рассматривает текст: как последовательность токенов, в которой каждый новый элемент зависит от контекста предыдущих. Они модифицировали архитектуру трансформера и создали модель Delphi-2M — систему, которая читала историю болезни как временную последовательность диагнозов, состояний и факторов риска, и училась предсказывать, что произойдет дальше и когда именно. Модель работала на непрерывной временной шкале и одновременно оценивала вероятность более чем тысячи заболеваний и время до их наступления.

В ходе экспериментов модель показала высокую точность. На длинных горизонтах Delphi-2M воспроизводила возрастные паттерны заболеваемости и межгрупповые различия между курильщиками, пациентами с высоким ИМТ или высоким потреблением алкоголя.

Синтетические траектории оказались настолько реалистичны, что модель, обученная исключительно на них, почти не проигрывала оригиналу, что открывает путь к приватному моделированию траекторий здоровья без использования реальных данных.

Авторы пришли к выводу, что трансформеры хорошо подходят для описания сложных, временных траекторий здоровья и могут служить универсальными моделями риска — вместо разрозненных прогнозов для отдельных заболеваний.

Для медицины модели типа Delphi открывают возможность строить долгосрочные прогнозы заболеваемости, точнее выбирать пациентов для скринингов и формировать представления о будущей нагрузке на здравоохранение. Для ИИ-исследователей работа демонстрирует, что LLM-подходы применимы не только к языку, но и к моделированию человеческой жизни как последовательного процесса — при условии строгого анализа смещений и этических ограничений.
European Molecular Biology Laboratory, European Bioinformatics Institute
Made on
Tilda