Forwarded from ду́но
Привет! Это ду́но.
Мы группа исследователей на базе AIRI. Нас можно знать как экс-команду из Tinkoff Research, которая делала заметный движ с Reinforcement Learning: 7 статей на NeurIPS / ICML за последние три года.
Этот канал — точка сборки, где мы будем рассказывать про наши новые статьи, технологии, проекты, эвенты и возможности поработать с нами. Мы строим свою работу на нескольких принципах:
— Technology-first. Построение frontier-технологий и движение научного дискурса рука об руку. Мы не занимаемся публикациями ради публикаций, наша работа направлена на поиск и разработку новых технологий.
— No new science, no new technology. Мы понимаем, что построение новых технологий невозможно без поиска и влёта с ноги в новые (иногда неочевидные и рисковые) научные области. Мы постоянно ищем их и размышляем, за какими из них будущее.
— Deep connections. Мы взращиваем студентов, стараясь образовывать стабильные и долгосрочные связи с ними за счет активного менторства. Мы не даём 50 идей для рисерча🥴и не бросаем студентов на волю судьбы, мы занимаемся наукой и технологиями вместе.
Построить ASI не обещаем, но интересные вещи сделаем и поделимся ими здесь с вами.
Stay tuned.
- - —
Влад К., Саша Н., Никита Л., Илья З., Андрей П.
Мы группа исследователей на базе AIRI. Нас можно знать как экс-команду из Tinkoff Research, которая делала заметный движ с Reinforcement Learning: 7 статей на NeurIPS / ICML за последние три года.
Этот канал — точка сборки, где мы будем рассказывать про наши новые статьи, технологии, проекты, эвенты и возможности поработать с нами. Мы строим свою работу на нескольких принципах:
— Technology-first. Построение frontier-технологий и движение научного дискурса рука об руку. Мы не занимаемся публикациями ради публикаций, наша работа направлена на поиск и разработку новых технологий.
— No new science, no new technology. Мы понимаем, что построение новых технологий невозможно без поиска и влёта с ноги в новые (иногда неочевидные и рисковые) научные области. Мы постоянно ищем их и размышляем, за какими из них будущее.
— Deep connections. Мы взращиваем студентов, стараясь образовывать стабильные и долгосрочные связи с ними за счет активного менторства. Мы не даём 50 идей для рисерча🥴и не бросаем студентов на волю судьбы, мы занимаемся наукой и технологиями вместе.
Построить ASI не обещаем, но интересные вещи сделаем и поделимся ими здесь с вами.
Stay tuned.
- - —
Влад К., Саша Н., Никита Л., Илья З., Андрей П.
https://h-frac.org/
Есть ощущение, что индекс хирша всегда был с нами, но на самом деле он был предложен только в 2005 году. Обосновывался не последним образом как число которое коррелирует ((кендалл в районе 0.3 - 0.4)) с научными наградами вроде нобелевки.
Спустя 15 лет внезапно выяснилось, что ученые заоптимизировали его в край и теперь корреляция в районе нуля (справедливо как минимум для физиков).
Решение оказалось простым — аллоцировать хирш фракционно среди соавторов. Этой прекрасной статье уже три (!!!) года, но системного перехода на эту метрику замечено не было🤭
Есть ощущение, что индекс хирша всегда был с нами, но на самом деле он был предложен только в 2005 году. Обосновывался не последним образом как число которое коррелирует ((кендалл в районе 0.3 - 0.4)) с научными наградами вроде нобелевки.
Спустя 15 лет внезапно выяснилось, что ученые заоптимизировали его в край и теперь корреляция в районе нуля (справедливо как минимум для физиков).
Решение оказалось простым — аллоцировать хирш фракционно среди соавторов. Этой прекрасной статье уже три (!!!) года, но системного перехода на эту метрику замечено не было
Please open Telegram to view this post
VIEW IN TELEGRAM
Клевая и простая идея, с которой дальше будет гораздо легче скейлить in-context rl.
https://www.tgoop.com/dunnolab/20
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ду́но
Рассказываем о нашей работе принятой на ICML 2024. В деталях.
🌻Контекст🌻
In-Context RL позволяет обучать агентов способных на адаптацию к новым задачам прямо во время инференеса, то есть zero-shot. При этом не происходит обновлений весов модели или обучения…
🌻Контекст🌻
In-Context RL позволяет обучать агентов способных на адаптацию к новым задачам прямо во время инференеса, то есть zero-shot. При этом не происходит обновлений весов модели или обучения…
> два года назад: ура, нашу статью приняли на нипс
> сегодня: депрессия, потому что приняли только 1 статью на нипс
🫠
> сегодня: депрессия, потому что приняли только 1 статью на нипс
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Does RL work yet? (Александр Никулин)
Прошла тут статейка на ICLR 2025, настрадались с ней ужас 🫠
no rest for the wicked
думали взять небольшую передышку после сабмитов на ICML, но произошел нюанс
2 / 3 сабмитов на ICML с concurrent work, которые судя по абстракту делают примерно тоже самое
let the twitter war begin🔫 🔫 🔫 🔫 🔫
https://www.tgoop.com/rllinks/67
думали взять небольшую передышку после сабмитов на ICML, но произошел нюанс
2 / 3 сабмитов на ICML с concurrent work, которые судя по абстракту делают примерно тоже самое
let the twitter war begin
https://www.tgoop.com/rllinks/67
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Does RL work yet?
> ICML
> вызываешься ревьювером
> открываешь предварительный список статей, чтобы заматчится на ревью
> видишь статью подозрительно похожую на твою
> абстракт почти один в один как в твоей
> результаты тоже
лицо представили? а мне и представлять не надо.
> вызываешься ревьювером
> открываешь предварительный список статей, чтобы заматчится на ревью
> видишь статью подозрительно похожую на твою
> абстракт почти один в один как в твоей
> результаты тоже
лицо представили? а мне и представлять не надо.
https://www.tgoop.com/airi_research_institute/755
если вы поддерживаете благотворительные организации или хотите начать, мы сейчас в институте участвуем в MeetForCharity — благотворительном аукционе встреч с успешными успехами из разных сфер, от бизнеса и технологий до театра и кино
тоже участвую в этом году и выбрал «Дом с маяком» — хоспис, который поддерживает около 800 детей
мне кажется история очень здравая, там много интересных людей, которых просто так не вытащишь, а это отличная возможность и познакомиться и людям помочь 🙂
если вы поддерживаете благотворительные организации или хотите начать, мы сейчас в институте участвуем в MeetForCharity — благотворительном аукционе встреч с успешными успехами из разных сфер, от бизнеса и технологий до театра и кино
тоже участвую в этом году и выбрал «Дом с маяком» — хоспис, который поддерживает около 800 детей
мне кажется история очень здравая, там много интересных людей, которых просто так не вытащишь, а это отличная возможность и познакомиться и людям помочь 🙂
Telegram
Институт AIRI
AIRI х Meet For Charity
В рамках недели коллабораций ко Дню науки пять учёных AIRI примут участие в Meet For Charity — крупнейшем в России благотворительным аукционе. Слоты на аукционе — это возможность встретиться с исследователем и лично обсудить интересующие…
В рамках недели коллабораций ко Дню науки пять учёных AIRI примут участие в Meet For Charity — крупнейшем в России благотворительным аукционе. Слоты на аукционе — это возможность встретиться с исследователем и лично обсудить интересующие…
Forwarded from Does RL work yet?
Самое время подвести итоги сабмитов на ICLR 2025. Не все успели довести до фулл статей, но и воркшопы тоже хорошо!
Что-то уже есть на архиве (и еще будет обновлятся с новыми результатами), так что делюсь:
1. XLand-100B: A Large-Scale Multi-Task Dataset for In-Context Reinforcement Learning (Main, Poster), by @howuhh and @suessmann and @zzmtsvv
2. Latent Action Learning Requires Supervision in the Presence of Distractors (Workshop, World Models), by @howuhh
3. Object-Centric Latent Action Learning (Workshop, World Models), by @cinemere
4. N-Gram Induction Heads for In-Context RL: Improving Stability and Reducing Data Needs (Workshop, SCOPE), by @suessmann
5. Yes, Q-learning Helps Offline In-Context RL (Workshop, SSI-FM), by @adagrad
Что-то уже есть на архиве (и еще будет обновлятся с новыми результатами), так что делюсь:
1. XLand-100B: A Large-Scale Multi-Task Dataset for In-Context Reinforcement Learning (Main, Poster), by @howuhh and @suessmann and @zzmtsvv
2. Latent Action Learning Requires Supervision in the Presence of Distractors (Workshop, World Models), by @howuhh
3. Object-Centric Latent Action Learning (Workshop, World Models), by @cinemere
4. N-Gram Induction Heads for In-Context RL: Improving Stability and Reducing Data Needs (Workshop, SCOPE), by @suessmann
5. Yes, Q-learning Helps Offline In-Context RL (Workshop, SSI-FM), by @adagrad
causality links
💥 Запустили именную стипендию для студентов Университета Иннополис! В августе вместе с @lua_b после очередных посиделок в District'e задались вопросом -- а почему нет стипендии для студентов УИ от выпускников? Решили, что нужно взять в свои руки и организовали…
совсем забыл рассказать, в этом году успешно продолжили поддерживать студентов УИ через стипендию 1519
в этот раз получилось раздать 30 стипендий (в прошлом году было 17!)
маленькая победа, ура 🙂
в этот раз получилось раздать 30 стипендий (в прошлом году было 17!)
маленькая победа, ура 🙂
1519 2024
в этом году буду курировать направления по Reinforcement Learning и World Models, залетайте, контент будет хороший 🙂
https://www.tgoop.com/airi_research_institute/825
https://www.tgoop.com/airi_research_institute/825
Telegram
Институт AIRI
⚡️Открываем прием заявок на Лето с AIRI 2025!
В этом году мы запускаем Школу совместно с ТГУ. Программа пройдет в Томске с 30 июня по 10 июля. Это отличная возможность поработать с экспертами в области ИИ, прокачать навыки и погрузиться в исследовательскую…
В этом году мы запускаем Школу совместно с ТГУ. Программа пройдет в Томске с 30 июня по 10 июля. Это отличная возможность поработать с экспертами в области ИИ, прокачать навыки и погрузиться в исследовательскую…
чуть подробнее написали, что ожидается от рисерч пропозала
примером делился до этого в комментариях, но вдруг кто не видел, то вот
https://www.tgoop.com/airi_research_institute/870
примером делился до этого в комментариях, но вдруг кто не видел, то вот
https://www.tgoop.com/airi_research_institute/870
Telegram
Институт AIRI
Для тех, кто впервые готовит Research Proposal: рассказываем, с чего начать, зачем он нужен и как его подготовить ⤵️
Research Proposal — это способ обосновать и спланировать будущую работу: показать, что вы понимаете контекст, видите важную задачу, умеете…
Research Proposal — это способ обосновать и спланировать будущую работу: показать, что вы понимаете контекст, видите важную задачу, умеете…
Forwarded from Институт AIRI
Новый шаг в управлении роботами и оптимизации индустриальных процессов 🤖
Исследователи AIRI разработали Vintix — SOTA action-модель для роботов и индустриальных процессов, умеющую имитировать ход обучения с подкреплением. Благодаря этому Vintix самостоятельно корректирует и улучшает свои действия, получая минимальную обратную связь от пользователя.
Техническая реализация Vintix опирается на расширенный контекст трансформера. Благодаря сжатию данных — состояние-действие-награда в один токен — модель анализирует в 3 раза больше информации по сравнению с аналогами: JAT от HugginFace и GATO от Google DeepMind. При этом архитектура устойчива к шуму и частичной наблюдаемости среды — Vintix успешно справляется с задержками и неполными данными, что критически важно для промышленного применения.
Vintix может быть полезной в разных областях. Например, применяться для автоматизации задач на производственных линиях и оптимизации маршрутов складских роботов, а в сфере энергетики подобные системы способны управлять распределением нагрузки для более эффективного использования ресурсов. Научная статья будет представлена на конференции ICML в июле 2025 года.
Подробнее про исследование — в материале Forbes.
Научная статья | GitHub
Исследователи AIRI разработали Vintix — SOTA action-модель для роботов и индустриальных процессов, умеющую имитировать ход обучения с подкреплением. Благодаря этому Vintix самостоятельно корректирует и улучшает свои действия, получая минимальную обратную связь от пользователя.
Техническая реализация Vintix опирается на расширенный контекст трансформера. Благодаря сжатию данных — состояние-действие-награда в один токен — модель анализирует в 3 раза больше информации по сравнению с аналогами: JAT от HugginFace и GATO от Google DeepMind. При этом архитектура устойчива к шуму и частичной наблюдаемости среды — Vintix успешно справляется с задержками и неполными данными, что критически важно для промышленного применения.
Vintix может быть полезной в разных областях. Например, применяться для автоматизации задач на производственных линиях и оптимизации маршрутов складских роботов, а в сфере энергетики подобные системы способны управлять распределением нагрузки для более эффективного использования ресурсов. Научная статья будет представлена на конференции ICML в июле 2025 года.
Подробнее про исследование — в материале Forbes.
Научная статья | GitHub
https://www.tgoop.com/complete_ai/684
хорошая коллаба получилась, затащили рль для реверс инжиниринга деталей, топ работа как обычно от @adagrad @suessmann и @Howuhh
хорошая коллаба получилась, затащили рль для реверс инжиниринга деталей, топ работа как обычно от @adagrad @suessmann и @Howuhh
Telegram
Complete AI
⚡️⚡️⚡️На прошлой неделе мы в AIRI зарелизили очень крутую работу в рамках трека «Генеративное проектирование» — cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning
Архитектура представляет собой мультимодальную LLM, которая на вход…
Архитектура представляет собой мультимодальную LLM, которая на вход…
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ду́но
📘 Годовой отчет за период июнь 2024–июнь 2025
-> Девиз года: «Сохраняя исследовательские традиции»
В соответствии с научными традициями и вызовами времени, наша команда в 2024 году продолжила уверенное движение по вектору фундаментальных и прикладных исследований…
-> Девиз года: «Сохраняя исследовательские традиции»
В соответствии с научными традициями и вызовами времени, наша команда в 2024 году продолжила уверенное движение по вектору фундаментальных и прикладных исследований…