Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
- Telegram Web
Telegram Web
Forwarded from ду́но
Привет! Это ду́но.

Мы группа исследователей на базе AIRI. Нас можно знать как экс-команду из Tinkoff Research, которая делала заметный движ с Reinforcement Learning: 7 статей на NeurIPS / ICML за последние три года.

Этот канал — точка сборки, где мы будем рассказывать про наши новые статьи, технологии, проекты, эвенты и возможности поработать с нами. Мы строим свою работу на нескольких принципах:

Technology-first. Построение frontier-технологий и движение научного дискурса рука об руку. Мы не занимаемся публикациями ради публикаций, наша работа направлена на поиск и разработку новых технологий.

No new science, no new technology. Мы понимаем, что построение новых технологий невозможно без поиска и влёта с ноги в новые (иногда неочевидные и рисковые) научные области. Мы постоянно ищем их и размышляем, за какими из них будущее.

Deep connections. Мы взращиваем студентов, стараясь образовывать стабильные и долгосрочные связи с ними за счет активного менторства. Мы не даём 50 идей для рисерча🥴и не бросаем студентов на волю судьбы, мы занимаемся наукой и технологиями вместе.

Построить ASI не обещаем, но интересные вещи сделаем и поделимся ими здесь с вами.

Stay tuned.

- - —
Влад К., Саша Н., Никита Л., Илья З., Андрей П.
https://h-frac.org/

Есть ощущение, что индекс хирша всегда был с нами, но на самом деле он был предложен только в 2005 году. Обосновывался не последним образом как число которое коррелирует ((кендалл в районе 0.3 - 0.4)) с научными наградами вроде нобелевки.

Спустя 15 лет внезапно выяснилось, что ученые заоптимизировали его в край и теперь корреляция в районе нуля (справедливо как минимум для физиков).

Решение оказалось простым — аллоцировать хирш фракционно среди соавторов. Этой прекрасной статье уже три (!!!) года, но системного перехода на эту метрику замечено не было 🤭
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ду́но
😘 Первая публикация дорогого брата Ильи Зисмана (@suessmann) на ICML'e первым автором, проделал кучу работы и прошел через несколько кругов ада с Watermaze'ом.

Клевая и простая идея, с которой дальше будет гораздо легче скейлить in-context rl.

https://www.tgoop.com/dunnolab/20
Please open Telegram to view this post
VIEW IN TELEGRAM
> два года назад: ура, нашу статью приняли на нипс

> сегодня: депрессия, потому что приняли только 1 статью на нипс

🫠
Please open Telegram to view this post
VIEW IN TELEGRAM
ахахахаххаха
Forwarded from Does RL work yet? (Александр Никулин)
Прошла тут статейка на ICLR 2025, настрадались с ней ужас 🫠
no rest for the wicked

думали взять небольшую передышку после сабмитов на ICML, но произошел нюанс

2 / 3 сабмитов на ICML с concurrent work, которые судя по абстракту делают примерно тоже самое

let the twitter war begin 🔫🔫🔫🔫🔫

https://www.tgoop.com/rllinks/67
Please open Telegram to view this post
VIEW IN TELEGRAM
https://www.tgoop.com/airi_research_institute/755

если вы поддерживаете благотворительные организации или хотите начать, мы сейчас в институте участвуем в MeetForCharity — благотворительном аукционе встреч с успешными успехами из разных сфер, от бизнеса и технологий до театра и кино

тоже участвую в этом году и выбрал «Дом с маяком» — хоспис, который поддерживает около 800 детей

мне кажется история очень здравая, там много интересных людей, которых просто так не вытащишь, а это отличная возможность и познакомиться и людям помочь 🙂
Forwarded from Does RL work yet?
Самое время подвести итоги сабмитов на ICLR 2025. Не все успели довести до фулл статей, но и воркшопы тоже хорошо!

Что-то уже есть на архиве (и еще будет обновлятся с новыми результатами), так что делюсь:
1. XLand-100B: A Large-Scale Multi-Task Dataset for In-Context Reinforcement Learning (Main, Poster), by @howuhh and @suessmann and @zzmtsvv
2. Latent Action Learning Requires Supervision in the Presence of Distractors (Workshop, World Models), by @howuhh
3. Object-Centric Latent Action Learning (Workshop, World Models), by @cinemere
4. N-Gram Induction Heads for In-Context RL: Improving Stability and Reducing Data Needs (Workshop, SCOPE), by @suessmann
5. Yes, Q-learning Helps Offline In-Context RL (Workshop, SSI-FM), by @adagrad
Forwarded from Институт AIRI
Новый шаг в управлении роботами и оптимизации индустриальных процессов 🤖

Исследователи AIRI разработали Vintix — SOTA action-модель для роботов и индустриальных процессов, умеющую имитировать ход обучения с подкреплением. Благодаря этому Vintix самостоятельно корректирует и улучшает свои действия, получая минимальную обратную связь от пользователя.

Техническая реализация Vintix опирается на расширенный контекст трансформера. Благодаря сжатию данных — состояние-действие-награда в один токен — модель анализирует в 3 раза больше информации по сравнению с аналогами: JAT от HugginFace и GATO от Google DeepMind. При этом архитектура устойчива к шуму и частичной наблюдаемости среды — Vintix успешно справляется с задержками и неполными данными, что критически важно для промышленного применения.

Vintix может быть полезной в разных областях. Например, применяться для автоматизации задач на производственных линиях и оптимизации маршрутов складских роботов, а в сфере энергетики подобные системы способны управлять распределением нагрузки для более эффективного использования ресурсов. Научная статья будет представлена на конференции ICML в июле 2025 года.

Подробнее про исследование — в материале Forbes.

Научная статья | GitHub
lol
2025/06/15 20:32:14
Back to Top
HTML Embed Code: