Forwarded from Labrats
⚡️ВС РФ анонсировали новый международный конкурс РНФ для отдельных научных групп
😁97🤔11 10💩9💊6👏3🌚1
помните nanotron? Теперь у нас есть tinytpu.com
Проект по построению мини TPU(это такие специальные тензорные процессоры от гугла) где челы зареверсиженерили и вопсроизвели архитектуру и софт.
Внутри куча нюансов про низкоуровневый софт в которых я ничего не понимаю, но считаю что стоит ознакомится.
https://github.com/tiny-tpu-v2/tiny-tpu
Проект по построению мини TPU(это такие специальные тензорные процессоры от гугла) где челы зареверсиженерили и вопсроизвели архитектуру и софт.
Внутри куча нюансов про низкоуровневый софт в которых я ничего не понимаю, но считаю что стоит ознакомится.
https://github.com/tiny-tpu-v2/tiny-tpu
GitHub
GitHub - tiny-tpu-v2/tiny-tpu: A minimal tensor processing unit (TPU), inspired by Google's TPU V2 and V1
A minimal tensor processing unit (TPU), inspired by Google's TPU V2 and V1 - tiny-tpu-v2/tiny-tpu
1 43🔥14 8👍5🥴3
Forwarded from commit history
🏆 Наш SWE-rebench — ТОП-1 датасет в мире по скачиваниям на HuggingFace! 🚀
Рассказываю подробнее про эту новость из последнего месячного апдейта.
Есть такая платформа — HuggingFace. Самая популярная в мире площадка для релиза и хранения открытых моделей и датасетов.
В конце мая мы выложили туда свой датасет SWE-rebench вместе со статьей, про то, как собирали данные и как устроен наш бенчмарк для кодовых агентов. В день релиза статья стала #2 Paper of the day.
А дальше начался взрыв скачиваний самого датасета:
> за последние 30 дней ~ 2,7 млн скачиваний,
> всего с момента релиза ~ 3,5 млн.
У HuggingFace есть сортировка по количеству скачиваний за последние 30 дней — и там мы вышли на №1 из 467 930 датасетов. 🔥
Важно: под «скачиваниями» понимаются загрузки с уникального IP с интервалом не меньше 5 минут. На практике это значит, что несколько крупных ресёрч-лабораторий качают датасет и генерят себе данные для обучения на очень большом скейле, не сильно заморачиваясь с кэшированием. Про две такие лаборатории я знаю точно.
Короче, наш SWE-rebench реально используется для обучения кодовых агентов, и это очень круто видеть.
Еще я решил чаще писать про то, что делаю на работе — благо мы все публикуем в открытый доступ. Хочу активнее вести твиттер/X, туда буду кидать короткие форматы. Поэтому добавляйтесь, если там сидите!
Ну и сюда тоже продолжу писать про кодовых агентов и данные для них: тема специфичная, но, кому-то будет полезно и интересно.
Рассказываю подробнее про эту новость из последнего месячного апдейта.
Есть такая платформа — HuggingFace. Самая популярная в мире площадка для релиза и хранения открытых моделей и датасетов.
В конце мая мы выложили туда свой датасет SWE-rebench вместе со статьей, про то, как собирали данные и как устроен наш бенчмарк для кодовых агентов. В день релиза статья стала #2 Paper of the day.
А дальше начался взрыв скачиваний самого датасета:
> за последние 30 дней ~ 2,7 млн скачиваний,
> всего с момента релиза ~ 3,5 млн.
У HuggingFace есть сортировка по количеству скачиваний за последние 30 дней — и там мы вышли на №1 из 467 930 датасетов. 🔥
Важно: под «скачиваниями» понимаются загрузки с уникального IP с интервалом не меньше 5 минут. На практике это значит, что несколько крупных ресёрч-лабораторий качают датасет и генерят себе данные для обучения на очень большом скейле, не сильно заморачиваясь с кэшированием. Про две такие лаборатории я знаю точно.
Короче, наш SWE-rebench реально используется для обучения кодовых агентов, и это очень круто видеть.
Еще я решил чаще писать про то, что делаю на работе — благо мы все публикуем в открытый доступ. Хочу активнее вести твиттер/X, туда буду кидать короткие форматы. Поэтому добавляйтесь, если там сидите!
Ну и сюда тоже продолжу писать про кодовых агентов и данные для них: тема специфичная, но, кому-то будет полезно и интересно.
1🔥89💩3 3🤷♂1
Просто прикиньте флексить что потратили 12б рублей за три года или где то бюджет опенаи на неделю или зарплата одного отдела меты за месяц
🤔44😁26💊8😨7🍓1 1 1
Forwarded from Dan Okhlopkov - канал
В 2020 стукнул ковид и я ушел в годовой саббатикал пилить свои проекты. Самый успешный из них — этот тг канал.
Еще до появления ChatGPT мы с @lovedeathtransformers и @malakhovdm рисерчили проект под кодовым названием Алан: тг профиль, который не выглядит как бот, но автоматически добавляется и отвечает на сообщениях в чатах. Никакого спама, но имитация цифровой жизни.
Вся мощь NLP той эпохи была бессильна отвечать хоть как-то понятно.
Спустя 5 лет новую попытку делаем уже с @metakrotov - сделали бота, которого ты добавляешь в чат, а он иногда развлекает народ.
Встречайте: @countdurovbot. Такая вот альтернатива всем chatgpt оберткам в тг. У него доступ ко всему контексту и есть долгосрочная память, бывает выдает веселые вещи.
В будущем мы добавим возможность создавать своих таких же ботов по промпту. Стартаните бота, чтобы он прислал вам анонс, когда это запрогаем.
Кстати, моделька под капотом — deepseek, которая, видимо, обучалась на всем подряд, поэтому выдает сообщения, хоть как-то похожие на мессенджер, а не на corporative slur от openai.
Добавьте бота к себе в чат с кентами по ссылке — не забудьте дать права админа, чтобы он видел сообщения.
🔗 www.tgoop.com/countdurovbot?startgroup=true
Еще до появления ChatGPT мы с @lovedeathtransformers и @malakhovdm рисерчили проект под кодовым названием Алан: тг профиль, который не выглядит как бот, но автоматически добавляется и отвечает на сообщениях в чатах. Никакого спама, но имитация цифровой жизни.
Вся мощь NLP той эпохи была бессильна отвечать хоть как-то понятно.
Спустя 5 лет новую попытку делаем уже с @metakrotov - сделали бота, которого ты добавляешь в чат, а он иногда развлекает народ.
Встречайте: @countdurovbot. Такая вот альтернатива всем chatgpt оберткам в тг. У него доступ ко всему контексту и есть долгосрочная память, бывает выдает веселые вещи.
В будущем мы добавим возможность создавать своих таких же ботов по промпту. Стартаните бота, чтобы он прислал вам анонс, когда это запрогаем.
Кстати, моделька под капотом — deepseek, которая, видимо, обучалась на всем подряд, поэтому выдает сообщения, хоть как-то похожие на мессенджер, а не на corporative slur от openai.
Добавьте бота к себе в чат с кентами по ссылке — не забудьте дать права админа, чтобы он видел сообщения.
🔗 www.tgoop.com/countdurovbot?startgroup=true
🥴69💩9🔥7😁4🥱3
https://huggingface.co/flymy-ai/qwen-image-edit-inscene-lora
Братва рвется к gpt4o в опенсурсе
Слева до Лоры справа после
Братва рвется к gpt4o в опенсурсе
Слева до Лоры справа после
👏54👍6❤🔥4🔥3🍓1
https://www.reddit.com/r/ArtificialInteligence/comments/1mw7i5e/zuckerberg_freezes_ai_hiring_amid_bubble_fears/
Oh no... No more money???
Oh no... No more money???
😁81 38🐳1🌚1
Forwarded from X5 Tech
Я вижу ML, а ты? Проверь 27 августа в «Сфере X5» Парк Горького
Мы в X5 Tech | AI следим за тем, что двигает технологии вперёд. А ICML — это место, где формируются тренды машинного обучения, которые завтра будут менять индустрии. В этом году конференция прошла в Ванкувере и представила работы топовых специалистов, занимающихся машинным обучением — от исследователей до инженеров.
Мы предлагаем посмотреть и обсудить несколько ML-новинок — в «Сфере X5» в Парке Горького.
Помогут не упустить важные моменты новых подходов открытия международной конференции по машинному обучению (ICML 2025) под другим углом:
🧑💻 Артём Ерохин, ведущий инженер нейронных сетей в X5 Tech | AI
👩💻 Дарья Андреева, старший инженер нейронных сетей в X5 Tech | AI
Программа вечера:
• разобрать, на наш взгляд, наиболее актуальные доклады ICML 2025;
• обсудить, как эти технологии можно внедрить в бизнес;
• оценить их потенциал, плюсы, минусы и особенности.
Поделиться мнением мы пригласили:
• Максима Павлова, руководителя управления продуктивизации искусственного интеллекта в X5 Tech | AI;
• Петра Лукьянченко, Head of AI in Mathematical Finance Laboratory, HSE;
• Даниила Гаврилова, руководителя Research-команды AI-Центра Т-Банка;
• Александру Мурзину, руководителя AI-проектов в AI Marvel, Яндекс.
📆 Когда: в среду, 27 августа, 19:00 Где: «Сфера X5», Парк Горького
👉 Регистрация по ссылке.
Для ИИ-инженеров, аналитиков, исследователей и всех, кто живёт технологиями. Регистрируйся, приходи и вместе с нами разгадай новую ML-головоломку!
Мы в X5 Tech | AI следим за тем, что двигает технологии вперёд. А ICML — это место, где формируются тренды машинного обучения, которые завтра будут менять индустрии. В этом году конференция прошла в Ванкувере и представила работы топовых специалистов, занимающихся машинным обучением — от исследователей до инженеров.
Мы предлагаем посмотреть и обсудить несколько ML-новинок — в «Сфере X5» в Парке Горького.
Помогут не упустить важные моменты новых подходов открытия международной конференции по машинному обучению (ICML 2025) под другим углом:
🧑💻 Артём Ерохин, ведущий инженер нейронных сетей в X5 Tech | AI
👩💻 Дарья Андреева, старший инженер нейронных сетей в X5 Tech | AI
Программа вечера:
• разобрать, на наш взгляд, наиболее актуальные доклады ICML 2025;
• обсудить, как эти технологии можно внедрить в бизнес;
• оценить их потенциал, плюсы, минусы и особенности.
Поделиться мнением мы пригласили:
• Максима Павлова, руководителя управления продуктивизации искусственного интеллекта в X5 Tech | AI;
• Петра Лукьянченко, Head of AI in Mathematical Finance Laboratory, HSE;
• Даниила Гаврилова, руководителя Research-команды AI-Центра Т-Банка;
• Александру Мурзину, руководителя AI-проектов в AI Marvel, Яндекс.
📆 Когда: в среду, 27 августа, 19:00 Где: «Сфера X5», Парк Горького
👉 Регистрация по ссылке.
Для ИИ-инженеров, аналитиков, исследователей и всех, кто живёт технологиями. Регистрируйся, приходи и вместе с нами разгадай новую ML-головоломку!
🥴30👍4😡1
приходит сычев в парк горького а там гигачат ероха рассказывает как надо на ICML статьи возить, а у сычева две публикации на диаоге и воркшоп b*, hi маленький пиздец (7) микрохиршия короче, хотя уже 5 лет в ресерче работает RL делает на Jaxе....
😁49👍1😢1🍓1 1
интересно что в целях безопасности из современных ллм повыпиливали байесы и теперь не работают (почти) угрозы и "ты эксперт в X"
🤔57 17😁14 3👍2
Forwarded from black_samorez
Сегодня в 22:00 мск (через час) будем презентовать нашу статью
Quartet: Native FP4 Training Can Be Optimal for Large Language Models
на GPU MODE. Залетайте.
Quartet: Native FP4 Training Can Be Optimal for Large Language Models
на GPU MODE. Залетайте.
🔥34 5💊4🥴3 2🍓1
black_samorez
Сегодня в 22:00 мск (через час) будем презентовать нашу статью Quartet: Native FP4 Training Can Be Optimal for Large Language Models на GPU MODE. Залетайте.
YouTube
Live Quartet 4 bit training
Speakers: Roberto Castro and Andrei Panferov
https://arxiv.org/abs/2505.14669
https://github.com/IST-DASLab/Quartet
https://github.com/isT-DASLab/qutlass
https://arxiv.org/abs/2505.14669
https://github.com/IST-DASLab/Quartet
https://github.com/isT-DASLab/qutlass
1❤🔥11👍5😁3
#промо #промо #промо
⚪️ White Circle
Всем привет, мы делаем лучшую AI safety платформу, чтобы модельки не делали rm -rf без вашего ведома
Про нас:
- Подняли 💸 $10m 💸, инвесторы — топы OpenAI, Anthropic, Deepmind, Mistral, HuggingFace, etc
- Команда из 10 человек с офисом в самом центре Парижа
- Обрабатываем десятки миллионов API запросов в месяц
-🍴 100-500к USD
Вакансии:
1. FullStack Engineer
Typescript, React, Nextjs, Nodejs, Tailwind, GraphQL, ClickHouse
2. DevOps Engineer
AWS / GCP, Terraform, k8s, Kafka, ClickHouse, Prometheus, Grafana, DataDog, HPC
3. AI Engineer
MoE, multimodality (audio / images), Megatron, distributed training, Triton
📨 CV → https://forms.gle/XysjrjHgxiRicGsb6
⚪️ White Circle
Всем привет, мы делаем лучшую AI safety платформу, чтобы модельки не делали rm -rf без вашего ведома
Про нас:
- Подняли 💸 $10m 💸, инвесторы — топы OpenAI, Anthropic, Deepmind, Mistral, HuggingFace, etc
- Команда из 10 человек с офисом в самом центре Парижа
- Обрабатываем десятки миллионов API запросов в месяц
-
Вакансии:
1. FullStack Engineer
Typescript, React, Nextjs, Nodejs, Tailwind, GraphQL, ClickHouse
2. DevOps Engineer
AWS / GCP, Terraform, k8s, Kafka, ClickHouse, Prometheus, Grafana, DataDog, HPC
3. AI Engineer
MoE, multimodality (audio / images), Megatron, distributed training, Triton
📨 CV → https://forms.gle/XysjrjHgxiRicGsb6
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32👏11💩8💊7🥱3🎉2
Forwarded from Сиолошная
Результаты — GPT-5 на первом месте с большим отрывом, но финальное качество всё равно меньше 50%. Модель от OpenAI также набрала больше всех в каждом домене, кроме, внезапно, Browser Automation, где немного выбился вперёд Grok 4.
Лучшая опенсурс-модель — GLM-4.5, хотя я думал бы на Kimi-K2, ведь они так описывали свой процесс дообучения использованию MCP.
Лучшая опенсурс-модель — GLM-4.5, хотя я думал бы на Kimi-K2, ведь они так описывали свой процесс дообучения использованию MCP.
🎉12👍5🔥1💩1
был с одним уважаемым человеком спор: является ли китайский опенсурс фронтриром или нет, выходит так что glm4.5 на произвольном бенчмарке не сильно хуже чем 2.5pro, а dsv3 где то между 4o и о3.
Что это значит? В душе не ебу
Что это значит? В душе не ебу
1😁77👍7🍓2🔥1💯1🆒1