Telegram Web
Media is too big
VIEW IN TELEGRAM
На COMPUTEX 2025 Дженсен Хуанг (CEO NVIDIA) представил обновлённую версию модели NVIDIA — Isaac GR00T N1.5, а также проект GR00T-Dreams.

🔹 Isaac GR00T N1.5 — это первое обновление открытой, универсальной и полностью настраиваемой базовой модели NVIDIA, предназначенной для обучения навыкам и логике поведения человекоподобных роботов.

🔹 По словам Дженсена, "обучение на у людей не масштабируется — нас ограничивает количество часов в сутках". Новый проект GR00T-Dreams позволяет генерировать огромное количество синтетических движений на основе одного изображения, ускоряя обучение роботов с помощью сжатых токенов действий.

🔹 Благодаря GR00T-Dreams удалось обучить модель GR00T N1.5 всего за 36 часов — процесс, который без этого подхода занял бы почти три месяца.

🔹 Обновление значительно повысило эффективность модели при выполнении стандартных задач в логистике и производстве. GR00T N1.5 можно будет запускать на новом устройстве Jetson Thor, релиз которого ожидается в этом году.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ Google I/O 2025.

Главным событием стал запуск Gemini Ultra — подписки за $249,99 в месяц, включающей доступ к Veo 3 (генератор видео со звуком), Imagen 4 (создание изображений) и Flow (редактор видео на базе ИИ). Для разработчиков анонсирован Stitch — инструмент, генерирующий код и UI по текстовому описанию или изображению.

Project Mariner, ИИ-агент для автоматизации веб-задач, теперь выполняет до 10 действий одновременно. В Gemini добавлены Live-режим с трансляцией экрана и интеграция с Google сервисами. Project Astra, мультимодальный ИИ с почти нулевой задержкой, будет использоваться в умных очках от Gentle Monster и Warby Parker.

В Поиске появится AI Mode для сложных запросов, а Beam (бывший Starline) предлагает 3D-телеконференции с переводом речи в реальном времени. В Workspace появятся умные ответы в Gmail и новые функции для Google Meet.
techcrunch.com

✔️ Apple представит SDK для интеграции ИИ-моделей в приложения на WWDC 2025.

Apple анонсировала WWDC 2025: ключевое выступление пройдёт 9 июня в 10:00 PT, а трансляция будет доступна через Apple TV и на YouTube. Главной новостью станет выпуск SDK и фреймворков, позволяющих сторонним разработчикам внедрять ИИ-модели компании в свои приложения. Упор сделан на компактные локальные модели, работающие непосредственно на устройствах, — это отличает подход Apple от облачных решений конкурентов.
apple.com

✔️ Red Hat внедряет ИИ в управление Enterprise Linux.

Red Hat анонсировала обновления для RHEL, усилив интеграцию ИИ и контейнерных технологий. Теперь Red Hat Insights предлагает ИИ-рекомендации по выбору пакетов и планированию обновлений, упрощая подготовку систем под задачи ИИ-разработки. Сервис анализирует потребности инфраструктуры, помогает оптимизировать сборку образов и снижает риски при переходе на новые версии RHEL и AppStream.

Для изолированных сред в Red Hat Satellite 6.17 появился Insights advisor в виде контейнера — правила и исправления будут храниться локально и обновляться без интернета.

Satellite теперь поддерживает image mode, объединяя управление контейнерами и традиционными пакетами в единый рабочий процесс. Не осталась без внимания и безопасность: Insights proxy позволяет подключаться к аналитике RHEL через прокси, минуя прямое соединение с интернетом.
Обновления уже доступны через Hybrid Cloud Console для подписчиков RHEL.
businesswire.com

✔️ SAP запустила ИИ-платформу Joule с интеграцией Perplexity AI и 230 сценариями использования.

На мероприятии SAP Sapphire представлена Joule — ИИ-платформа для трансформации бизнес-процессов. Решение интегрируется с S4/Hana, Ariba, ServiceNow, Gmail и LinkedIn, используя ИИ для оптимизации CRM и финансовых операций. Уже сейчас платформа поддерживает 1600 навыков и 230 готовых ИИ-сценариев, а к концу 2025 года их число вырастет до 400.

Особый акцент был сделан на партнерстве с Perplexity: их поисковый движок станет основой для Joule. Гендиректор Perplexity подчеркнул преимущества технологии — широкий охват веба и скорость, опережающие Google и OpenAI.
community.sap.com

✔️ Hunyuan-TurboS: гибридная модель с адаптивным мышлением.

Tencent опубликовала техотчет Hunyuan-TurboS — гибридной LLM, сочетающей архитектуры Transformer и Mamba2. Ее ключевая фишка — адаптивный CoT, который автоматически переключается между быстрыми ответами для простых задач и глубоким анализом для сложных. Это экономит ресурсы: модель тратит на 47% меньше токенов при генерации, чем DeepSeek-R1.

Под капотом 128 слоев (57 Mamba2, 7 Attention, 64 FFN) с 56 млрд. активных параметров и 560 млрд. общих. Обучалась на 16 трлн. токенов, а контекстное окно расширено до 256 тыс. токенов благодаря NTK-позиционному кодированию.

В тестах LMSYS Chatbot Arena модель набрала 1356 баллов, войдя в топ-8. Она лидирует в китайском, французском и испанском сегментах, а в математике и STEM-задачах почти догоняет DeepSeek-V3. При этом скорость вывода в 1,8 раза выше, чем у чисто трансформерных аналогов.
Попробовать модель можно в демо-спейсе на HF.
Tencent-Hunyuan на Github

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
✔️ Дорожная карта бесплатных курсов по машинному обучению 2025

В статье собраны 50 лучших бесплатных или условно-бесплатных курсов (сертификат может быть платным), разделённых по уровням:
*Вводный (Beginner) → Промежуточный (Intermediate) → Продвинутый (Advanced).*
После каждого описания приведена полная кликабельная ссылка.

➡️ Курсы
Please open Telegram to view this post
VIEW IN TELEGRAM
🧩 Scikit-Lego — неофициальное расширение для Scikit-learn с экспериментальными фичами.
Этот проект является коллекцией нестандартных трансформеров, моделей и метрик, которые часто приходилось писать вручную при работе с Scikit-learn. Здесь собрано все то, что не вошло в официальную библиотеку, но может пригодиться в реальных задачах.

Проект строго соблюдает API Scikit-learn, что позволяет легко встраивать компоненты в существующие пайплайны. При этом разработчики подчеркивают, что их детище это именно дополнение, а не замена классического Scikit-learn.

🤖 GitHub

@machinelearning_ru
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ Intel выпустила новые Xeon 6 для ИИ-систем.

Intel представила 3 новых процессора серии Xeon 6, оптимизированных для управления GPU в ИИ-задачах. Модели на базе P-ядер используют технологии PCT и SST-TF и отличаются повышенной пропускной способностью памяти (на 30% быстрее аналогов) и на 20% большим числом PCIe-линий.

Intel заверяет, что надежность решений гарантирована — встроенные механизмы RAS-функций минимизируют простои. Сотрудничество с NVIDIA стало ключевым моментом: Xeon 6776P уже работает в системе NVIDIA DGX B300, которая позиционируется как одна из самых мощных ИИ-платформ на рынке.
Процессоры доступны для заказа. Intel ожидает роста спроса со стороны корпоративного сектора.
intel.com

✔️ Cursor обновился до версии 0.50.

Главное новшество — новая "Tab"модель, которая ускоряет навигацию и редактирование: теперь она предлагает изменения не только в текущем файле, но и нескольких файлах проекта, позволяя буквально «пролететь» через правки с помощью табов.

Режим Max Mode стал доступен для всех моделей: он расширяет контекстное окно и снимает лимиты на вызовы инструментов. Встроенный редактор (Command-K) тоже прокачали — теперь им можно править целые файлы, а не только фрагменты.

Для больших проектов добавили мульти-рутовые рабочие пространства и тегирование папок, чтобы подключать к контексту целые кодовые базы. Еще одна фишка — фоновые агенты: они выполняют задачи параллельно, помогая с дебагом, стилями или подготовкой PR. В ближайших планах — интеграция агентов с issue-трекерами, чтобы автоматизировать рутину.
Cursor в сети X (ex-Twitter)

✔️ Vercel представила ИИ-модель для веб-разработки.

Vercel открыла бета-доступ к своей ИИ-модели V0-1.0-md, заточенной под задачи фронтенда и фулл-стек разработки. Модель доступна через API и принимает текстовые или графические промпты и умеет исправлять в автоматическом режиме типовые баги, интегрируясь с инструментами, поддерживающими формат OpenAI.

Модель обучена на популярных фреймворках и обрабатывает до 128 тыс. токенов за раз (около 750 тыс. слов). Правда, тестировать новинку смогут только те, кто подключит премиум-план V0 ($20/мес.) или корпоративную подписку ($30 за пользователя/mec).
techcrunch.com

✔️ NVIDIA DreamGen: обучение роботов на синтетических данных.

NVIDIA Research представила DreamGen — четырехэтапную систему генерации "нейронных траекторий» с помощью специальных видео-моделей для обучения роботов без предварительных демонстраций.

Сначала модель адаптируют под конкретного робота, затем генерируют видео с новыми сценариями по текстовым инструкциям. Из этих роликов извлекают псевдо-действия с помощью обратной динамики или латентных моделей, из которых формируют политики.

Эксперименты показали: чем больше синтетических данных, тем выше эффективность. При этом DreamGen работает на разных платформах — от дорогих манипуляторов до бюджетных моделей. Технология уже тестируется в реальных сценариях: от складов до домашних задач.
research.nvidia.com

✔️ Skywork Super Agents возглавил рейтинг GAIA, обойдя Manus и OpenAI.

SkyWork AI представила своего «супер-агента», который сразу занял первое место в GAIA Benchmark — ключевом тесте для ИИ-агентов. Система обошла конкурентов в первых двух уровнях сложности, а на третьем сравнялась с Manus.

Главный козырь: поддержка 5 форматов (Word, PPT, Excel, веб-кодинг, подкасты) с возможностью редактирования и отслеживания источников. Платформа максимально проста: вместо сложных промптов — выбор сценария и готовый результат.

Skywork Super Agents доступен как онлайн сервис (стоимость от $20/мес., есть пробный период), а для разработчиков открыли исходники фреймворка DeepResearch и API для вызова агентов по выбору.
globenewswire.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🏔️ DiffDock — ИИ для молекулярного докинга через диффузионные модели. Этот open-source проект использует диффузионные модели для предсказания, как маленькие молекулы будут связываться с белками. Точность превосходит традиционные методы на 20-30%, что подтверждено тестами на PDBBind и других бенчмарках.

Инструмент имеет трёхэтапный процесс: сначала предсказывается позиция лиганда, затем его ориентация, и наконец — конформационные изменения. В 2024 году вышла улучшенная версия DiffDock-L с поддержкой ESMFold для предсказания структуры белка по последовательности.

🤖 GitHub

@machinelearning_ru
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI открывает офис в Сеуле.

OpenAI объявила об открытии первого офиса в Сеуле, реагируя на стремительный рост спроса на ChatGPT в Южной Корее. Страна занимает 2 место по числу платных подписчиков сервиса после США. Уже начат набор команды для укрепления местных партнерств, а детали проектов обещают раскрыть в ближайшие месяцы.

«От чипов до софта и от студентов до старшего поколения — корейская экосистема идеальна для внедрения ИИ», — отметил Джейсон Квон, директор по стратегии OpenAI. Ранее компания анонсировала сотрудничество с Kakao, разработчиком популярного мессенджера, для создания новых продуктов на базе ИИ.
bloomberg.com

✔️ Компания Марка Цукерберга использует посты европейцев для обучения ИИ.

С 27 мая техно-гигант начнет использовать публикации пользователей из Европы в своих соцсетях для обучения собственных ИИ-моделей. Пользователи могут попытаться ограничить доступ к своим данным, отправив запрос, но компания не гарантирует удовлетворение таких обращений — заявки будут рассматриваться «в соответствии с законами о защите данных».

Регуляторы Бельгии, Франции и Нидерландов уже выразили обеспокоенность таким подходом на фоне глобальных споров о сборе онлайн-данных для ИИ. Создатели моделей ИИ, в свою очередь, настаивают, что весь открытый контент пригоден для обучения, однако это инициирует судебные иски из-за нарушений авторских прав и приватности.
euronews.com

✔️ Модель о3 обнаружила уязвимость нулевого дня в ядре Linux.

Модель o3 от OpenAI помогла выявить критическую уязвимость в модуле ksmbd ядра Linux, реализующем протокол SMB3. Речь идёт о CVE-2025-37899 — use-after-free в обработчике команды logoff, где освобождённый объект остаётся доступным для других потоков из-за отсутствия подсчета ссылок.

Автор исследования, ранее находивший подобные баги вручную, использовал o3 для анализа ~12 тыс. строк кода, что в итоге привело к обнаружению проблемы, требующей понимания параллельных подключений.
Хотя o3 выдает ложные срабатывания, ее способность анализировать код уже близка к человеческой.
sean.heelan.io

✔️ Анонс CosyVoice 3: новый уровень синтеза речи.

Команда SpeechLab (Alibaba Group) анонсировала CosyVoice 3 — новое поколение моделей для генерации речи, которое получило поддержку русского языка и улучшенную по сравнению с CosyVoice 2 передачу интонаций и эмоций.

Согласно препринту техотчета, в семействе 2 модели, на 0.5 и 1.5 млрд параметров с новым токенизатором MinMo. Модели обучались методом оптимизации наград DiffRO
на 1 млн. часов аудио с имитацией более 100 различных интонаций и эмоций.

По тестам CosyVoice 3 снизил частоту ошибок (CER/WER) на 44% для китайского и 51% для английского по сравнению с CosyVoice 2, и обошел F5-TTS, Spark-TTS в кросс-языковых задачах. Кода и весов моделей пока нет.
funaudiollm.github.io

✔️ Google расширил доступ к Veo 3 для 71 страны.

Всего через несколько дней после запуска, Google расширил доступ к Veo 3, добавив 71 новую страну. Как сообщил вице-президент Gemini Джош Вудворд в сети Х, подписчики Gemini Pro получат пробный пакет из 10 генераций. А вот обладатели Ultra-подписки за $250 в месяц смогут создавать неограниченное количество роликов с ежедневным обновлением квот.

Но есть нюансы: Veo 3 работает исключительно в веб-версии Gemini Pro, поддерживает только английскую аудиодорожку, а в Flow mode нельзя добавить голос поверх загруженных изображений.
Похоже, Google повторяет успех NotebookLM, но теперь — на уровне визуального контента. Техническое комьюнити ждtт, когда модель научится мультиязычности и расширит функционал.
Josh Woodward в сети Х

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 SkyRL — как обучить ИИ-агента реально думать и действовать

[SkyRL](https://github.com/NovaSky-AI/SkyRL) — это open-source фреймворк от NovaSky-AI, который помогает обучать языковые модели (LLM) не просто отвечать, а действовать. Он использует обучение с подкреплением (RL) в задачах, где агенту нужно выполнять несколько шагов и вызывать инструменты, как это делают умные ассистенты.

🔧 Что делает SkyRL:

Учит ИИ работать поэтапно: планировать, думать, использовать поиск, писать SQL и т. д.
Работает с внешними инструментами (Google, база данных, консоль и т.п.)
Делает обучение быстрее за счёт асинхронных запусков
Поддерживает удалённое обучение — можно запускать 100 агентов на одном сервере

---

### 📊 Что уже получилось:

🧩 SWE‑Bench (задачи из GitHub-реп):
Модель SkyRL-14B подняла точность с 18 % до 21.6 %
SkyRL-7B — с 11 % до 14.6 %

🧠 Text-to-SQL (написание SQL-запросов по описанию):
SkyRL-SQL‑7B, обученная всего на 653 примерах, обошла GPT‑4o и o4-mini на бенчмарке Spider.

🛠 Что внутри:

• Язык: Python
• Лицензия: Apache 2.0 — можно использовать в проде
• Поддержка CI/CD
• Интеграция с OpenHands для запуска на кластерах

👨‍💻 Кому подойдёт:

- Тем, кто делает умных агентов, которые решают задачи через инструменты
- Исследователям в области RL + LLM
- Разработчикам, которые хотят обучить модель на своих задачах — от SQL до программирования

SkyRL — это шаг к ИИ, который не только отвечает, но и решает задачи как настоящий помощник.

🔗 https://github.com/NovaSky-AI/SkyRL
🧬 Представлен **Osmosis Structure 0.6B** — миниатюрная, но умная LLM c научным уклоном

Это часть семейства Osmosis — моделей, созданных специально для работы со знаниями и структурой в научных и технических текстах.

📦 Характеристики:
• Размер: всего 0.6B параметров — работает локально, быстро, экономно
• Область применения: наука, медицина, инженерия
• Обучена на текстах с высокой плотностью фактов и логики
• Поддерживает диалоговый режим, генерацию гипотез и объяснений

Почему это важно:
В эпоху гигантских моделей Osmosis Structure 0.6B — пример того, как маленькая LLM может быть точной и специализированной, а не просто "универсальной".

📌 Доступна через Ollama — можно запустить на локальной машине без интернета.

https://ollama.com/Osmosis/Osmosis-Structure-0.6B

@machinelearning_ru
🚀 Введение в Apache Hadoop для обработки больших данных на Java

Если вы хотите освоить обработку больших объемов данных с помощью Java, статья «Introduction to Apache Hadoop for Big Data Processing in Java» от Muthu Annamalai на BlackSlate станет отличным стартом.

В статье рассматриваются основные компоненты Hadoop:

HDFS (Hadoop Distributed File System): распределенная файловая система, обеспечивающая надежное хранение больших объемов данных.

MapReduce: модель программирования для параллельной обработки данных.


Также приводится пример реализации задачи WordCount с использованием Java MapReduce, что помогает понять, как применять Hadoop на практике.

Для тех, кто стремится углубиться в мир обработки больших данных с использованием Java, эта статья предоставляет полезные знания и практические примеры.

#BigData #Java #Hadoop #MapReduce #HDFS #BlackSlate

https://www.blackslate.io/articles/introduction-to-apache-hadoop-for-big-data-processing-in-java
Андрей Карпаты выложил небольшой гайд по моделям ChatGPT


-o3 — лучшая для сложных задач. Эта модель рассуждений намного сильнее, чем 4o. Поможет с анализом данных и научными статьями. Карпаты использует эту модель в 40% случаев.

- GPT-4o — быстрая модель для повседневного использования. Карпаты также использует ее в 40% запросов.

- GPT-4.1 — хороший выбор при вайб-кодинге.

- GPT-4.5 — когда вам нужно покреативить или сгенерировать текст.

- Deep Research — лучший инструмент для исследований. Нужен, если хочется глубоко разобраться в какой-то теме.
🔍 В Яндекс Поиске появились технологии Алисы: теперь он рассуждает в ответ на вопрос и генерирует контент

Поиск Яндекса обновился. Там появился режим рассуждений, возможность генерировать контент, получать развёрнутые ответы, и помогать с выбором товаров. Всё это — благодаря объединению с технологиями Алисы, которые унаследовали и расширили возможности Нейро.

Что поменялось:
— Новые ответы Алисы: готовая небольшая статья с картинками, видео и ссылками на источники.
— Можно попросить сгенерировать текст или картинку прямо в поисковой строке — например, по запросам “напиши” или “нарисуй”.
— Появился режим рассуждений: для сложных задач, где важно углубиться в тему. В этом режиме Алиса тратит больше времени на анализ информации, задействует больше источников и может дать ответ в виде таблицы. Пользователь может посмотреть, как она подходит к задаче и какие выводы делает.
— Пользователи Браузера теперь могут задавать Алисе вопросы не только в Поиске, но и по открытой веб-странице. Она проанализирует текст на сайте и даст ёмкий ответ со ссылками на конкретные фрагменты.

Эти большие обновления — результат работы сразу нескольких команд. Команда Яндекс Поиска создает LLM технологии в поиске, проектирует интерфейсы, создает инфраструктуру, позволяющую сервису работать бесперебойно 24/7.

Сейчас перед командой стоят новые амбициозные задачи, поэтому она расширяется и ищет:
Старшего LLM-разработчик в Нейро
ML-разработчика

Если интересно создавать продукт, которым ежедневно пользуются десятки миллионов людей, и развивать ИИ на мировом уровне — ищите вакансии выше.

Реклама. ООО "Яндекс". ИНН 7736207543
🆕 ИИ для генерации речи, который работает прямо в браузере — без установки и без отправки данных в облако

Теперь можно поговорить с ИИ-ассистентом, не устанавливая ничего и не передавая данные на сервер. Всё работает прямо в окне браузера.

🔐 Приватность: всё остаётся на вашем устройстве
💸 Бесплатно
Быстро — использует ускорение через WebGPU
📦 Не требует установки — просто открываете сайт

🔍 Как это устроено:
• Silero — определяет, когда вы начали говорить
• Whisper — распознаёт вашу речь
• SmolLM2 — отвечает на вопрос
• Kokoro — озвучивает ответ
• Всё работает через Transformers.js и ONNX Runtime Web

🔗 Попробовать и посмотреть код:
https://huggingface.co/spaces/webml-community/conversational-webgpu
🔊 Ke-Omni-R-3B
👉 Открытая модель, которая понимает аудио и отвечает на вопросы по аудио.
🏆 Лидирует на бенчмарках аудиорассуждений.
📌 Построена на базе Qwen 3B.

🎥 Omni-R1
👉 Модель для видеоанализа, которая "смотрит" на видео и рассуждает на уровне каждого пикселя.
⚔️ Уже конкурирует с лучшими проприетарными решениями.
📌 Построена на Qwen 7B.

💡 Qwen2.5 - основа для мультимодального ИИ: текст + аудио + видео.
Если ты делаешь проекты в этой сфере — обязательно посмотри, что уже делают на базе Qwen.

#Qwen #AI #Multimodal #HuggingFace #OpenSource #LLM

📎 Модель: https://huggingface.co/KE-Team/Ke-Omni-R-3B
Работаете в Data Science и хотите стать Middle+? Проверьте свои знания быстрым тестом — и узнайте, готовы ли к следующему шагу!

🔥 ПРОЙТИ ТЕСТ: ссылка

Пройдите тест и проверьте, готовы ли вы к повышению квалификации на курсе «Machine Learning. Advanced». В программе — AutoML, Байесовские методы, обучение с подкреплением и многое другое. Вы научитесь деплоить модели, собирать end-to-end пайплайны и претендовать на позиции Middle+/Senior ML Engineer.

🎁 Успешное прохождение теста — ваш пропуск к записям открытых уроков и скидке на большое обучение.

👉 Оцените свой уровень прямо сейчас: ссылка

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🎤 Вышло большое интервью с Сундаром Пичаи CEO Google и Alphabet У Лекса Фридмана, в котором обсуждаются:

Темы разговора:

- Детство Сундара и его путь из Индии в топ-технологии мира

- Лидерство: стили, трудные решения, советы молодым

- Глобальное влияние ИИ: от Veo 3 до AGI (искусственного общего интеллекта)

- Технологии будущего: Google Beam, XR‑очки, Chrome, Android

- Философия, масштабируемость, программирование, и даже P(doom) — вероятность катастрофы от ИИ

🔥 Плюс: Google только что анонсировал новую модель Gemini 2.5 Pro, которая заняла #1 место на LM Arena

📺 Длительность — более 2 часов, полная версия доступна на X и других платформах (ссылка в комментарии)

🧭 Интересно посмотреть, если хотите:

- Понять мышление топ-менеджера Big Tech

- Услышать прогнозы по AI, видео, браузерам, AGI

- Заглянуть в будущее Google глазами его руководителя

https://www.youtube.com/watch?v=9V6tWC4CdFQ
🧠 DeepSeek представила R1-0528-Qwen3-8B — один из самых умных 8B LLM на сегодня

Новая модель от DeepSeek — это дистиллят флагманского R1-0528, обученный на примерах рассуждений (Chain-of-Thought).
Цель — сделать мощные способности reasoning-движка R1 доступными на устройствах с ограниченными ресурсами.

📊 Итоги тестов:
• Набрала 52 балла в Artificial Analysis Intelligence Index
• Немного обходит Qwen3 8B от Alibaba, опережая на 1 балл
• Но в реальных задачах разница между ними вряд ли будет заметна

🔍 В отличие от модели Alibaba, DeepSeek не поддерживает управление "включением рассуждения" во время инференса — поведение модели фиксировано.

📈 Прогресс за 5 месяцев:
По уровню reasoning эта 8B-модель теперь соответствует дистиллятам Qwen2.5 32B, представленным ещё в январе.
Фактически, это тот же интеллект, но в 4 раза меньшем размере.

⚙️ Производительность:
• Модель весит всего 8B — это 1.2% от полной DeepSeek R1 (671B)
• Активирует 21.6% параметров оригинального R1 на токен
• Работает в разы быстрее и требует меньше памяти (~16ГБ в BF16)

https://artificialanalysis.ai/models/deepseek-r1-qwen3-8b
2025/06/26 05:22:40
Back to Top
HTML Embed Code: