Telegram Web
Андрей Карпаты выложил небольшой гайд по моделям ChatGPT


-o3 — лучшая для сложных задач. Эта модель рассуждений намного сильнее, чем 4o. Поможет с анализом данных и научными статьями. Карпаты использует эту модель в 40% случаев.

- GPT-4o — быстрая модель для повседневного использования. Карпаты также использует ее в 40% запросов.

- GPT-4.1 — хороший выбор при вайб-кодинге.

- GPT-4.5 — когда вам нужно покреативить или сгенерировать текст.

- Deep Research — лучший инструмент для исследований. Нужен, если хочется глубоко разобраться в какой-то теме.
🔍 В Яндекс Поиске появились технологии Алисы: теперь он рассуждает в ответ на вопрос и генерирует контент

Поиск Яндекса обновился. Там появился режим рассуждений, возможность генерировать контент, получать развёрнутые ответы, и помогать с выбором товаров. Всё это — благодаря объединению с технологиями Алисы, которые унаследовали и расширили возможности Нейро.

Что поменялось:
— Новые ответы Алисы: готовая небольшая статья с картинками, видео и ссылками на источники.
— Можно попросить сгенерировать текст или картинку прямо в поисковой строке — например, по запросам “напиши” или “нарисуй”.
— Появился режим рассуждений: для сложных задач, где важно углубиться в тему. В этом режиме Алиса тратит больше времени на анализ информации, задействует больше источников и может дать ответ в виде таблицы. Пользователь может посмотреть, как она подходит к задаче и какие выводы делает.
— Пользователи Браузера теперь могут задавать Алисе вопросы не только в Поиске, но и по открытой веб-странице. Она проанализирует текст на сайте и даст ёмкий ответ со ссылками на конкретные фрагменты.

Эти большие обновления — результат работы сразу нескольких команд. Команда Яндекс Поиска создает LLM технологии в поиске, проектирует интерфейсы, создает инфраструктуру, позволяющую сервису работать бесперебойно 24/7.

Сейчас перед командой стоят новые амбициозные задачи, поэтому она расширяется и ищет:
Старшего LLM-разработчик в Нейро
ML-разработчика

Если интересно создавать продукт, которым ежедневно пользуются десятки миллионов людей, и развивать ИИ на мировом уровне — ищите вакансии выше.

Реклама. ООО "Яндекс". ИНН 7736207543
🆕 ИИ для генерации речи, который работает прямо в браузере — без установки и без отправки данных в облако

Теперь можно поговорить с ИИ-ассистентом, не устанавливая ничего и не передавая данные на сервер. Всё работает прямо в окне браузера.

🔐 Приватность: всё остаётся на вашем устройстве
💸 Бесплатно
Быстро — использует ускорение через WebGPU
📦 Не требует установки — просто открываете сайт

🔍 Как это устроено:
• Silero — определяет, когда вы начали говорить
• Whisper — распознаёт вашу речь
• SmolLM2 — отвечает на вопрос
• Kokoro — озвучивает ответ
• Всё работает через Transformers.js и ONNX Runtime Web

🔗 Попробовать и посмотреть код:
https://huggingface.co/spaces/webml-community/conversational-webgpu
🔊 Ke-Omni-R-3B
👉 Открытая модель, которая понимает аудио и отвечает на вопросы по аудио.
🏆 Лидирует на бенчмарках аудиорассуждений.
📌 Построена на базе Qwen 3B.

🎥 Omni-R1
👉 Модель для видеоанализа, которая "смотрит" на видео и рассуждает на уровне каждого пикселя.
⚔️ Уже конкурирует с лучшими проприетарными решениями.
📌 Построена на Qwen 7B.

💡 Qwen2.5 - основа для мультимодального ИИ: текст + аудио + видео.
Если ты делаешь проекты в этой сфере — обязательно посмотри, что уже делают на базе Qwen.

#Qwen #AI #Multimodal #HuggingFace #OpenSource #LLM

📎 Модель: https://huggingface.co/KE-Team/Ke-Omni-R-3B
Работаете в Data Science и хотите стать Middle+? Проверьте свои знания быстрым тестом — и узнайте, готовы ли к следующему шагу!

🔥 ПРОЙТИ ТЕСТ: ссылка

Пройдите тест и проверьте, готовы ли вы к повышению квалификации на курсе «Machine Learning. Advanced». В программе — AutoML, Байесовские методы, обучение с подкреплением и многое другое. Вы научитесь деплоить модели, собирать end-to-end пайплайны и претендовать на позиции Middle+/Senior ML Engineer.

🎁 Успешное прохождение теста — ваш пропуск к записям открытых уроков и скидке на большое обучение.

👉 Оцените свой уровень прямо сейчас: ссылка

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🎤 Вышло большое интервью с Сундаром Пичаи CEO Google и Alphabet У Лекса Фридмана, в котором обсуждаются:

Темы разговора:

- Детство Сундара и его путь из Индии в топ-технологии мира

- Лидерство: стили, трудные решения, советы молодым

- Глобальное влияние ИИ: от Veo 3 до AGI (искусственного общего интеллекта)

- Технологии будущего: Google Beam, XR‑очки, Chrome, Android

- Философия, масштабируемость, программирование, и даже P(doom) — вероятность катастрофы от ИИ

🔥 Плюс: Google только что анонсировал новую модель Gemini 2.5 Pro, которая заняла #1 место на LM Arena

📺 Длительность — более 2 часов, полная версия доступна на X и других платформах (ссылка в комментарии)

🧭 Интересно посмотреть, если хотите:

- Понять мышление топ-менеджера Big Tech

- Услышать прогнозы по AI, видео, браузерам, AGI

- Заглянуть в будущее Google глазами его руководителя

https://www.youtube.com/watch?v=9V6tWC4CdFQ
This media is not supported in your browser
VIEW IN TELEGRAM
7 июня — идеальный день, чтобы NLP-специалисту получить оффер мечты! 😉

Сразу две команды Сбера: «Стратегия и развитие» и AI Solutions, — приглашают вас принять в One Day Offer по профилю NLP/LLM.

Вы будете работать в гибридном формате: обучать и улучшать языковые модели, разрабатывать AI-помощника и ML-модели, а ещё анализировать процессы всего банка. Звучит круто, на деле тоже круто!

Отмечайте в календаре 7 июня, 10:00, регистрируйтесь по ссылке и готовьтесь к резкому карьерному виражу! 👌
🧠 DeepSeek представила R1-0528-Qwen3-8B — один из самых умных 8B LLM на сегодня

Новая модель от DeepSeek — это дистиллят флагманского R1-0528, обученный на примерах рассуждений (Chain-of-Thought).
Цель — сделать мощные способности reasoning-движка R1 доступными на устройствах с ограниченными ресурсами.

📊 Итоги тестов:
• Набрала 52 балла в Artificial Analysis Intelligence Index
• Немного обходит Qwen3 8B от Alibaba, опережая на 1 балл
• Но в реальных задачах разница между ними вряд ли будет заметна

🔍 В отличие от модели Alibaba, DeepSeek не поддерживает управление "включением рассуждения" во время инференса — поведение модели фиксировано.

📈 Прогресс за 5 месяцев:
По уровню reasoning эта 8B-модель теперь соответствует дистиллятам Qwen2.5 32B, представленным ещё в январе.
Фактически, это тот же интеллект, но в 4 раза меньшем размере.

⚙️ Производительность:
• Модель весит всего 8B — это 1.2% от полной DeepSeek R1 (671B)
• Активирует 21.6% параметров оригинального R1 на токен
• Работает в разы быстрее и требует меньше памяти (~16ГБ в BF16)

https://artificialanalysis.ai/models/deepseek-r1-qwen3-8b
Forwarded from Machinelearning
🏆 NVIDIA Parakeet V2 возглавила рейтинг ASR-моделей на Hugging Face

Новая модель Parakeet-TDT-0.6B-V2 достигла рекордной точности распознавания речи6.05% Word Error Rate на Open ASR Leaderboard от Hugging Face.

🦜 Parakeet V2 выводит автоматическое распознавание речи (ASR) на новый уровень:

Молниеносный инференс — RTFx 3386 (в 50 раз быстрее аналогов)
🔍 Поддержка необычных сценариев:
• Распознавание песен в текст (song-to-lyrics)
• Форматирование чисел и временных меток
• Высокоточная транскрибация

📌 Лицензирование: CC-BY-4.0

🔗 Leaderboard: huggingface.co/spaces/hf-audio/open_asr_leaderboard
🔗 Демо: huggingface.co/nvidia/parakeet-tdt-0.6b-v2
🔗 Попробовать: build.nvidia.com/explore/speech

@ai_machinelearning_big_data


#NVIDIA #ASR #SpeechRecognition #Parakeet #AIaudio
Please open Telegram to view this post
VIEW IN TELEGRAM
Читаем статьи в 2020 году vs
Читаем статьи в 2025 году
📦 Kubernetes for ML Engineers — практическое руководство по продакшну ML-моделей

[Paulescu/kubernetes-for-ml-engineers](https://github.com/Paulescu/kubernetes-for-ml-engineers) — это открытое и очень доступное пошаговое руководство по использованию Kubernetes для машинного обучения. Проект помогает ML-инженерам перенести свои модели из Jupyter-блокнота в стабильное, масштабируемое продакшн-окружение.

🚀 Что внутри:
• Как собрать Docker-образ с моделью
• Как задеплоить его в кластер
• Примеры с REST API для инференса
• Конфигурация Pod'ов, Service'ов, Ingress
• Хостинг моделей с autoscaling
• Набор манифестов YAML — можно адаптировать под себя

🧠 Особенно полезно:
• ML-инженерам без опыта DevOps
• Для обучения Kubernetes через реальные ML-задачи
• Для продакшн-деплоя моделей с минимальными усилиями

📂 Всё по делу: чисто, практично и без лишней теории. Просто бери и запускай.

🔗 GitHub: github.com/Paulescu/kubernetes-for-ml-engineers

#kubernetes #mlops #machinelearning #devops #docker #opensource
Gemma 3n теперь на десктопах! 🚀

🤗 Работает на Mac, Windows, Linux и устройствах Интернета вещей (IoT)
🔥 Модели на 2B и 4B параметров
🧠 Использует новую библиотеку LiteRT-LM

GitHub
Forwarded from Machinelearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Вышел Claude Code SDK.

Теперь вы можете создавать десятки небольших AI-скриптов для автоматизации и запускать их, когда понадобится.
🎓 Хочешь разобраться в MCP (Model Context Protocol)? Вот с чего начать:

1️⃣ Курс от Hugging Face
Пошаговое введение в MCP и как он работает внутри LLM-экосистем
huggingface.co/learn/mcp-course

2️⃣ Курс от Microsoft
Практический гайд для новичков — с кодом, примерами и понятным объяснением
github.com/microsoft/mcp-for-beginners

3️⃣ Workshop
Онлайн-интенсив "MCP Fundamentals" — 25 июня, регистрация уже открыта
epicai.pro/events/workshop-mcp-fundamentals-2025-06-25

📦 MCP — это новый стандарт, который скоро будет везде: от агентов до LLM-интерфейсов. Самое время разобраться.

#MCP #AI #LLM #MachineLearning #Courses #DevTools
Forwarded from Machinelearning
🌟 SEAL: Еще одна попытка создать пайплайн самообучающихся LLM.

SEAL - это методика от MiT, позволяющая LLM самостоятельно генерировать обучающие данные и настраивать параметры обучения, чтобы адаптироваться к новым задачам. Вместо традиционного файнтюна на внешних данных модель учится рефлексировать: анализировать контекст, создавать из него синтетические данные и применять их для корректировки собственных весов через механизм усиленного обучения.

SEAL, по сути, это два разделенных цикла:

🟢Внешний цикл использует RL, чтобы научить модель генерировать «самоизменения» (инструкции на естественном языке, описывающие, какие данные использовать и как настраивать параметры).

🟢Внутренний цикл реализует эти изменения: модель дообучается на сгенерированных данных, а затем тестирует результат на конкретной задаче. За коррекцию отвечает RL-алгоритм ReSTEM, который оценивает эффективность изменений и обновляет стратегию генерации инструкций. Для экономии ресурсов используются легковесные адаптеры LoRA, которые модифицируют только часть параметров модели.

Этот процесс повторяется, постепенно формируя у модели навык преобразования исходных данных в полезные обучающие сигналы.

SEAL протестили на 2 задачах: интеграции новых знаний и few-shot обучении. В первом случае модель генерирует логические следствия из текста, дообучается на них и улучшает точность ответов на вопросы без доступа к исходному тексту.

Во втором случае SEAL выбирает оптимальные аугментации данных и гиперпараметры для обучения на примерах задач ARC-AGI.

В обоих сценариях SEAL превзошел подходы с фиксированными шаблонами (ICL, TTT+Self Edit без RL и) и даже синтетическими данными от GPT-4.1.

Метод скорее академический и по большей части экспериментальный, у него есть ограничения:

🟠При последовательном применении изменений модель склонна к «катастрофическому забыванию» — потере знаний, усвоенных ранее;

🟠Сопутствующие вычислительные затраты, так как каждая итерация требует дообучения и тестирования модели.


▶️В репозитории проекта разработчики выложили код, данные и инструкции для двух направлений:

🟢Включение новых фактических знаний;

🟢Адаптация к новым задачам на основе примеров.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #SEAL #RL #MiT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/06/18 13:06:10
Back to Top
HTML Embed Code: