Telegram Web
Продуктивная пятница для тех кто в теме Java и ML – приходите на VK JT Meetup!

3 октября VK проводит VK JT Meetup в Нижнем — офлайн-встречу ML-инженеров и Java-разработчиков.

Лиды VK расскажут про вызовы перед бэкендером, которые возникают в процессе создания B2B-продукта. А также поделятся пошаговым гайдом по выпуску RAG в прод и процессом создания единой инфраструктуры поисковой платформы.

А после докладов вас ждут командные кейс-батлы и нетворкинг.

Приходите посоревноваться за призы в кейс-батле и пообщаться с экспертами в нетворкинг-зоне.

📍 Нижний Новгород, только офлайн
📅 3 октября, сбор с 18:00
🎟 Вход по регистрации
🌐 DeepMind представила URL Context — теперь можно извлекать данные с любой веб-страницы, PDF или картинки просто по ссылке!

Что умеет:
- Подтягивает данные с до 20 URL за один запрос
- Никакой настройки — просто вставляешь ссылки в промпт
- Оплата только за токены, без доп. стоимости за инструмент

💡 Возможности:
▸ Вытаскивать цены, имена, ключевые факты из статей
▸ Сравнивать PDF, отчёты или статьи
▸ Генерировать резюме, посты и документы на основе разных источников
▸ Анализировать GitHub-репозитории и техдоки

👉 URL Context превращает LLM в универсальный инструмент для работы с реальными данными в сети.

https://ai.google.dev/gemini-api/docs/url-context?hl=ru
3👍1
Канал о серверной и облачной инфраструктуре для ИИ.

Подписывайся на Telegram-канал HOSTKEY — здесь вы найдете:

🔹тесты производительности и бенчмарки GPU-карт и серверного «железа»
🔹новости рынка и технологий
🔹лайфхаки и инструкции по интеграции ИИ в проекты
🔹практические советы для разработчиков и бизнеса

🔥 Последние популярные публикации канала:

🔹 Сравнение NVIDIA RTX 6000 Blackwell 96 ГБ с RTX 5090, A5000 и H100 в задачах LLM и генерации видео — результаты удивляют!
🔹Тестирование NVIDIA GeForce RTX 5090 в задачах ИИ.
🔹10 советов по Open WebUI, которые помогут в работе с нейросетями.
🔹Как добавить генерацию изображений через ComfyUI в Open WebUI.

🎁 А еще мы каждый месяц разыгрываем Telegram Premium среди подписчиков!

Если вы работаете с ИИ и нейросетями — вам точно будет интересно и полезно! 
Подписывайтесь! 

#реклама
О рекламодателе
3👍1
🤖 Build a Coding Agent from Scratch — Full Python Tutorial

Новый туториал показывает, как своими руками собрать мини-версию Claude Code-агента на Python.

Что внутри:
- 🧠 Создание reasoning-модуля («мозга» для принятия решений)
- 📝 Инструкции и ReAct-loop для пошагового мышления
- 🔧 Интеграция инструментов и памяти
- 🛡 Безопасное выполнение кода и песочница
- 📂 Работа с большими кодовыми базами (контекст-менеджмент)

Итог: агент, который умеет писать, тестировать, дебажить и итеративно улучшать код. Отличный материал, чтобы разобраться, как устроены современные coding-assistants под капотом.

🟢 Read: https://siddharthbharath.com/build-a-coding-agent-python-tutorial/
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍2
Forwarded from Machinelearning
⚡️ Ling-flash-2.0 теперь в открытом доступе! ⚡️

Модель на 100B параметров, но задействовано всего ≈6.1B активных, что делает модель очень экономной в вычислительной нагрузке.

🚀 Чем хороша Ling-flash-2.0
- Обучена на более чем 20 триллионах токенов с до-обучением и RL-этапами.
- Демонстрирует state-of-the-art производительность среди плотных моделей до 40B параметров.
- Особенно хороша в сложном рассуждении, генерации кода и задачах с фронтендом.

⚙️ Архитектура и эффективность
- MoE-архитектура с активированием лишь части параметров (activation ratio 1/32).
- Много технических фишек: продвинутое распределение экспертов, баланс внимания, схема маршрутизации без вспомогательных потерь и др.
- На железе H20 модель генерирует 200+ токенов в секунду - в 3× быстрее по сравнению с плотной моделью 36B.
- Поддерживает контексты до 128K токенов (с YaRN).

https://huggingface.co/inclusionAI/Ling-flash-2.0

@ai_machinelearning_big_data


#moe #llm #ml #ai #opensource
👍42🔥2
🔥 Новая модель: Ring-mini-2.0

📊 При размере всего 16B параметров (и лишь **1.4B активных**) модель показывает уровень рассуждений, сравнимый с плотными моделями до 10B.

На ключевых бенчмарках:
- LiveCodeBench, AIME 2025, GPQA, ARC-AGI-v1
Ring-mini-2.0 обходит все плотные модели <10B и даже соперничает с более крупными MoE-моделями (например, gpt-oss-20B-medium), особенно в задачах логического мышления.

Дополнительно — команда vibe на базе Ring-mini-2.0 в anycoder собрала быстрый чат-приложение, демонстрируя практические возможности модели.

Ring-mini-2.0 — ещё один шаг к компактным, но мощным reasoning-моделям, которые легко запускать и интегрировать.

#AI #LLM #RingMini #Reasoning #MoE

https://huggingface.co/spaces/akhaliq/Ring-mini-2.0
🔥3👍2
📚 Университеты под ударом ИИ

В Великобритании за 4 года число вакансий для выпускников рухнуло со 180 000 до 55 000. Автоматизация рутинных задач снижает потребность в молодых специалистах - и вместе с этим падает спрос на дипломы.

ИИ "срезает" нижние ступени интеллектуальной работы: помощников юристов, аналитиков, координаторов, копирайтеров. Исчезает входная точка, ради которой раньше шли в университет.

Связка "обучение → гарантированная работа" рушится.

При этом университеты завязаны на дорогие кампусы, администрацию и исследовательские расходы. Эта модель тяжело перестраивается под падающий спрос.

В итоге ценность диплома снижается, долги остаются, а ROI многих программ обнуляется. Особенно сильно страдают средние вузы — их вытесняют AI курсы и практические стажировки, которые дают реальное портфолио и работу быстрее.

telegraph.co.uk/news/2025/09/17/universities-are-doomed-but-there-is-one-silver-lining/
👍94🔥3😢1
🔥 Внимание! Тут реальный шанс испытать свои модели на данных из мира криптофинансов.

Overnight.fi запускает соревнование ETH/USDC Predictions – конкурс прогнозирования курса пары ETH/USDC. Отличный шанс применить свои скиллы для решения прикладной задачи в DeFi.

Призовой фонд – $2,500, $1,500, $1,000 за три лучшие модели 🎉. Регистрация уже открыта, все подробности на странице соревнования.

👉 Детали соревнования: https://linkly.link/2F5sD
🤔2😁1
🚀 Оптимизация Sparse Attention для LLM

Flash Sparse Attention (FSA) предлагает эффективную реализацию нативного разреженного внимания, улучшая производительность на современных GPU. Этот репозиторий включает уникальный дизайн ядра, который минимизирует объем памяти и вычислений, что позволяет значительно ускорить обработку.

🚀 Основные моменты:
- Эффективная реализация для LLM на GPU.
- Уменьшение объема памяти и вычислений.
- Поддержка различных размеров групп GQA.
- Оптимизированный Triton-код для повышения производительности.

📌 GitHub: https://github.com/Relaxed-System-Lab/Flash-Sparse-Attention

@machinelearning_ru
👍3
🌍 Универсальный трансформер для физики

Обычно ML-модели для физики узкие: одна работает только с жидкостями, другая — с теплопереносом. Для нового сценария приходится всё обучать заново.

📌 В этой работе показывают другое:
- Один трансформер после обучения справляется сразу с разными задачами — жидкости, ударные волны, теплообмен, многокомпонентные среды.
- Поддерживает zero-shot: может работать с новыми условиями и ситуациями, которых не видел раньше.
- Остаётся стабильным даже при длинных симуляциях до 50 шагов, тогда как другие модели быстро «ломаются».

⚙️ Как он устроен:
- Смотрит несколько последних кадров и сам выводит правила эволюции системы.
- Использует патчи в пространстве и времени, attention для дальних связей и конечные разности для локальных изменений.
- Тренируется на разных наборах (потоки, тепло, препятствия, мультифазные среды) с нормализацией и случайными промежутками времени.

📊 Результат: он превосходит UNet и Fourier Neural Operator — ударные волны остаются чёткими, вихри устойчивыми, где другие модели размывают картину. Без дополнительного обучения работает даже на сверхзвуковых потоках.

⚠️ Пока ограничения есть: только 2D, фиксированное разрешение и фокус на жидкостях. Но подход указывает путь к модели «**обучи один раз — используй где угодно**» для физики.

📄 https://arxiv.org/abs/2509.13805
👍73
📄 LIMI: Less Is More for Agency

Исследование показывает, что агентным ИИ важнее качество данных, а не их количество.

Ключевые факты:
- 78 тщательно подобранных демо дали 73,5% на AgencyBench — больше, чем модели, обученные на 10k примеров.
- Результаты выше, чем у SOTA: Kimi-K2 (24,1%), DeepSeek (11,9%), Qwen3 (27,5%), GLM-4.5 (45,1%).
- Формулируется принцип Agency Efficiency: автономность ИИ рождается из стратегической выборки данных, а не из их масштаба.

repo: https://github.com/GAIR-NLP/LIMI
model: https://huggingface.co/GAIR/LIMI
data: https://huggingface.co/datasets/GAIR/LIMI
5👍2
"oh you prompt in JSON?"
👍11😁51
🎙️ VibeVoice: Инновационная модель TTS для длинных разговоров

VibeVoice — это передовая система синтеза речи, способная генерировать выразительное аудио для длительных разговоров, включая подкасты. Она решает проблемы традиционных TTS-систем, обеспечивая высокую согласованность голосов и естественное взаимодействие между несколькими спикерами.

🚀 Основные моменты:
- Синтезирует речь до 90 минут с 4 различными спикерами.
- Использует токенизаторы непрерывной речи для повышения эффективности.
- Поддерживает высокое качество звука при низкой частоте кадров.
- Применяет диффузионные модели для понимания контекста и потока диалога.

📌 GitHub: https://github.com/microsoft/VibeVoice

#python
4👍1🔥1
⚡️AI Studio: создание ИИ-агентов без навыков программирования

Yandex B2B Tech представила обновлённую платформу AI Studio. Теперь компании могут собирать ИИ-агентов без навыков программирования, используя облачные генеративные модели. Это поможет снять часть рутинных задач с бухгалтерии, HR и других сотрудников.

🚀 Основные возможности:
- Голосовые агенты на базе realtime API для контакт-центров с ответами в реальном времени.
- AI Search: поиск по изображениям, таблицам и документам, подключение к интернету.
- Мультиагентные сценарии для комплексных задач.
- Готовые решения: резюмирование встреч, SpeechSense для анализа звонков, Нейроюрист для юридических вопросов.

@machinelearning_ru

#ai #agents #cloud #ml
3👎2👍1😁1
🚗 Autoware Mini — лёгкая open-source платформа для автономного вождения от Университета Тарту.

🔹 Зачем: учёба и эксперименты. Минимум зависимостей, простая архитектура, быстрый старт.
🔹 Где работает: протестирована даже в городе Тарту (Эстония).

📌 Что внутри:
- Локализация (GPS, лидар, камеры)
- Обнаружение препятствий и прогноз движения
- Определение светофоров (красный = препятствие)
- Построение маршрута и локального движения
- Контроллер для езды по траектории

Новое в версии v0.4:
- Умный планировщик с учётом пешеходов и приоритетов
- Предсказательные модели включены по умолчанию
- Поддержка Carla 0.9.15 и карт Lanelet2
- Упрощённые зависимости и свежая документация

🔗 Код: https://github.com/UT-ADL/autoware_mini

⚡️ MIT-лицензия — можно свободно менять и ис
3🔥2🤩1
📢 В Kuaishou предложили, как улучшить рекомендации с помощью просмотров, комментариев и LLM

Классический подход в рекомендациях — смотреть на историю взаимодействий и предлагать похожее.

Исследователи Kuaishou Technology пошли дальше и построили новую систему, которая позволила добиться прироста качества по всем метрикам (NDCG, Recall) и в оффлайне, и в A/B-тестах:

— для видео +0.36% к времени просмотра и +0.78% к числу взаимодействий,
— для комментариев +4.12% и +1.35%.

Авторы считают, что подход легко переносим в другие домены.

📖 Полный разбор статьи с RecSys 2025 — у ребят из AI VK Hub
👍21🔥1👏1🎉1
🖥 Полный гайд по реальным SQL-вопросам с собеседований

Введение. Собеседования на позиции, связанные с данными (аналитики, инженеры, ученые данных), всё чаще включают нестандартные и продвинутые вопросы по SQL.

Большие технологические компании (Google, Amazon и др.) предъявляют высокие требования: важна не только правильность запроса, но и умение оптимизировать его и разбираться в реальных бизнес-данных.

В этом гайде мы разберем категории наиболее распространенных сложных SQL-задач с реальных собеседований – от платформ вроде DataLemur, LeetCode, StrataScratch – и подробно поясним решения.

Каждая задача сопровождена анализом: условие, оптимальный подход, используемые SQL-конструкции, возможные ошибки и финальное решение (для PostgreSQL и MySQL, с указанием различий где необходимо).

В конце добавлен отдельный раздел о современных базах данных, включая векторные БД (Pinecone, Weaviate, Milvus и др.), с примерами того, что могут спросить про них на собеседовании и как выглядят SQL-подобные запросы для работы с векторами.

📌 Читать гайд
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/10/09 07:40:36
Back to Top
HTML Embed Code: