This media is not supported in your browser
VIEW IN TELEGRAM
📁 Илон Маск о Optimus v3:
🤖 Робот получит:
- Человеко-подобную ловкость
- ИИ, понимающий реальность
- Массовое производство в объёмах, которых ещё не достигала ни одна робототехническая компания
Маск считает, что это может стать самым большим продуктом в истории.
💵 Цена:
- На старте: $30,000–$40,000 за единицу
- При масштабировании до ~1 млн роботов в год: падение цены до $20,000
👉 Если всё пойдёт по плану, Optimus станет не просто демонстрацией технологий, а реальным массовым продуктом, меняющим рынок труда и быта.
🤖 Робот получит:
- Человеко-подобную ловкость
- ИИ, понимающий реальность
- Массовое производство в объёмах, которых ещё не достигала ни одна робототехническая компания
Маск считает, что это может стать самым большим продуктом в истории.
💵 Цена:
- На старте: $30,000–$40,000 за единицу
- При масштабировании до ~1 млн роботов в год: падение цены до $20,000
👉 Если всё пойдёт по плану, Optimus станет не просто демонстрацией технологий, а реальным массовым продуктом, меняющим рынок труда и быта.
❤7👍4🔥2👏1
🚀 Unsloth показал, как динамическая квантизация (Dynamic GGUFs) может радикально ускорить и облегчить работу LLM, не теряя качество.
В чём суть
Обычные методы квантизации уменьшают разрядность весов модели одинаково для всех слоёв.
Unsloth пошёл дальше: каждому слою подбирается своё число бит.
- Ключевые слои → 6–8 бит (чтобы сохранить точность).
- Второстепенные → 1–3 бита (для максимального сжатия).
Результаты, которых удалось добиться:
- 671B DeepSeek-V3.1: сжатие модели с 671GB до 192GB (–75%).
- 1-бит версия уже обгоняет GPT-4.1 и GPT-4.5 в «no-thinking» задачах.
- 3-бит версия превосходит Claude-4-Opus в «thinking» задачах.
- 5-бит версия догоняет и стабильно держит уровень SOTA.
🟢 Почему это интересно:
- Сжатие → модели становятся доступнее для запуска на меньших GPU.
- Качество не падает, а иногда даже растёт за счёт умного распределения битности.
- Тесты на Aider Polyglot benchmark показывают лучшие результаты среди существующих quant-моделей.
🟢 Итог
Dynamic GGUF от Unsloth — это не просто ещё один способ «урезать» модель, а технология, которая делает триллионные LLM компактными, быстрыми и при этом сверхточными.
⭐Пост: https://docs.unsloth.ai/basics/unsloth-dynamic-ggufs-on-aider-polyglot
#Unsloth #LLM #Quantization #AI #AiderPolyglot
В чём суть
Обычные методы квантизации уменьшают разрядность весов модели одинаково для всех слоёв.
Unsloth пошёл дальше: каждому слою подбирается своё число бит.
- Ключевые слои → 6–8 бит (чтобы сохранить точность).
- Второстепенные → 1–3 бита (для максимального сжатия).
Результаты, которых удалось добиться:
- 671B DeepSeek-V3.1: сжатие модели с 671GB до 192GB (–75%).
- 1-бит версия уже обгоняет GPT-4.1 и GPT-4.5 в «no-thinking» задачах.
- 3-бит версия превосходит Claude-4-Opus в «thinking» задачах.
- 5-бит версия догоняет и стабильно держит уровень SOTA.
- Сжатие → модели становятся доступнее для запуска на меньших GPU.
- Качество не падает, а иногда даже растёт за счёт умного распределения битности.
- Тесты на Aider Polyglot benchmark показывают лучшие результаты среди существующих quant-моделей.
Dynamic GGUF от Unsloth — это не просто ещё один способ «урезать» модель, а технология, которая делает триллионные LLM компактными, быстрыми и при этом сверхточными.
⭐Пост: https://docs.unsloth.ai/basics/unsloth-dynamic-ggufs-on-aider-polyglot
#Unsloth #LLM #Quantization #AI #AiderPolyglot
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍4🔥3
🧠 ThinkMesh: Параллельное мышление для LLM
ThinkMesh — это библиотека на Python, позволяющая запускать различные пути рассуждений параллельно, используя внутренние сигналы уверенности для перераспределения вычислительных ресурсов. Она поддерживает оффлайн-работу с Hugging Face Transformers и API.
🚀 Основные моменты:
- Параллельное рассуждение с динамическим перераспределением бюджета
- Оффлайн-работа с Transformers и интеграция с OpenAI
- Асинхронное выполнение с динамическими микро-пакетами
- Поддержка пользовательских верификаторов и редукций
- Кэширование и метрики для отслеживания производительности
📌 GitHub: https://github.com/martianlantern/ThinkMesh
#python
ThinkMesh — это библиотека на Python, позволяющая запускать различные пути рассуждений параллельно, используя внутренние сигналы уверенности для перераспределения вычислительных ресурсов. Она поддерживает оффлайн-работу с Hugging Face Transformers и API.
🚀 Основные моменты:
- Параллельное рассуждение с динамическим перераспределением бюджета
- Оффлайн-работа с Transformers и интеграция с OpenAI
- Асинхронное выполнение с динамическими микро-пакетами
- Поддержка пользовательских верификаторов и редукций
- Кэширование и метрики для отслеживания производительности
📌 GitHub: https://github.com/martianlantern/ThinkMesh
#python
GitHub
GitHub - martianlantern/ThinkMesh: Parallel thinking for LLMs. Confidence‑gated, strategy‑driven, offline‑friendly
Parallel thinking for LLMs. Confidence‑gated, strategy‑driven, offline‑friendly - martianlantern/ThinkMesh
🔥8❤3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Google Cloud добавил два новых расширения в Gemini CLI, которые делают работу с приложениями удобнее и безопаснее:
1️⃣
2️⃣
Теперь эти операции можно выполнять прямо из командной строки.
Подробнее: https://goo.gle/46aR6a0
#GoogleCloud #GeminiCLI #CloudRun #Security #DevTools
1️⃣
/deploy
— деплой прямо в Cloud Run 2️⃣
/security:analyze
— проверка кода на уязвимости Теперь эти операции можно выполнять прямо из командной строки.
Подробнее: https://goo.gle/46aR6a0
#GoogleCloud #GeminiCLI #CloudRun #Security #DevTools
👍2
Forwarded from Machinelearning
Это text-image модель, которая может генерировать изображения в 2K.
Теперь модель можно запускать локально. Для этого необходимо минимум 24GB VRAM.
@ai_machinelearning_big_data
#AI #HunyuanImage #StableDiffusion #ImageGeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍2🔥1🤩1
Forwarded from Machinelearning
Лёгкая LLM-модель, которая умеет хранить знания в человеко-читаемой памяти (Markdown-файлы) и использовать их для ответов. Агент не просто отвечает на запросы, а действительно «помнит» факты и обновляет их по ходу работы.
Это агент на 4B с локальной, совместимой памятью для Claude, ChatGPT и LM Studio.
Как работает память:
- Вся информация лежит в Markdown:
memory/user.md
и отдельные файлы для сущностей. - Связи между файлами сделаны как в Obsidian:
[[entity]]
. - Агент может извлекать факты, обновлять их или задавать уточняющие вопросы, если запрос неполный.
Вместо огромных контекстов и упора в лимиты, Mem-Agent извлекает нужные фрагменты из локальных документов, сжимает их и передаёт агенту.
Как обучали:
- Базовая модель: Qwen3-4B-Thinking-2507.
- Использовали метод онлайн-RL (GSPO).
- Тестировали на md-memory-bench.
Результаты:
- mem-agent уверенно решает задачи памяти, близко к уровню больших моделей.
- Даже в сжатых версиях (4-bit и 8-bit) сохраняет почти то же качество.
Чем хорош:
- Память можно читать и редактировать вручную.
- Агент работает быстро и эффективно, даже в маленьком размере.
- Удобен как компонент в более крупных системах (например, через MCP).
@ai_machinelearning_big_data
#LLM #AI #Agents #MemAgent #Dria #MCP #LocalAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍2
🌐 Теория «Мёртвого интернета» в действии
1️⃣ Именно поэтому Цукерберг и его компания продвигают своих AI-компаньонов (Цитата Марка: *«у каждого должны быть AI-друзья»*) — потому что теория «мёртвого интернета» постепенно становится реальностью.
2️⃣ Интернет и социальные сети уже переполнены ботами на базе ИИ — и отличить человека от машины становится всё сложнее.
🤖 Граница между реальным общением и синтетическим присутствием всё больше размывается.
1️⃣ Именно поэтому Цукерберг и его компания продвигают своих AI-компаньонов (Цитата Марка: *«у каждого должны быть AI-друзья»*) — потому что теория «мёртвого интернета» постепенно становится реальностью.
2️⃣ Интернет и социальные сети уже переполнены ботами на базе ИИ — и отличить человека от машины становится всё сложнее.
🤖 Граница между реальным общением и синтетическим присутствием всё больше размывается.
❤12👍3😱2🔥1
❓Как стать востребованным специалистом в ML?
Получите актуальные знания и навыки на курсе «Machine Learning. Professional».
🔹Освойте современные инструменты на профессиональном уровне и получите навыки создания моделей машинного обучения от преподавателей-практиков.
🔹Мы вместе с преподавателями подготовили программу обучения, где много практики, чтобы вы использовали только актуальные инструменты 2025 года на реальных проектах во время обучения.
✅ После обучения вы сможете:
• Работать с языковыми моделями (NLP)
• Прогнозировать временные ряды при помощи машинного обучения.
• Строить рекомендательные системы
готовить модели в продакшн
• Разрабатывать и создавать нейросетевые AI-модели
• Работать с AI-моделями
• Применять широкий спектр нейросетевых AI-моделей для разнообразных задач.
Записывайтесь на бесплатный вебинар
⏰ 15 сентября в 20:00 мск.
🎁Участники вебинара смогут активировать скидку 5% на курс по промо-коду: ML_PRO_09 до 10.10.2025г. Регистрация на сайте.
⏰ Старт курса: 26 сентября.
Оставить заявку ➡️ OTUS.RU
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Получите актуальные знания и навыки на курсе «Machine Learning. Professional».
🔹Освойте современные инструменты на профессиональном уровне и получите навыки создания моделей машинного обучения от преподавателей-практиков.
🔹Мы вместе с преподавателями подготовили программу обучения, где много практики, чтобы вы использовали только актуальные инструменты 2025 года на реальных проектах во время обучения.
✅ После обучения вы сможете:
• Работать с языковыми моделями (NLP)
• Прогнозировать временные ряды при помощи машинного обучения.
• Строить рекомендательные системы
готовить модели в продакшн
• Разрабатывать и создавать нейросетевые AI-модели
• Работать с AI-моделями
• Применять широкий спектр нейросетевых AI-моделей для разнообразных задач.
Записывайтесь на бесплатный вебинар
⏰ 15 сентября в 20:00 мск.
🎁Участники вебинара смогут активировать скидку 5% на курс по промо-коду: ML_PRO_09 до 10.10.2025г. Регистрация на сайте.
⏰ Старт курса: 26 сентября.
Оставить заявку ➡️ OTUS.RU
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
👍2❤1
Media is too big
VIEW IN TELEGRAM
🧠 SpikingBrain-7B: Модели, вдохновленные нейробиологией
SpikingBrain-7B представляет собой архитектуру, основанную на механизмах мозга, которая использует гибридное внимание и модули MoE для эффективного обучения. Она обеспечивает высокую производительность при минимальных затратах данных и адаптирована для кластеров без NVIDIA, что позволяет значительно ускорить обучение и вывод.
🚀Основные моменты:
- Интеграция гибридного внимания и MoE.
- Поддержка низкопрофильного обучения с использованием менее 2% данных.
- Оптимизирована для кластеров MetaX.
- Достигает более чем 100-кратного ускорения в обработке длинных последовательностей.
- Включает версии для HuggingFace и квантованную версию.
📌 GitHub: https://github.com/BICLab/SpikingBrain-7B
📌 Видео-разбор: https://www.youtube.com/watch?v=pLNheyBzA9o
SpikingBrain-7B представляет собой архитектуру, основанную на механизмах мозга, которая использует гибридное внимание и модули MoE для эффективного обучения. Она обеспечивает высокую производительность при минимальных затратах данных и адаптирована для кластеров без NVIDIA, что позволяет значительно ускорить обучение и вывод.
🚀Основные моменты:
- Интеграция гибридного внимания и MoE.
- Поддержка низкопрофильного обучения с использованием менее 2% данных.
- Оптимизирована для кластеров MetaX.
- Достигает более чем 100-кратного ускорения в обработке длинных последовательностей.
- Включает версии для HuggingFace и квантованную версию.
📌 GitHub: https://github.com/BICLab/SpikingBrain-7B
📌 Видео-разбор: https://www.youtube.com/watch?v=pLNheyBzA9o
❤8👍3
Стань участником МТС True Tech Champ 2025 — масштабного ИТ-чемпионата по программированию с призовым фондом 10 250 000 рублей.
Соревнования пройдут в двух треках:
1. Алгоритмические задачи
Покажи индивидуальное мастерство в работе со структурами данных и написании алгоритмов. Чтобы успешно справиться с заданиями, пригодится опыт решения олимпиад.
2. Программирование роботов
Оживи робота с помощью кода, чтобы он прошел лабиринт быстрее всех. Трек будет интересен разработчикам: С++, Go, Python, JS, Java, C# и не только.
Участвовать могут школьники, студенты, начинающие ИТ-специалисты и опытные разработчики. Отборочные этапы пройдут онлайн, шоу-финал — 21 ноября в МТС Live Холл в Москве.
Ты можешь выйти на арену как участник или наблюдать за чемпионатом как зритель.
Регистрируйся до 20 октября по ссылке.
Соревнования пройдут в двух треках:
1. Алгоритмические задачи
Покажи индивидуальное мастерство в работе со структурами данных и написании алгоритмов. Чтобы успешно справиться с заданиями, пригодится опыт решения олимпиад.
2. Программирование роботов
Оживи робота с помощью кода, чтобы он прошел лабиринт быстрее всех. Трек будет интересен разработчикам: С++, Go, Python, JS, Java, C# и не только.
Участвовать могут школьники, студенты, начинающие ИТ-специалисты и опытные разработчики. Отборочные этапы пройдут онлайн, шоу-финал — 21 ноября в МТС Live Холл в Москве.
Ты можешь выйти на арену как участник или наблюдать за чемпионатом как зритель.
Регистрируйся до 20 октября по ссылке.
🚀 Обучение LLM-агентов для многоповоротного принятия решений
AgentGym-RL — это фреймворк для тренировки LLM-агентов, способных принимать решения в сложных многоповоротных сценариях с использованием методов усиленного обучения. Он предлагает разнообразные реальные сценарии и поддерживает популярные алгоритмы RL, улучшая производительность моделей до уровня коммерческих решений.
🚀 Основные моменты:
- Модульная система для гибкости и расширяемости.
- Поддержка различных реальных сред, включая веб-навигацию и глубокий поиск.
- Метод ScalingInter-RL для стабильного обучения агентов.
- Интерактивный интерфейс для визуализации взаимодействий.
📌 GitHub: https://github.com/WooooDyy/AgentGym-RL
#python
AgentGym-RL — это фреймворк для тренировки LLM-агентов, способных принимать решения в сложных многоповоротных сценариях с использованием методов усиленного обучения. Он предлагает разнообразные реальные сценарии и поддерживает популярные алгоритмы RL, улучшая производительность моделей до уровня коммерческих решений.
🚀 Основные моменты:
- Модульная система для гибкости и расширяемости.
- Поддержка различных реальных сред, включая веб-навигацию и глубокий поиск.
- Метод ScalingInter-RL для стабильного обучения агентов.
- Интерактивный интерфейс для визуализации взаимодействий.
📌 GitHub: https://github.com/WooooDyy/AgentGym-RL
#python
❤5👍2🔥1
Продуктивная пятница для тех кто в теме Java и ML – приходите на VK JT Meetup!
3 октября VK проводит VK JT Meetup в Нижнем — офлайн-встречу ML-инженеров и Java-разработчиков.
Лиды VK расскажут про вызовы перед бэкендером, которые возникают в процессе создания B2B-продукта. А также поделятся пошаговым гайдом по выпуску RAG в прод и процессом создания единой инфраструктуры поисковой платформы.
А после докладов вас ждут командные кейс-батлы и нетворкинг.
Приходите посоревноваться за призы в кейс-батле и пообщаться с экспертами в нетворкинг-зоне.
📍 Нижний Новгород, только офлайн
📅 3 октября, сбор с 18:00
🎟 Вход по регистрации
3 октября VK проводит VK JT Meetup в Нижнем — офлайн-встречу ML-инженеров и Java-разработчиков.
Лиды VK расскажут про вызовы перед бэкендером, которые возникают в процессе создания B2B-продукта. А также поделятся пошаговым гайдом по выпуску RAG в прод и процессом создания единой инфраструктуры поисковой платформы.
А после докладов вас ждут командные кейс-батлы и нетворкинг.
Приходите посоревноваться за призы в кейс-батле и пообщаться с экспертами в нетворкинг-зоне.
📍 Нижний Новгород, только офлайн
📅 3 октября, сбор с 18:00
🎟 Вход по регистрации
🌐 DeepMind представила URL Context — теперь можно извлекать данные с любой веб-страницы, PDF или картинки просто по ссылке!
⚡ Что умеет:
- Подтягивает данные с до 20 URL за один запрос
- Никакой настройки — просто вставляешь ссылки в промпт
- Оплата только за токены, без доп. стоимости за инструмент
💡 Возможности:
▸ Вытаскивать цены, имена, ключевые факты из статей
▸ Сравнивать PDF, отчёты или статьи
▸ Генерировать резюме, посты и документы на основе разных источников
▸ Анализировать GitHub-репозитории и техдоки
👉 URL Context превращает LLM в универсальный инструмент для работы с реальными данными в сети.
https://ai.google.dev/gemini-api/docs/url-context?hl=ru
⚡ Что умеет:
- Подтягивает данные с до 20 URL за один запрос
- Никакой настройки — просто вставляешь ссылки в промпт
- Оплата только за токены, без доп. стоимости за инструмент
💡 Возможности:
▸ Вытаскивать цены, имена, ключевые факты из статей
▸ Сравнивать PDF, отчёты или статьи
▸ Генерировать резюме, посты и документы на основе разных источников
▸ Анализировать GitHub-репозитории и техдоки
👉 URL Context превращает LLM в универсальный инструмент для работы с реальными данными в сети.
https://ai.google.dev/gemini-api/docs/url-context?hl=ru
❤3👍1
Канал о серверной и облачной инфраструктуре для ИИ.
Подписывайся на Telegram-канал HOSTKEY — здесь вы найдете:
🔹тесты производительности и бенчмарки GPU-карт и серверного «железа»
🔹новости рынка и технологий
🔹лайфхаки и инструкции по интеграции ИИ в проекты
🔹практические советы для разработчиков и бизнеса
🔥 Последние популярные публикации канала:
🔹 Сравнение NVIDIA RTX 6000 Blackwell 96 ГБ с RTX 5090, A5000 и H100 в задачах LLM и генерации видео — результаты удивляют!
🔹Тестирование NVIDIA GeForce RTX 5090 в задачах ИИ.
🔹10 советов по Open WebUI, которые помогут в работе с нейросетями.
🔹Как добавить генерацию изображений через ComfyUI в Open WebUI.
🎁 А еще мы каждый месяц разыгрываем Telegram Premium среди подписчиков!
Если вы работаете с ИИ и нейросетями — вам точно будет интересно и полезно!
Подписывайтесь!
#реклама
О рекламодателе
Подписывайся на Telegram-канал HOSTKEY — здесь вы найдете:
🔹тесты производительности и бенчмарки GPU-карт и серверного «железа»
🔹новости рынка и технологий
🔹лайфхаки и инструкции по интеграции ИИ в проекты
🔹практические советы для разработчиков и бизнеса
🔥 Последние популярные публикации канала:
🔹 Сравнение NVIDIA RTX 6000 Blackwell 96 ГБ с RTX 5090, A5000 и H100 в задачах LLM и генерации видео — результаты удивляют!
🔹Тестирование NVIDIA GeForce RTX 5090 в задачах ИИ.
🔹10 советов по Open WebUI, которые помогут в работе с нейросетями.
🔹Как добавить генерацию изображений через ComfyUI в Open WebUI.
🎁 А еще мы каждый месяц разыгрываем Telegram Premium среди подписчиков!
Если вы работаете с ИИ и нейросетями — вам точно будет интересно и полезно!
Подписывайтесь!
#реклама
О рекламодателе
❤3👍1
🤖 Build a Coding Agent from Scratch — Full Python Tutorial
Новый туториал показывает, как своими руками собрать мини-версию Claude Code-агента на Python.
Что внутри:
- 🧠 Создание reasoning-модуля («мозга» для принятия решений)
- 📝 Инструкции и ReAct-loop для пошагового мышления
- 🔧 Интеграция инструментов и памяти
- 🛡 Безопасное выполнение кода и песочница
- 📂 Работа с большими кодовыми базами (контекст-менеджмент)
Итог: агент, который умеет писать, тестировать, дебажить и итеративно улучшать код. Отличный материал, чтобы разобраться, как устроены современные coding-assistants под капотом.
🟢 Read: https://siddharthbharath.com/build-a-coding-agent-python-tutorial/
Новый туториал показывает, как своими руками собрать мини-версию Claude Code-агента на Python.
Что внутри:
- 🧠 Создание reasoning-модуля («мозга» для принятия решений)
- 📝 Инструкции и ReAct-loop для пошагового мышления
- 🔧 Интеграция инструментов и памяти
- 🛡 Безопасное выполнение кода и песочница
- 📂 Работа с большими кодовыми базами (контекст-менеджмент)
Итог: агент, который умеет писать, тестировать, дебажить и итеративно улучшать код. Отличный материал, чтобы разобраться, как устроены современные coding-assistants под капотом.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2