💎Приглашаем вас на 3 бесплатных урока курса: «Reinforcement Learning»
💠Урок №1: «Обучение с подкреплением — гибкий подход для сложных задач. Создаем собственные окружения»
⏰9.10 в 20:00 мск
📍На уроке:
1. Введение в обучение с подкреплением
2. Обзор существующих сред: Gymnasium, FinRL. Переход к созданию собственного RL-окружения на Python
3. На практике напишем свою среду на gym.Env и подключим к ней обучающегося агента
💠Урок №2: «Q-Learning — базовый алгоритм обучения с подкреплением»
⏰15.10 в 20:00 мск
📍На уроке:
1. Что такое Q-learning и почему она важна для обучения агента
2. Как агент принимает решения и обучается с помощью таблицы Q-значений
3. Создадим среду на python и обучим агента самостоятельно
💠Урок №3: «Фреймворки для обучения с подкреплением — обзор, настройка и применение»
⏰23.10 в 20:00 мск
📍На уроке:
1. Обзор популярных RL-фреймворков: Stable-Baselines3, FinRL, CleanRL и другие
2. Настройка и запуск эксперимента с использованием одного из фреймворков: Stable-Baselines3 или CleanRL
3. Интеграция с пользовательскими и стандартными окружениями: OpenAI Gym, Gymnasium
🎁 Участникам уроков доступна скидка 5% на курс по промо-коду: RL_10 до 10.11.2025г.
Записывайтесь https://otus.pw/Hk8T/?erid=2W5zFJLvXfN
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
💠Урок №1: «Обучение с подкреплением — гибкий подход для сложных задач. Создаем собственные окружения»
⏰9.10 в 20:00 мск
📍На уроке:
1. Введение в обучение с подкреплением
2. Обзор существующих сред: Gymnasium, FinRL. Переход к созданию собственного RL-окружения на Python
3. На практике напишем свою среду на gym.Env и подключим к ней обучающегося агента
💠Урок №2: «Q-Learning — базовый алгоритм обучения с подкреплением»
⏰15.10 в 20:00 мск
📍На уроке:
1. Что такое Q-learning и почему она важна для обучения агента
2. Как агент принимает решения и обучается с помощью таблицы Q-значений
3. Создадим среду на python и обучим агента самостоятельно
💠Урок №3: «Фреймворки для обучения с подкреплением — обзор, настройка и применение»
⏰23.10 в 20:00 мск
📍На уроке:
1. Обзор популярных RL-фреймворков: Stable-Baselines3, FinRL, CleanRL и другие
2. Настройка и запуск эксперимента с использованием одного из фреймворков: Stable-Baselines3 или CleanRL
3. Интеграция с пользовательскими и стандартными окружениями: OpenAI Gym, Gymnasium
🎁 Участникам уроков доступна скидка 5% на курс по промо-коду: RL_10 до 10.11.2025г.
Записывайтесь https://otus.pw/Hk8T/?erid=2W5zFJLvXfN
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
👍1👏1
🤖 Sidekick.nvim: Ваш AI-помощник для Neovim
Sidekick.nvim интегрирует "Next Edit Suggestions" от Copilot LSP с терминалом для AI CLI, позволяя вам получать предложения по коду и взаимодействовать с AI, не покидая редактор. Удобные визуализации изменений и поддержка популярных AI инструментов делают процесс кодирования более эффективным.
🚀Основные моменты:
- Интеграция с Copilot LSP для автоматических предложений.
- Визуализация изменений с помощью Treesitter.
- Встроенный терминал для работы с AI CLI.
- Настраиваемый интерфейс и API для расширений.
- Поддержка сессий и автоматическое обновление файлов.
📌 GitHub: https://github.com/folke/sidekick.nvim
#lua
Sidekick.nvim интегрирует "Next Edit Suggestions" от Copilot LSP с терминалом для AI CLI, позволяя вам получать предложения по коду и взаимодействовать с AI, не покидая редактор. Удобные визуализации изменений и поддержка популярных AI инструментов делают процесс кодирования более эффективным.
🚀Основные моменты:
- Интеграция с Copilot LSP для автоматических предложений.
- Визуализация изменений с помощью Treesitter.
- Встроенный терминал для работы с AI CLI.
- Настраиваемый интерфейс и API для расширений.
- Поддержка сессий и автоматическое обновление файлов.
📌 GitHub: https://github.com/folke/sidekick.nvim
#lua
GitHub
GitHub - folke/sidekick.nvim: Your Neovim AI sidekick
Your Neovim AI sidekick. Contribute to folke/sidekick.nvim development by creating an account on GitHub.
👍1🔥1
Media is too big
VIEW IN TELEGRAM
GigaChat Vision Team — ваша будущая команда! 😉
Если вы зарегистрируетесь на One Day Offer для NLP- и CV-инженеров и пройдёте все этапы отбора, то уже совсем скоро будете:
✔️ Обучать Vision, 3D/CAD и омни-модальные модели на тысячах A100/H100.
✔️ Создавать live-ассистента на edge-устройствах, а также базовые модели VLA для промышленных проектов: автоматизированных фабрик, автопилотов и роботов.
✔️ Работать с документами: Document Intelligence и разработка VLM OCR.
✔️ Развивать мультимодальную инфраструктуру: от инференса генеративных моделей до создания и авторазметки синтетических данных
Дублируем ссылку на регистрацию — до встречи 4 октября!
Если вы зарегистрируетесь на One Day Offer для NLP- и CV-инженеров и пройдёте все этапы отбора, то уже совсем скоро будете:
✔️ Обучать Vision, 3D/CAD и омни-модальные модели на тысячах A100/H100.
✔️ Создавать live-ассистента на edge-устройствах, а также базовые модели VLA для промышленных проектов: автоматизированных фабрик, автопилотов и роботов.
✔️ Работать с документами: Document Intelligence и разработка VLM OCR.
✔️ Развивать мультимодальную инфраструктуру: от инференса генеративных моделей до создания и авторазметки синтетических данных
Дублируем ссылку на регистрацию — до встречи 4 октября!
🧩 Разговор психотерапевта с ChatGPT показал любопытный эффект: модель умеет создавать ощущение близости, подстраиваться под стиль собеседника и поддерживать беседу, хотя у неё нет никакой «внутренней жизни».
💡 Почему так происходит:
- RLHF — люди обучили модель быть вежливой, тёплой и «безопасной» в ответах.
- Поэтому она автоматически ведёт плавный и приятный диалог.
- Зеркалирование — модель копирует слова и ритм речи пользователя, что создаёт ощущение понимания. Но это часто превращается в поддакивание: ответы больше угождают, чем отражают правду.
📊 Исследования показывают: чат-боты выглядят даже «эмпатичнее» людей. В одном эксперименте пользователи предпочли ответы ИИ в 79% случаев, посчитав их более заботливыми, чем ответы врачей.
Подробнее: newyorker.com/culture/the-weekend-essay/putting-chatgpt-on-the-couch
#AI #ChatGPT #LLM
💡 Почему так происходит:
- RLHF — люди обучили модель быть вежливой, тёплой и «безопасной» в ответах.
- Поэтому она автоматически ведёт плавный и приятный диалог.
- Зеркалирование — модель копирует слова и ритм речи пользователя, что создаёт ощущение понимания. Но это часто превращается в поддакивание: ответы больше угождают, чем отражают правду.
📊 Исследования показывают: чат-боты выглядят даже «эмпатичнее» людей. В одном эксперименте пользователи предпочли ответы ИИ в 79% случаев, посчитав их более заботливыми, чем ответы врачей.
Подробнее: newyorker.com/culture/the-weekend-essay/putting-chatgpt-on-the-couch
#AI #ChatGPT #LLM
👍2❤1
Как выбрать IT-инфраструктуру для ML и как внедрить MLOps?
Реальные бизнес-кейсы
Присоединяйтесь к Selectel Tech Day 8 октября, чтобы узнать о лучших практиках масштабирования ML-проектов и актуальных трендах инфраструктурного ML.
На отдельном ML-треке обсудят:
🔺Как превратить экспериментальные модели в стабильные продакшн-системы.
🔺Как оценить эффективность внедрения ML-решений.
🔺Какая инфраструктура закроет все потребности ML-проектов.
Вас ждет насыщенная программа: содержательные доклады, экспертная дискуссия и воркшоп. Участие бесплатное, нужно только зарегистрироваться →
Реклама. АО "Селектел". erid:2W5zFGQUEAU
Реальные бизнес-кейсы
Присоединяйтесь к Selectel Tech Day 8 октября, чтобы узнать о лучших практиках масштабирования ML-проектов и актуальных трендах инфраструктурного ML.
На отдельном ML-треке обсудят:
🔺Как превратить экспериментальные модели в стабильные продакшн-системы.
🔺Как оценить эффективность внедрения ML-решений.
🔺Какая инфраструктура закроет все потребности ML-проектов.
Вас ждет насыщенная программа: содержательные доклады, экспертная дискуссия и воркшоп. Участие бесплатное, нужно только зарегистрироваться →
Реклама. АО "Селектел". erid:2W5zFGQUEAU
👍1
🚀 Как обучать LLM с Unsloth + Docker
Unsloth — это open-source фреймворк, который упрощает и ускоряет fine-tuning и RL для больших языковых моделей.
🧰 Основные шаги
1. Использование Docker-образа Unsloth
Вместо ручной установки всех зависимостей можно запустить подготовленный контейнер
2. Запуск внутри контейнера
Внутри контейнера вы загружаете модель (например, LLaMA, Phi, Mistral и др.) и применяете Unsloth для обучения или дообучения (fine-tuning).
3. Конфигурация fine-tuning
Используются подходы вроде LoRA / QLoRA, gradient checkpointing, quantization и др., которые минимизируют потребление памяти и ускоряют обучение.
4. Запуск обучения и оптимизация
После настройки данных, модели и конфигурации запускается процесс обучения, при этом Unsloth оптимизирует внутренние операции, используя свои ядра и ускорение.
✅ Почему стоит попробовать
- Упрощённый workflow: Docker избавляет от проблем с зависимостями
- Эффективность: меньше затрат по памяти и времени благодаря оптимизациям
- Совместимость: работает с популярными моделями, quantization, адаптирует существующие пайплайны
#LLM #Docker #AI #Unsloth
https://docs.unsloth.ai/new/how-to-train-llms-with-unsloth-and-docker
Unsloth — это open-source фреймворк, который упрощает и ускоряет fine-tuning и RL для больших языковых моделей.
🧰 Основные шаги
1. Использование Docker-образа Unsloth
Вместо ручной установки всех зависимостей можно запустить подготовленный контейнер
unsloth/unsloth
, где уже настроены все инструменты. 2. Запуск внутри контейнера
Внутри контейнера вы загружаете модель (например, LLaMA, Phi, Mistral и др.) и применяете Unsloth для обучения или дообучения (fine-tuning).
3. Конфигурация fine-tuning
Используются подходы вроде LoRA / QLoRA, gradient checkpointing, quantization и др., которые минимизируют потребление памяти и ускоряют обучение.
4. Запуск обучения и оптимизация
После настройки данных, модели и конфигурации запускается процесс обучения, при этом Unsloth оптимизирует внутренние операции, используя свои ядра и ускорение.
✅ Почему стоит попробовать
- Упрощённый workflow: Docker избавляет от проблем с зависимостями
- Эффективность: меньше затрат по памяти и времени благодаря оптимизациям
- Совместимость: работает с популярными моделями, quantization, адаптирует существующие пайплайны
#LLM #Docker #AI #Unsloth
https://docs.unsloth.ai/new/how-to-train-llms-with-unsloth-and-docker
🔥5❤2
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤5🔥3
Forwarded from Machinelearning
Модель объединяет понимание, генерацию и редактирование аудио без привязки к таймстампам. Основой стал новый токенайзер MingTok-Audio, на котором построен единый Speech LLM. Одновременно выпущен бенчмарк для свободного редактирования речи.
GitHub / Tokenizer / Model / Benchmark
Основатель Coursera Эндрю Ын выпустил бесплатный курс по нейросетям.
В курсе: базовые основы Deep Learning, практические задания и советы по построению карьеры в AI.
Первая лекция уже доступна, все материалы и расписание — открыты. Отличный шанс провести выходные с пользой и глубже разобраться в мире нейросетей.
Первая лекция / Расписание
Почти 40% роста ВВП США за последний квартал обеспечили капитальные вложения в технологии, главным образом связанные с AI.
UBS прогнозирует, что расходы компаний на AI-инфраструктуру достигнут $375 млрд в 2025 году и вырастут до $500 млрд в 2026-м. Но основной рост идёт не от самого AI, а от строительства «фабрик мощности» - дата-центров и инфраструктуры. По оценке Brookfield Asset Management, за ближайшие 10 лет в эту сферу уйдёт $7 трлн.
По данным Минторга США, инвестиции в софт и компьютерное оборудование (без учёта зданий дата-центров) дали четверть всего экономического роста за квартал.
Этот всплеск трат меняет и фондовый рынок: как отмечает Deutsche Bank, индекс S&P 500 вырос на 13.81% с начала года, тогда как равновзвешенный вариант прибавил лишь 7.65%. То есть рост обеспечивают в основном «Великолепная семёрка» технологических гигантов.
X
Дети 4–5 классов учатся два часа утром по индивидуальным программам в науке, математике и чтении, а после обеда занимаются проектами и жизненными навыками.
Учителей здесь называют «гидами» - они мотивируют, а не преподают, получая шестизначные зарплаты. Школа утверждает, что её ученики входят в топ-1% по тестам, хотя педагоги скептически относятся к роли ИИ.
Обучение стоит от $40 000 в год, но основатели считают модель примером будущего образования.
cbsnews
Один из величайших математиков современности, Теренс Тао, использовал искусственный интеллект, чтобы решить задачу на MathOverflow о последовательности наименьших общих кратных.
У него было теоретическое подозрение, что ответ отрицательный, но требовались конкретные числовые параметры для построения контрпримера. Сначала Тао просил ИИ сгенерировать Python-код для поиска, но из-за неверных параметров и долгого времени выполнения этот путь оказался неэффективным.
Затем он перешёл к пошаговому алгоритму: ИИ выполнял эвристические расчёты, помогая сузить диапазон параметров. В итоге удалось получить рабочие значения, которые Тао проверил самостоятельно с помощью короткого Python-скрипта, также созданного ИИ.
Такая стратегия позволила сэкономить часы ручного кодирования и отладки: ИИ не только ускорил поиск, но и выявил несколько ошибок в начальных рассуждениях. Этот случай показывает, как современные системы могут становиться реальными ассистентами даже в фундаментальной математике.
mathstodon
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2
Профессиональный гайд по работе с ChatGPT (2025)
Как использовать ChatGPT не просто как «умного собеседника», а как полноценного помощника для программирования, маркетинга, аналитики и обучения?
Мы разберём, какие версии модели существуют, какие плагины открывают новые возможности, как строить промпты так, чтобы получать точные и полезные ответы, и как интегрировать ChatGPT в рабочие процессы.
Если у вас нет доступа к chatgpt можете использовать бесплатного бота в телеге, чтобы потестить все техники из статьи или воспользоваться обычной версией с помощью всем известного обхода блокировки.
Не будем тянуть время, Поехали!
📌 Гайд
Как использовать ChatGPT не просто как «умного собеседника», а как полноценного помощника для программирования, маркетинга, аналитики и обучения?
Мы разберём, какие версии модели существуют, какие плагины открывают новые возможности, как строить промпты так, чтобы получать точные и полезные ответы, и как интегрировать ChatGPT в рабочие процессы.
Если у вас нет доступа к chatgpt можете использовать бесплатного бота в телеге, чтобы потестить все техники из статьи или воспользоваться обычной версией с помощью всем известного обхода блокировки.
Не будем тянуть время, Поехали!
📌 Гайд
❤3👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Amazon FAR показывает, как роботы учатся двигаться как люди
Новая команда Amazon FAR (созданная после покупки Covariant**) представила систему, которая умеет **переносить длинные последовательности человеческих движений (>30 секунд) на роботов с разной анатомией и в разных условиях — например, при взаимодействии с коробками, столами и объектами разных размеров.
Технология позволяет делать масштабное симуляционное обучение и zero-shot-трансфер — без необходимости собирать сложные телеметрические данные от операторов-людей, что особенно важно для гуманоидных роботов.
📦 Датасет доступен на Hugging Face (ищите *OmniRetarget*), а полный код-фреймворк команда обещает выложить скоро.
На странице проекта уже есть трёхмерные интерактивные демо на *three.js* — выглядят впечатляюще.
omniretarget.github.io
Новая команда Amazon FAR (созданная после покупки Covariant**) представила систему, которая умеет **переносить длинные последовательности человеческих движений (>30 секунд) на роботов с разной анатомией и в разных условиях — например, при взаимодействии с коробками, столами и объектами разных размеров.
Технология позволяет делать масштабное симуляционное обучение и zero-shot-трансфер — без необходимости собирать сложные телеметрические данные от операторов-людей, что особенно важно для гуманоидных роботов.
📦 Датасет доступен на Hugging Face (ищите *OmniRetarget*), а полный код-фреймворк команда обещает выложить скоро.
На странице проекта уже есть трёхмерные интерактивные демо на *three.js* — выглядят впечатляюще.
omniretarget.github.io
❤2👍1🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Machinelearning
Это меньше в 10 000 раз, чем у современных LLM, но результат лучше.
Как работает TRM:
1️⃣ Черновой ответ: модель сразу формирует быстрый набросок решения, а не пишет его по словам.
2️⃣ Скрачпад: создаёт внутреннее пространство для логики и промежуточных рассуждений.
3️⃣ Самокритика: многократно (6 раз) проверяет свои рассуждения, уточняя и исправляя ошибки.
4️⃣ Переписывание: на основе улучшённой логики создаёт новую, более точную версию ответа.
5️⃣ Цикличность: повторяет процесс до 16 раз, пока не достигнет уверенного, логически цельного решения.
💡 Чем интересна модель:
- Меньше затрат на вычисления, а результат выше; высокая эффективность при низких издержках.
- Доказательство того, что собственная логика и архитектура могут быть сильнее простого размера модели. Можно коротко описать ее: «думай, прежде чем действовать».
- Мощные рассуждающие системы становятся доступными даже без огромных кластеров, модель можно запускать на ограниченных ресурсах.
Это не просто «компактаная LLM», это другой способ мышления: модель, которая действительно *думает, прежде чем говорить*.
@ai_machinelearning_big_data
#TinyRecursiveModels #TRM #DeepLearning #NeuralNetworks
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍6