«Отличный курс для подготовки к собеседованиям»
Таким отзывом делится выпускница курса LLM Екатерина Синькова
📍В карточках мы собрали цитаты из отзывов других выпускников.
Больше отзывов читайте на сайте, там же можно изучить подробности о программе и спикерах.
Напоминаем, что новый поток начинается 16 октября, а до 5 октября можно записаться в лист ожидания, чтобы получить скидку до 20%🔥
Таким отзывом делится выпускница курса LLM Екатерина Синькова
📍В карточках мы собрали цитаты из отзывов других выпускников.
Больше отзывов читайте на сайте, там же можно изучить подробности о программе и спикерах.
Напоминаем, что новый поток начинается 16 октября, а до 5 октября можно записаться в лист ожидания, чтобы получить скидку до 20%
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14🔥7👏5😁2🐳1
Что происходит в LLM. Октябрь 2025
Несмотря на то, что LLM — главный хайп последних 2 лет, вокруг больших моделей остаётся много путаницы и заблуждений. Чем отличаются модели? Надо ли доучивать модель? Хостить или ходить по API? На что можно рассчитывать при построении агента или RAG-системы? Почему у кого-то работают RAG и агенты, а кто-то вовсе в них разочаровался?
Ответим на эти и другие вопросы на онлайн-лекции в четверг! За полтора часа дадим актуальный срез индустрии вокруг LLM:
— актуальные модели и их свойства
— бенчмарки
— self-host VS API
— типы задач
— главные «болячки» ванильных решений
— и актуальные советы по их лечению
Спикер — Дмитрий Калашников, NLP Team Lead в Яндексе🔥
А ещё мы расскажем про наш курс «LLM», где объясняем теорию LLM, учим промптингу, дообучению, элайменту, построению RAG, агентских-систем и деплою — всё под кураторством опытных инженеров.
Всем участникам лекции мы подарим скидки на обучение 🎁
📅 Встречаемся в четверг, 9 октября в 18:30 МСК!
Регистрируйтесь по ссылке и приходите на лекцию в четверг!
Несмотря на то, что LLM — главный хайп последних 2 лет, вокруг больших моделей остаётся много путаницы и заблуждений. Чем отличаются модели? Надо ли доучивать модель? Хостить или ходить по API? На что можно рассчитывать при построении агента или RAG-системы? Почему у кого-то работают RAG и агенты, а кто-то вовсе в них разочаровался?
Ответим на эти и другие вопросы на онлайн-лекции в четверг! За полтора часа дадим актуальный срез индустрии вокруг LLM:
— актуальные модели и их свойства
— бенчмарки
— self-host VS API
— типы задач
— главные «болячки» ванильных решений
— и актуальные советы по их лечению
Спикер — Дмитрий Калашников, NLP Team Lead в Яндексе🔥
А ещё мы расскажем про наш курс «LLM», где объясняем теорию LLM, учим промптингу, дообучению, элайменту, построению RAG, агентских-систем и деплою — всё под кураторством опытных инженеров.
Всем участникам лекции мы подарим скидки на обучение 🎁
Регистрируйтесь по ссылке и приходите на лекцию в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15❤11👏5👍3😁2
Осталось 3 часа до лекции по LLM
Сегодня с Дмитрием Калашниковым разберёмся в актуальных моделях и их свойствах, типах задач, главных проблемах и их решениях!
На лекции вы узнаете:
— какие модели сейчас лучше выбрать и чем они отличаются
— как сравнить модели с помощью бенчмарков
— какие есть варианты применения: self-host против API, стоимость и ресурсы, основные провайдеры
— для каких задач LLM применяются в продуктах и какой уровень качества реально можно ожидать
— главные «болячки» ванильных решений и актуальные советы по их лечению
В конце представим программу курса LLM и откроем запись со скидкой!
🕕 Регистрируйтесь и приходите сегодня в 18:30 МСК
Сегодня с Дмитрием Калашниковым разберёмся в актуальных моделях и их свойствах, типах задач, главных проблемах и их решениях!
На лекции вы узнаете:
— какие модели сейчас лучше выбрать и чем они отличаются
— как сравнить модели с помощью бенчмарков
— какие есть варианты применения: self-host против API, стоимость и ресурсы, основные провайдеры
— для каких задач LLM применяются в продуктах и какой уровень качества реально можно ожидать
— главные «болячки» ванильных решений и актуальные советы по их лечению
В конце представим программу курса LLM и откроем запись со скидкой!
🕕 Регистрируйтесь и приходите сегодня в 18:30 МСК
deepschool.ru
Что происходит в LLM | Открытая лекция DeepSchool
Актуальный срез индустрии вокруг LLM. Разберёмся в актуальных модели и их свойствах, типах задач, главных проблемах и как их решать
❤10😁4👍3🔥1
Разберитесь, как устроены LLM и как с ними работать
Если вы хотите научиться использовать большие языковые модели правильно, то приходите на нашу программу «LLM»!
16 октября стартует новый поток курса, который прошло уже почти 200 человек.
Вы разберётесь в теории, научитесь промптингу, дообучению, элайменту, построению RAG, агентских систем и деплою LLM.
В этом вам помогут опытные инженеры из разных доменов, компаний и стран. Вы будете встречаться раз в неделю, где сможете задавать вопросы прямо во время онлайн-лекций.
На сайте вы можете прочитать отзывы наших выпускников. Там они делятся, как курс пригодился им на собеседованиях, что они использовали в своих проектах, как стали брать новые задачи на работе и другими впечатлениями о программе.
До старта осталось меньше недели, а до 15 октября для вас действует скидка 5%,поэтому успевайте присоединиться!🔥
Если у вас есть вопросы, то пишите в нашу поддержку @deepschool_support — поможем со всем разобраться, расскажем подробнее про курс и подойдёт ли он вам.
Переходите на сайт, изучайте программу, спикеров, отзывы и записывайтесь на ближайший поток!
Если вы хотите научиться использовать большие языковые модели правильно, то приходите на нашу программу «LLM»!
16 октября стартует новый поток курса, который прошло уже почти 200 человек.
Вы разберётесь в теории, научитесь промптингу, дообучению, элайменту, построению RAG, агентских систем и деплою LLM.
В этом вам помогут опытные инженеры из разных доменов, компаний и стран. Вы будете встречаться раз в неделю, где сможете задавать вопросы прямо во время онлайн-лекций.
На сайте вы можете прочитать отзывы наших выпускников. Там они делятся, как курс пригодился им на собеседованиях, что они использовали в своих проектах, как стали брать новые задачи на работе и другими впечатлениями о программе.
До старта осталось меньше недели, а до 15 октября для вас действует скидка 5%,поэтому успевайте присоединиться!
Если у вас есть вопросы, то пишите в нашу поддержку @deepschool_support — поможем со всем разобраться, расскажем подробнее про курс и подойдёт ли он вам.
Переходите на сайт, изучайте программу, спикеров, отзывы и записывайтесь на ближайший поток!
Please open Telegram to view this post
VIEW IN TELEGRAM
deepschool.ru
LLM Курс | DeepSchool
Промптинг, дообучение, RAG, агенты и деплой — освойте полный цикл работы с LLM при поддержке опытных инженеров
❤10👍8🔥8👻4
DeepSchool Digest⚡
Собрали для вас подборку за сентябрь! Надеемся, вы не пропустите интересные вам материалы🔥
Как уменьшить время сборки и размер Docker-образов? — рассмотрели методы, которые помогут уменьшить размеры образов и ускорить процесс их сборки.
Краткая история механизма внимания в NLP — рассказали историю появления и развития механизма внимания.
Сервинг модели Grounding DINO с BentoML — показали пример, как обернуть модель Grounding DINO при помощи другого популярного фреймворка, BentoML.
Как запрунить свою первую модель? — в видео Александр Гончаренко, CTO enоt.аi и хэдлайнер курса «Ускорение нейросетей», рассказал, что такое прунинг и с чего начать его применение.
Когда память дороже точности: приближённые структуры данных — разобрали популярные структуры данных с константным потреблением памяти.
LLM для кодинга | Подкаст «Под Капотом» с Максимом Шапошниковым — обсудили, достигли ли предела в развитии языковых моделей, и рассмотрели, как интегрировать LLM в свои проекты, устроиться на работу в Амазон и без PhD пройти на исследовательскую позицию!
Собрали для вас подборку за сентябрь! Надеемся, вы не пропустите интересные вам материалы🔥
Как уменьшить время сборки и размер Docker-образов? — рассмотрели методы, которые помогут уменьшить размеры образов и ускорить процесс их сборки.
Краткая история механизма внимания в NLP — рассказали историю появления и развития механизма внимания.
Сервинг модели Grounding DINO с BentoML — показали пример, как обернуть модель Grounding DINO при помощи другого популярного фреймворка, BentoML.
Как запрунить свою первую модель? — в видео Александр Гончаренко, CTO enоt.аi и хэдлайнер курса «Ускорение нейросетей», рассказал, что такое прунинг и с чего начать его применение.
Когда память дороже точности: приближённые структуры данных — разобрали популярные структуры данных с константным потреблением памяти.
LLM для кодинга | Подкаст «Под Капотом» с Максимом Шапошниковым — обсудили, достигли ли предела в развитии языковых моделей, и рассмотрели, как интегрировать LLM в свои проекты, устроиться на работу в Амазон и без PhD пройти на исследовательскую позицию!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥11👏6😁2👻1
Active learning
Active learning — это непрерывный цикл выбора данных, их разметки и обучения модели. От выбора данных для разметки зависит, сколько ресурсов будет потрачено для достижения целевых метрик в проекте. В новой статье рассматриваем одну из важнейших задач Active learning — отбор объектов 🫵
Из новой статьи вы узнаете:
- о концепции Active learning
- популярные методы отбора объектов: Entropy Sampling, Query-by-Committee, Bayesian Active learning by Disagreement (BALD) и др.
- сильные и слабые стороны рассмотренных методов
Читайте статью по ссылке! 👀
⚡️ Если хотите научиться решать сложные задачи в Computer Vision, то приходите на наш курс CV Rocket. Запишитесь в лист ожидания, чтобы получить скидку до 20%
🪔 DeepSchool
Active learning — это непрерывный цикл выбора данных, их разметки и обучения модели. От выбора данных для разметки зависит, сколько ресурсов будет потрачено для достижения целевых метрик в проекте. В новой статье рассматриваем одну из важнейших задач Active learning — отбор объектов 🫵
Из новой статьи вы узнаете:
- о концепции Active learning
- популярные методы отбора объектов: Entropy Sampling, Query-by-Committee, Bayesian Active learning by Disagreement (BALD) и др.
- сильные и слабые стороны рассмотренных методов
Читайте статью по ссылке! 👀
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSchool
Active learning - DeepSchool
Активное обучение: выбор данных и методы семплирования
👍13❤8🔥8👻2
Научитесь решать сложные задачи в CV
Осталось меньше 3 недель до старта нашего курса Computer Vision Rocket.
Это программа для практикующих CV-инженеров, которые хотят закрыть пробелы в знаниях и узнать про подходы и best practices от senior-инженеров.
На курсе вы научитесь:
- готовить данные под реальные задачи
- находить и устранять ошибки в данных и разметке, улучшать качество
- работать с metric learning и векторным поиском
- адаптировать модели детекции, сегментации и OCR под сложные кейсы
Программа длится 4 месяца и состоит из 13 лекций, которые проходят онлайн, поэтому вы сможете задавать вопросы прямо во время занятий.
До 26 октября вы можете присоединиться со скидкой до 20% 🚀
Переходите на сайт, изучайте подробности и записывайтесь в лист ожидания!
Осталось меньше 3 недель до старта нашего курса Computer Vision Rocket.
Это программа для практикующих CV-инженеров, которые хотят закрыть пробелы в знаниях и узнать про подходы и best practices от senior-инженеров.
На курсе вы научитесь:
- готовить данные под реальные задачи
- находить и устранять ошибки в данных и разметке, улучшать качество
- работать с metric learning и векторным поиском
- адаптировать модели детекции, сегментации и OCR под сложные кейсы
Программа длится 4 месяца и состоит из 13 лекций, которые проходят онлайн, поэтому вы сможете задавать вопросы прямо во время занятий.
До 26 октября вы можете присоединиться со скидкой до 20% 🚀
Переходите на сайт, изучайте подробности и записывайтесь в лист ожидания!
deepschool.ru
Научитесь решать сложные задачи в Computer Vision — DeepSchool
❤11🔥9👏5👍2👻1
Рубрика «Вопросы эксперту» | Антон Семенюта, ML-инженер команды Восприятия Автономного Транспорта в Яндекс
В коротком интервью Антон рассказал о том, как устроена работа в команде, которая отвечает за систему восприятия автономного транспорта.
Мы обсудили применение ML и CV в автономном транспорте, какие модели и для каких задач используются, а также путь модели от dev-окружения до реальных тестов на дороге.🚗
Из видео вы узнаете:
- какие технологии и инструменты применяются в современном self-driving
- как автономный транспорт понимает сцену вокруг
- как строятся пайплайны обучения и валидации моделей
- и что нужно знать инженеру, чтобы попасть в команду автономного транспорта
Смотрите первый выпуск по ссылке!
🪔 DeepSchool
В коротком интервью Антон рассказал о том, как устроена работа в команде, которая отвечает за систему восприятия автономного транспорта.
Мы обсудили применение ML и CV в автономном транспорте, какие модели и для каких задач используются, а также путь модели от dev-окружения до реальных тестов на дороге.🚗
Из видео вы узнаете:
- какие технологии и инструменты применяются в современном self-driving
- как автономный транспорт понимает сцену вокруг
- как строятся пайплайны обучения и валидации моделей
- и что нужно знать инженеру, чтобы попасть в команду автономного транспорта
Смотрите первый выпуск по ссылке!
И приходите на наш курс CV Rocket, если хотите научиться решать сложные задачи компьютерного зрения. Ближайший поток стартует 5 ноября, а до 26 октября вы можете присоединиться со скидкой до 20%!
Изучайте подробности на сайте и записывайтесь в лист ожидания.
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
«Вопросы эксперту» | Антон Семенюта, ML-инженер команды Восприятия Автономного Транспорта в Яндекс
В коротком интервью Антон рассказал о том, как устроена работа в команде, которая отвечает за систему восприятия беспилотного автомобиля.
Мы обсудили применение ML и CV в автономном транспорте, какие модели и для каких задач используются, а также путь модели…
Мы обсудили применение ML и CV в автономном транспорте, какие модели и для каких задач используются, а также путь модели…
🔥17❤13🤝8👍2😁2
Следующий уровень работы с LLM
Если вы уже работаете с LLM и хотите научиться решать сложные задачи, то приходите на ближайший поток LLM Pro, который стартует 13 ноября!
Это продвинутая программа, на которой мы показываем, как собирать полноценные NLP-системы с учётом требований к качеству и нагрузке.
Вы разберёте реальные кейсы и научитесь применять похожие подходы в своих проектах, получите фундамент для уверенного прохождения NLP system design интервью.
Читайте подробнее на сайте и оставляйте заявку до 2 ноября, чтобы присоединиться к обучению со скидкой до 20% ⚡
Если у вас есть вопросы, то пишите в нашу поддержку @deepschool_support
Если вы уже работаете с LLM и хотите научиться решать сложные задачи, то приходите на ближайший поток LLM Pro, который стартует 13 ноября!
Это продвинутая программа, на которой мы показываем, как собирать полноценные NLP-системы с учётом требований к качеству и нагрузке.
Вы разберёте реальные кейсы и научитесь применять похожие подходы в своих проектах, получите фундамент для уверенного прохождения NLP system design интервью.
Читайте подробнее на сайте и оставляйте заявку до 2 ноября, чтобы присоединиться к обучению со скидкой до 20% ⚡
Если у вас есть вопросы, то пишите в нашу поддержку @deepschool_support
deepschool.ru
Научитесь создавать LLM-системы, которые реально работают
👍12🔥9❤7😁1🤔1
Attention и трансформеры в NLP: что спрашивают на собеседованиях
Механизм внимания — важный компонент современных DL-архитектур и популярная тема на собеседованиях на позицию DL-инженера.
В новой статье разобрали частые вопросы про attention и трансформеры с NLP-собеседований. Вопросы разбиты на тематические модули, а ответы на них спрятаны под спойлерам, прежде чем раскрыть их, попробуйте ответить сами.😉
Читайте статью по ссылке!
Механизм внимания — важный компонент современных DL-архитектур и популярная тема на собеседованиях на позицию DL-инженера.
В новой статье разобрали частые вопросы про attention и трансформеры с NLP-собеседований. Вопросы разбиты на тематические модули, а ответы на них спрятаны под спойлерам, прежде чем раскрыть их, попробуйте ответить сами.😉
Читайте статью по ссылке!
А чтобы уметь применять Attention и трансформеры в реальных продуктах под нагрузкой — приходите на наш курс LLM Pro.
Старт — 13 ноября.
Читайте подробнее на сайте и оставляйте заявку до 2 ноября, чтобы присоединиться к обучению со скидкой до 20% ⚡
DeepSchool
Attention и трансформеры в NLP: что спрашивают на собеседованиях - DeepSchool
Разобрали частые вопросы про attention и трансформеры с NLP собеседований
❤23👍12🔥11👏3
Станьте сильнее как CV-инженер
Работая с CV-задачами, вы наверняка сталкивались с компромиссами между качеством и скоростью, ошибками разметки, сложными кейсами, в которых нет однозначного решения.
Если хотите разобраться с такими задачами и освоить цикл создания и поддержки CV-моделей: от сбора данных до поиска ошибок и интерпретируемости, то приходите на курс Computer Vision Rocket!
В рамках курса вы научитесь:
🔹готовить данные под реальные задачи: находить, размечать, искать ошибки
🔹находить и устранять ошибки в данных и разметке, улучшать качество
🔹настраивать пайплайны metric learning и векторного поиска, включая построение индексов
🔹адаптировать детекцию, сегментацию и OCR под сложные кейсы
🔹диагностировать деградацию моделей и находить проблемы через интерпретируемость
Обучение длится 4 месяца и состоит из 13 лекций и 13 заданий.
Лекции проходят онлайн в Zoom, поэтому вы сможете задавать вопросы по ходу занятия.
Вы узнаете про подходы и best pratices от senior-инженеров из разных доменов и компаний. Они проверят ваши домашние задания и дадут развёрнутый фидбек!
🗓 Старт — 5 ноября
🔥 До 4 ноября вы можете присоединиться со скидкой 5%!
Переходите по ссылке, изучайте подробности и записывайтесь на обучение!
А ещё на сайте вы можете прочитать отзывы выпускников, которые поделились своими впечатлениями о программе.
До встречи на курсе!🎓
Работая с CV-задачами, вы наверняка сталкивались с компромиссами между качеством и скоростью, ошибками разметки, сложными кейсами, в которых нет однозначного решения.
Если хотите разобраться с такими задачами и освоить цикл создания и поддержки CV-моделей: от сбора данных до поиска ошибок и интерпретируемости, то приходите на курс Computer Vision Rocket!
В рамках курса вы научитесь:
🔹готовить данные под реальные задачи: находить, размечать, искать ошибки
🔹находить и устранять ошибки в данных и разметке, улучшать качество
🔹настраивать пайплайны metric learning и векторного поиска, включая построение индексов
🔹адаптировать детекцию, сегментацию и OCR под сложные кейсы
🔹диагностировать деградацию моделей и находить проблемы через интерпретируемость
Обучение длится 4 месяца и состоит из 13 лекций и 13 заданий.
Лекции проходят онлайн в Zoom, поэтому вы сможете задавать вопросы по ходу занятия.
Вы узнаете про подходы и best pratices от senior-инженеров из разных доменов и компаний. Они проверят ваши домашние задания и дадут развёрнутый фидбек!
🗓 Старт — 5 ноября
🔥 До 4 ноября вы можете присоединиться со скидкой 5%!
Переходите по ссылке, изучайте подробности и записывайтесь на обучение!
А ещё на сайте вы можете прочитать отзывы выпускников, которые поделились своими впечатлениями о программе.
До встречи на курсе!
Please open Telegram to view this post
VIEW IN TELEGRAM
deepschool.ru
Научитесь решать сложные задачи в Computer Vision — DeepSchool
❤11🔥6👍4🤔3😁1👻1🤝1
Ванильный RAG не работает. Как исправить?
RAG — один из самых популярных подходов для интеграции LLM в реальные продукты. Его выбирают, когда нужно давать точные, верифицируемые ответы на основе собственной базы знаний. Но на практике такие решения почти никогда не работают «из коробки»: вместо полезных ответов — галлюцинации, поверхностные обобщения или просто тишина.
Причин много: эмбеддер не улавливает смысл запроса, поиск не находит нужные документы, генератор не может извлечь то, чего нет в извлеченном контексте. А когда всё ломается — непонятно, с чего начать: тюнить эмбеддер? дообучать генератор? улучшать данные?
В этот четверг мы проведём открытую лекцию, на которой разберём, как в этой системе навести порядок: что действительно влияет на качество ответов, как выстроить пайплайн правильно и превратить RAG из хаотичного набора компонентов в надёжный рабочий инструмент.
На лекции расскажем:
- почему ванильная схема «ретривер + генератор» почти никогда не даёт нужного качества
- с чего начинать улучшения: эмбеддер, поиск, реранкер, генератор, данные или что-то ещё
- какие задачи приходится решать, чтобы RAG действительно работал
- как из разрозненных компонент собрать надежный RAG-продукт
Также на лекции мы представим курс LLM Pro — продвинутую программу, на которой вы научитесь строить системы, которые работают в реальном мире!
А участникам лекции подарим скидки на обучение 🎁
📅 Лекция пройдёт 6 ноября в 19:00 МСК
Регистрируйтесь по ссылке и до встречи на лекции в четверг!
RAG — один из самых популярных подходов для интеграции LLM в реальные продукты. Его выбирают, когда нужно давать точные, верифицируемые ответы на основе собственной базы знаний. Но на практике такие решения почти никогда не работают «из коробки»: вместо полезных ответов — галлюцинации, поверхностные обобщения или просто тишина.
Причин много: эмбеддер не улавливает смысл запроса, поиск не находит нужные документы, генератор не может извлечь то, чего нет в извлеченном контексте. А когда всё ломается — непонятно, с чего начать: тюнить эмбеддер? дообучать генератор? улучшать данные?
В этот четверг мы проведём открытую лекцию, на которой разберём, как в этой системе навести порядок: что действительно влияет на качество ответов, как выстроить пайплайн правильно и превратить RAG из хаотичного набора компонентов в надёжный рабочий инструмент.
На лекции расскажем:
- почему ванильная схема «ретривер + генератор» почти никогда не даёт нужного качества
- с чего начинать улучшения: эмбеддер, поиск, реранкер, генератор, данные или что-то ещё
- какие задачи приходится решать, чтобы RAG действительно работал
- как из разрозненных компонент собрать надежный RAG-продукт
Также на лекции мы представим курс LLM Pro — продвинутую программу, на которой вы научитесь строить системы, которые работают в реальном мире!
А участникам лекции подарим скидки на обучение 🎁
📅 Лекция пройдёт 6 ноября в 19:00 МСК
Регистрируйтесь по ссылке и до встречи на лекции в четверг!
❤15🔥8😍5👍1
Через 3 часа встречаемся на лекции
Сегодня расскажем, что действительно влияет на качество ответов, как выстроить пайплайн правильно и превратить RAG из хаотичного набора компонентов в надёжный рабочий инструмент!
А также представим программу курса LLM Pro и подарим скидки🔥
Регистрируйтесь и приходите сегодня в 19:00 МСК!
Сегодня расскажем, что действительно влияет на качество ответов, как выстроить пайплайн правильно и превратить RAG из хаотичного набора компонентов в надёжный рабочий инструмент!
А также представим программу курса LLM Pro и подарим скидки
Регистрируйтесь и приходите сегодня в 19:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
deepschool.ru
Ванильный RAG не работает. Как исправить? | Открытая лекция DeepSchool
Расскажем, как правильно выстроить пайплайн и превратить RAG из хаотичного набора компонентов в надёжный инструмент
👍9🔥6❤1
LLM-системы, которые реально работают
Вчера на открытой лекции мы представили наш курс LLM Pro🎉
Это продвинутая программа для тех, кто уже работает с LLM и хочет решать сложные задачи!
На обучении вы соберёте полноценные LLM-системы с учётом требований к качеству и нагрузке, разберёте сложные кейсы и дизайны NLP-решений: от кластеризации и эмбеддеров до сложных RAG-систем и агентов.
В рамках курса вы научитесь:
🔹проектировать и запускать NLP-системы под реальные продуктовые задачи
🔹адаптировать LLM и эмбеддинги под специфичный домен и «живые» данные
🔹собирать и размечать датасеты — даже если данных изначально почти нет
🔹решать задачи классификации, поиска, кластеризации и NER — с ограничениями продакшн-среды
🔹собирать свою RAG-систему: от ретривера и реранкера до генератора и оценки качества
🔹строить AI-агентов с нуля — на основе сценариев, функций и взаимодействия с внешней средой
🤖 Старт 13 ноября, а до 12 ноября для вас действует скидка 5%
Переходите на сайт, изучайте подробности и присоединяйтесь к обучению!
Пишите в нашу поддержку @deepschool_support, если остались вопросы!
И до встречи на курсе!
Вчера на открытой лекции мы представили наш курс LLM Pro
Это продвинутая программа для тех, кто уже работает с LLM и хочет решать сложные задачи!
На обучении вы соберёте полноценные LLM-системы с учётом требований к качеству и нагрузке, разберёте сложные кейсы и дизайны NLP-решений: от кластеризации и эмбеддеров до сложных RAG-систем и агентов.
В рамках курса вы научитесь:
🔹проектировать и запускать NLP-системы под реальные продуктовые задачи
🔹адаптировать LLM и эмбеддинги под специфичный домен и «живые» данные
🔹собирать и размечать датасеты — даже если данных изначально почти нет
🔹решать задачи классификации, поиска, кластеризации и NER — с ограничениями продакшн-среды
🔹собирать свою RAG-систему: от ретривера и реранкера до генератора и оценки качества
🔹строить AI-агентов с нуля — на основе сценариев, функций и взаимодействия с внешней средой
Переходите на сайт, изучайте подробности и присоединяйтесь к обучению!
Пишите в нашу поддержку @deepschool_support, если остались вопросы!
И до встречи на курсе!
Please open Telegram to view this post
VIEW IN TELEGRAM
deepschool.ru
Научитесь создавать LLM-системы, которые реально работают
🔥10❤9🙏4
LoRA: краткий гайд перед собеседованием
Full fine‑tuning LLM — дорого и медленно. Если хочется дообучать LLM быстрее и дешевле, один из вариантов — Low‑Rank Adaptation (LoRA).
Идея подхода состоит в обучении компактных добавок к весам модели и оставлении базовых весов замороженными. Этот подход позволяет дообучить модель, сэкономив ресурсы на обучение, а скорость инференса останется как у оригинальной модели.
📌 Принцип работы LoRA
Линейный слой — матрица весов W размером d×d (для простоты рассматриваем квадратную). При full fine‑tuning для неё обновляется d² элементов. В LoRA веса остаются замороженными, а обучается только добавка ΔWᵈˣᵈ, которая является произведением матриц Bᵈˣʳ и Aʳˣᵈ. Выход h для линейного слоя с новой добавкой вычисляется по формуле:
h = Wx + (α / r) ∆Wx
где:
Часто LoRA-адаптеры добавляют к линейным проекциям attention — query_proj и value_proj. Для большего качества можно добавить и к другим элементам блока трансформера, например, к MLP или output_proj.
Применение:
• При дообучении LLM для сервисов поиска с RAG, корпоративных ассистентов, мультиязычных моделей и др.
• Также популярен сценарий использования одной базовой LLM с несколькими адаптерами (multi-LoRA) под разные домены и клиентов.
📝Частые вопросы с собеседований
🔗 Полезные ссылки
• Оригинальная статья LoRA
• QLoRA
• Документация huggingface по LoRA
Автор: Алексей Яндутов
Full fine‑tuning LLM — дорого и медленно. Если хочется дообучать LLM быстрее и дешевле, один из вариантов — Low‑Rank Adaptation (LoRA).
Идея подхода состоит в обучении компактных добавок к весам модели и оставлении базовых весов замороженными. Этот подход позволяет дообучить модель, сэкономив ресурсы на обучение, а скорость инференса останется как у оригинальной модели.
📌 Принцип работы LoRA
Линейный слой — матрица весов W размером d×d (для простоты рассматриваем квадратную). При full fine‑tuning для неё обновляется d² элементов. В LoRA веса остаются замороженными, а обучается только добавка ΔWᵈˣᵈ, которая является произведением матриц Bᵈˣʳ и Aʳˣᵈ. Выход h для линейного слоя с новой добавкой вычисляется по формуле:
h = Wx + (α / r) ∆Wx
где:
• x — входной вектор размерностью d;
• ∆W = BA, Aʳˣᵈ и Bᵈˣʳ — обучаемые матрицы весов, где r значительно меньше d. Таким образом, в LoRA обучаются 2*d*r параметров, то есть намного меньше, чем при full finetuning.
• α/r регулирует вклад адаптера:
- r — ёмкость адаптера. Чем она больше, тем сильнее обновления, но тем выше риск переобучения и стоимость шага обучения (время и VRAM). На практике начинают со значений в диапазоне от 4 до 32, при сложных задачах можно увеличить до 64.
- α — масштабирует вклад обновлений LoRA-адаптера. Здесь часто начинают с α = r. Если модель переобучается или градиенты нестабильны, можно уменьшать α (или добавить dropout). Главное — при изменении r держать α/r постоянным: если растет r, то α должен вырасти пропорционально.
Часто LoRA-адаптеры добавляют к линейным проекциям attention — query_proj и value_proj. Для большего качества можно добавить и к другим элементам блока трансформера, например, к MLP или output_proj.
Применение:
• При дообучении LLM для сервисов поиска с RAG, корпоративных ассистентов, мультиязычных моделей и др.
• Также популярен сценарий использования одной базовой LLM с несколькими адаптерами (multi-LoRA) под разные домены и клиентов.
📝Частые вопросы с собеседований
• Зачем матрица обновления ΔW раскладывается на произведение A и B ? Почему бы не использовать одну матрицу?
Если в качестве добавки использовать одну матрицу размером d × d — экономии не будет. Факторизация на Aʳˣᵈ и Bᵈˣʳ, где r значительно меньше d, сокращает количество обучаемых параметров и ускоряет обучение.
• Преимущества LoRA vs классические адаптеры?
LoRA не добавляет новых слоёв на инференсе, как в классических адаптерах, где из-за этого растёт latency и потребление памяти. Здесь их можно смержить в базовые веса, сложив по формуле и убрав накладные расходы на инференсе.
• Когда выбирать LoRA?
◦ Нужно дообучение при ограниченных ресурсах
Даже при 1-2 GPU по 24 GB можно дообучать модели размером 8b c LoRA и 30b с QLoRA, где базовая модель квантуется до 4-бит (NF4).
◦ Нужны лёгкие артефакты или быстрое переключение между доменами
LoRA-адаптеры — небольшие добавочные веса, которые легко подмешиваются / меняются на инференсе. Можно держать адаптеры для разных доменов (например, «техподдержка», «юридический стиль», «код») и по запросу активировать нужный (multi-LoRA).
◦ Важно не удлинять ввод на инференсе
В отличие от prompt / prefix-методов, которые добавляют позиции / KV-префиксы, увеличивают вычисления и KV-кэш, LoRA не меняет длину последовательности. А это критично для latency.
◦ Промптинг не даёт нужного качества или стабильного поведения
Если улучшение промпта не решает задачу, LoRA даёт более стабильное поведение и прирост качества при минимуме обучаемых параметров.
🔗 Полезные ссылки
• Оригинальная статья LoRA
• QLoRA
• Документация huggingface по LoRA
А чтобы знать, как применять finetuning для адаптации LLM под домен в реальном проекте — приходите на наш курс LLM Pro.
Старт — 13 ноября.
Читайте подробнее на сайте и оставляйте заявку до 12 ноября, чтобы присоединиться к обучению со скидкой 5% ⚡️
Автор: Алексей Яндутов
1🔥41👍16❤12👏2😁1🐳1
Персонализированная генерация: Textual Inversion и DreamBooth
Персонализированная генерация добавляет новые концепции в такие генеративные модели, как Stable Diffusion. С ней можно создавать изображения с определённым объектом или художественным стилем, которые модель не видела раньше.
В новой статье расскажем, как работают базовые алгоритмы персонализированной генерации — Textual Inversion и DreamBooth 🧙♂️
А также рассмотрим:
- какие существуют проблемы наивных подходов
- как алгоритмы добавляют концепт в модель по пяти примерам
- визуализацию работы алгоритмов
Читайте новую статью по ссылке! 👈
🪔 DeepSchool
Персонализированная генерация добавляет новые концепции в такие генеративные модели, как Stable Diffusion. С ней можно создавать изображения с определённым объектом или художественным стилем, которые модель не видела раньше.
В новой статье расскажем, как работают базовые алгоритмы персонализированной генерации — Textual Inversion и DreamBooth 🧙♂️
А также рассмотрим:
- какие существуют проблемы наивных подходов
- как алгоритмы добавляют концепт в модель по пяти примерам
- визуализацию работы алгоритмов
Читайте новую статью по ссылке! 👈
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSchool
Персонализированная генерация: Textual Inversion и DreamBooth - DeepSchool
Рассказываем, как работают базовые алгоритмы генерации — Textual Inversion и DreamBooth
🔥12❤10👍8🤩2
Vision-Language-Action (VLA) Models: от токенов к действиям
Современные мультимодальные модели умеют работать с визуальными данными и текстом. Следующий шаг их развития — взаимодействие с физическим миром. Для управления роботами создаются Vision-Language-Action (VLA) модели, которые переводят визуальные данные и текстовые инструкции прямо в моторные команды робота. О том, как устроены такие модели, рассказываем в новой статье. 🤖
Из неё вы узнаете:
• как устроены VLA-модели — от визуального энкодера до генератора действий
• какие архитектуры используются для предсказания движений — от дискретных токенов до диффузий и Flow Matching'а
• какие существуют подходы к дообучению систем — от полного fine-tuning'а до PEFT-методов, таких как LoRA
• с какими проблемами сталкиваются VLA в реальном мире: задержки, накопление ошибок и безопасность
Читайте новую статью по ссылке! 🚀
🪔 DeepSchool
Современные мультимодальные модели умеют работать с визуальными данными и текстом. Следующий шаг их развития — взаимодействие с физическим миром. Для управления роботами создаются Vision-Language-Action (VLA) модели, которые переводят визуальные данные и текстовые инструкции прямо в моторные команды робота. О том, как устроены такие модели, рассказываем в новой статье. 🤖
Из неё вы узнаете:
• как устроены VLA-модели — от визуального энкодера до генератора действий
• какие архитектуры используются для предсказания движений — от дискретных токенов до диффузий и Flow Matching'а
• какие существуют подходы к дообучению систем — от полного fine-tuning'а до PEFT-методов, таких как LoRA
• с какими проблемами сталкиваются VLA в реальном мире: задержки, накопление ошибок и безопасность
Читайте новую статью по ссылке! 🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSchool
Vision-Language-Action (VLA) Models: от токенов к действиям - DeepSchool
Рассказываем, как устроены VLA-модели — от визуального энкодера до генератора действий.
🔥27👍12❤11
DeepSchool Digest⚡
По традиции собрали для вас материалы за последний месяц в одном посте❗️
Active learning — рассказали о концепции Active learning, популярных методах отбора объектов: Entropy Sampling, Query-by-Committee, Bayesian Active learning by Disagreement (BALD) и других
Рубрика «Вопросы эксперту» | Антон Семенюта, ML-инженер команды Восприятия Автономного Транспорта в Яндексе — обсудили применение ML и CV в автономном транспорте, какие модели и для каких задач используются, а также путь модели от dev-окружения до реальных тестов на дороге
Attention и трансформеры в NLP — разобрали частые вопросы про attention и трансформеры с NLP-собеседований
LoRA: краткий гайд перед собеседованием — объяснили принцип работы LoRA и разобрали частые вопросы с собеседований
Персонализированная генерация: Textual Inversion и DreamBooth — рассказали, как работают базовые алгоритмы персонализированной генерации — Textual Inversion и DreamBooth
Vision-Language-Action (VLA) Models: от токенов к действиям — рассказали, как устроены VLA-модели.
По традиции собрали для вас материалы за последний месяц в одном посте
Active learning — рассказали о концепции Active learning, популярных методах отбора объектов: Entropy Sampling, Query-by-Committee, Bayesian Active learning by Disagreement (BALD) и других
Рубрика «Вопросы эксперту» | Антон Семенюта, ML-инженер команды Восприятия Автономного Транспорта в Яндексе — обсудили применение ML и CV в автономном транспорте, какие модели и для каких задач используются, а также путь модели от dev-окружения до реальных тестов на дороге
Attention и трансформеры в NLP — разобрали частые вопросы про attention и трансформеры с NLP-собеседований
LoRA: краткий гайд перед собеседованием — объяснили принцип работы LoRA и разобрали частые вопросы с собеседований
Персонализированная генерация: Textual Inversion и DreamBooth — рассказали, как работают базовые алгоритмы персонализированной генерации — Textual Inversion и DreamBooth
Vision-Language-Action (VLA) Models: от токенов к действиям — рассказали, как устроены VLA-модели.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20❤8👍5
Заглядывайте к нам на второй канал!
В нашей школе преподаёт и учится много крутых инженеров с разной карьерой, интересами и опытом. Кто-то оптимизирует нейросети под мобилку, кто-то делает SLAM для автономных автомобилей, а кто-то занимается мультимодальными LLM.
Поэтому мы сделали формат, где инженеры рассказывают о себе. Каждую неделю в канале хозяйничает новый ведущий. Каждую неделю: новый человек, новая область и домен, новые истории, наблюдения и рекомендации.
Уже 19 человек успело рассказать о себе и своём опыте:
• Давид Свитов, PhD, провёл трансляцию с двух летних школ по DL в Италии и Китае
• Даша Воронкина, лид команды данных в OneCell, рассказала про работу в стартапе и тренды в разметке данных
• Андрей Филатов, лид в GenAI-стартапе, рассказал про митапы
• Илья Ревин, дважды PhD, доцент, лид разработки, филантроп... разобрал статью про тензорные разложения..ии заболел (бывает же!)
• Нина Коновалова, исследователь в AIRI, рассказала про будни ресёчера, межнар по ИИ и про свою свежую работу по контролю в диффузии
• Андрей Шадриков, RnD Lead в verigram, рассказал про опыт организации конференций и подготовку данных
• Лёня Верховцев, senior CV-инженер в Сбере, рассказал про obsidian, сплит-клавиатуру и о том, как отдыхать, чтобы больше деливерить
• Дима Гордин, senior MLE в verigram, дал задачку на биометрию в браузере и рассказал, что не так с ChatGPT для внутренних документов
• Шамиль Мамедов, PhD, senior researcher в Navio, рассказал про задачу планирования в self-driving, про получение PhD и работу в Amazon Robotics
• Артемий Мазаев, лид AI в Cloud.ru, рассказывал про LLM, агентов и вот это вот всё
• Анастасия Старобыховская, руководитель лаборатории Искусств и ИИ при Европейском Университете, рассуждала про организацию команды и поиск идей для решения нетипичных задач!
• Тимур Фатыхов, сооснователь DeepSchool и ex Lead CV-инженер KoronaPay, поделился историей создания DeepSchool и своим опытом тимлидства
• Дмитрий Диденко, инженер машинного обучения в кибербез компании, рассказал про применение ИИ в кибербезе и показал некоторые пет-проекты
• Илья Димов, senior NLP-инженер в Яндексе, рассуждал о карьере и чтении статей. А еще вывел задачки на интерактив!
• Александр Гордеев, Computer Vision Engineer, Sber AI, рассказал про свои пет-проекты и подготовил небольшой экскурс по методам classifier guidance и classifier-free guidance
• Антон Семенюта, ML-инженер в команде восприятия автономного транспорта Яндекса, рассказывал и показывал разное про автономный транспорт
• Алексей Глотов, Head of AI GetCourse, рассказывал про Управление и ИИ
• Артем Кравчук, лид CV-команды в 2ГИС, запустил свою олимпиаду «Изолированный китёнок» (и даже вручил почётную грамоту)
• Макс Шапошников, Research Engineer в Tessl, рассказал про агентов, а также как продолжать непрерывно учиться
Заглядывайте в канал, там интересно! https://www.tgoop.com/deepschool_underthehood
В нашей школе преподаёт и учится много крутых инженеров с разной карьерой, интересами и опытом. Кто-то оптимизирует нейросети под мобилку, кто-то делает SLAM для автономных автомобилей, а кто-то занимается мультимодальными LLM.
Поэтому мы сделали формат, где инженеры рассказывают о себе. Каждую неделю в канале хозяйничает новый ведущий. Каждую неделю: новый человек, новая область и домен, новые истории, наблюдения и рекомендации.
Уже 19 человек успело рассказать о себе и своём опыте:
• Давид Свитов, PhD, провёл трансляцию с двух летних школ по DL в Италии и Китае
• Даша Воронкина, лид команды данных в OneCell, рассказала про работу в стартапе и тренды в разметке данных
• Андрей Филатов, лид в GenAI-стартапе, рассказал про митапы
• Илья Ревин, дважды PhD, доцент, лид разработки, филантроп... разобрал статью про тензорные разложения..ии заболел (бывает же!)
• Нина Коновалова, исследователь в AIRI, рассказала про будни ресёчера, межнар по ИИ и про свою свежую работу по контролю в диффузии
• Андрей Шадриков, RnD Lead в verigram, рассказал про опыт организации конференций и подготовку данных
• Лёня Верховцев, senior CV-инженер в Сбере, рассказал про obsidian, сплит-клавиатуру и о том, как отдыхать, чтобы больше деливерить
• Дима Гордин, senior MLE в verigram, дал задачку на биометрию в браузере и рассказал, что не так с ChatGPT для внутренних документов
• Шамиль Мамедов, PhD, senior researcher в Navio, рассказал про задачу планирования в self-driving, про получение PhD и работу в Amazon Robotics
• Артемий Мазаев, лид AI в Cloud.ru, рассказывал про LLM, агентов и вот это вот всё
• Анастасия Старобыховская, руководитель лаборатории Искусств и ИИ при Европейском Университете, рассуждала про организацию команды и поиск идей для решения нетипичных задач!
• Тимур Фатыхов, сооснователь DeepSchool и ex Lead CV-инженер KoronaPay, поделился историей создания DeepSchool и своим опытом тимлидства
• Дмитрий Диденко, инженер машинного обучения в кибербез компании, рассказал про применение ИИ в кибербезе и показал некоторые пет-проекты
• Илья Димов, senior NLP-инженер в Яндексе, рассуждал о карьере и чтении статей. А еще вывел задачки на интерактив!
• Александр Гордеев, Computer Vision Engineer, Sber AI, рассказал про свои пет-проекты и подготовил небольшой экскурс по методам classifier guidance и classifier-free guidance
• Антон Семенюта, ML-инженер в команде восприятия автономного транспорта Яндекса, рассказывал и показывал разное про автономный транспорт
• Алексей Глотов, Head of AI GetCourse, рассказывал про Управление и ИИ
• Артем Кравчук, лид CV-команды в 2ГИС, запустил свою олимпиаду «Изолированный китёнок» (и даже вручил почётную грамоту)
• Макс Шапошников, Research Engineer в Tessl, рассказал про агентов, а также как продолжать непрерывно учиться
Заглядывайте в канал, там интересно! https://www.tgoop.com/deepschool_underthehood
Telegram
DeepSchool / underthehood
Это канал школы deepschool.ru. Каждую неделю ведущим канала становится один из преподавателей или друзей школы. Каждую неделю: новый человек, новая область и домен, новые истории, наблюдения и рекомендации. Поддержка: @deepschool_support
52❤15🔥10👏4🤔1
ClearML Agent: обучение модели в Google Colab
Продолжаем обзор MLOps-экосистемы ClearML, которая покрывает полный цикл разработки и выкатки ML-моделей. Ранее мы разобрали, как работают компоненты ClearML Data и ClearML Session.
А в новой статье рассказали о ClearML Agent — компоненте, который позволяет отправлять задачи в очередь и исполнять их на удалённых машинах. 📡
Из статьи вы узнаете:
- как работает ClearML Agent
- как использовать Google Colab в качестве воркера для ClearML 🍯
- и как можно добавлять задачи в очередь для ClearML Agent
Читайте новую статью по ссылке!👈
🪔 DeepSchool
Продолжаем обзор MLOps-экосистемы ClearML, которая покрывает полный цикл разработки и выкатки ML-моделей. Ранее мы разобрали, как работают компоненты ClearML Data и ClearML Session.
А в новой статье рассказали о ClearML Agent — компоненте, который позволяет отправлять задачи в очередь и исполнять их на удалённых машинах. 📡
Из статьи вы узнаете:
- как работает ClearML Agent
- как использовать Google Colab в качестве воркера для ClearML 🍯
- и как можно добавлять задачи в очередь для ClearML Agent
Читайте новую статью по ссылке!👈
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSchool
ClearML Agent: обучение модели в Google Colab - DeepSchool
Рассказываем о ClearML Agent: как он работает, как использовать Google Colab в качестве воркера и как можно добавлять задачи в очередь
🔥14❤11👍9🐳1
