🎯 Про Unit-экономику
От аналитиков и смежных профессий очень часто просят не только понимание своего домена, но и понимание того, как работает "цифровая экономика" в целом.
Это про то, сколько стоит привлечение пользователя, как он живёт в нашем продукте, сколько оставляет денег и тд.
Основные метрики, которые точно нужно знать:
- LTV - сколько дохода нам приносит пользователь за всё время жизни в продукте
- CAC - сколько нам стоит привлечение пользователя в продукт
- Retention - "переток" пользователей из одного периода в другой
- ARPU - средние траты юзера за период
- DAU, MAU - число юзеров за день/месяц
Нашёл на просторах интернета два крутых видео, которые рассказывают про юнитку от и до:
1. Выступление Ильи Красинского в рамках ШМЯ
Илья рассказывают про юнин-экономику с точки зрения корпорации: на какие метрики стоит смотреть, в каких разрезах и тд.
Кроме того, тут много примеров, на которых можно понять логику расчёта метрик
2. Вебинар Богдана Печенкина
Здесь тоже рассматриваются ключевые метрики юнит-экономики, но уже больше со стороны стартапа.
У Богдана есть свой цифровой продукт и он на примере этого продукта рассказывает про особенности сведения метрик 🙂
Ставьте 🔥 если хотите больше материалов про метрики!
От аналитиков и смежных профессий очень часто просят не только понимание своего домена, но и понимание того, как работает "цифровая экономика" в целом.
Это про то, сколько стоит привлечение пользователя, как он живёт в нашем продукте, сколько оставляет денег и тд.
Основные метрики, которые точно нужно знать:
- CAC - сколько нам стоит привлечение пользователя в продукт
- Retention - "переток" пользователей из одного периода в другой
- ARPU - средние траты юзера за период
- DAU, MAU - число юзеров за день/месяц
Нашёл на просторах интернета два крутых видео, которые рассказывают про юнитку от и до:
1. Выступление Ильи Красинского в рамках ШМЯ
Илья рассказывают про юнин-экономику с точки зрения корпорации: на какие метрики стоит смотреть, в каких разрезах и тд.
Кроме того, тут много примеров, на которых можно понять логику расчёта метрик
2. Вебинар Богдана Печенкина
Здесь тоже рассматриваются ключевые метрики юнит-экономики, но уже больше со стороны стартапа.
У Богдана есть свой цифровой продукт и он на примере этого продукта рассказывает про особенности сведения метрик 🙂
Ставьте 🔥 если хотите больше материалов про метрики!
YouTube
014. Школа менеджмента — Юнит-экономика или поиск точек кратного роста. Илья Красинский
Расскажу о самых основах: как выстроить модель монетизации для бизнеса, найти точки кратного роста и как работать с когортами при расчёте экономики.
🔥40❤8❤🔥5
➕ Предлагаем вспомнить базовую математику.
Подборка ресурсов по математике для тех, кто забыл что было в школе. Заполнить пробелы или повторить всё сразу можно с помощью этих ресурсов:
🧑🏫 Курсы
1. Stepik Клуб любителей математики. Бесплатные курс по базовой математике и подготовка к вступительным в МФТИ. Создатели курса победители Stepik Awards 2023 в номинации "Лучший бесплатный курс года".
2. Линейная алгебра от Khan Academy [ENG] Linear algebra. Можно пройти курс по алгебре, а дальше углубиться в статистику и теорвер [ENG] Statistics and probability, AP College Statistics. Все курсы бесплатные.
3. Spacemath. Рускоязычный бесплатный ресурс. Сайт для самостоятельного изучения математики с нуля. Если в школе вы совсем не изучали математику - этот ресурс вам точно пригодится.
4. Не забываем про Сoursera, популярная платформа, c множеством курсов по разным темам, в том числе и по математике. Рекомендую [ENG] курс по алгебре для новичков и [ENG ]введение в статистику.
📚 Книги
Что такое математика? Р. Курант, Г. Роббинс — легко и понятно о базовых понятиях в математике и о сложных областях этой науки.
Алгебра И. М. Гельфанд , А. Шень — начинается с арифметики и заканчивается p-адическими числами, в книге есть объяснения и много задач для практики
Дополнительно
📦 [ENG] edX. Платформа предлагает пройти курсы по математике от ведущих университетов мира. Здесь есть как платные, так и бесплатные курсы. По ссылке отсортированы курсы относящиеся к теме DS.
📜 Математика для взрослых, статья на Хабре с дорожной картой для изучения математики.
Делитесь в комментариях своими рекомендациями и ставьте ❤️, далее расскажем про ресурсы для продвинутого уровня)
Подборка ресурсов по математике для тех, кто забыл что было в школе. Заполнить пробелы или повторить всё сразу можно с помощью этих ресурсов:
🧑🏫 Курсы
1. Stepik Клуб любителей математики. Бесплатные курс по базовой математике и подготовка к вступительным в МФТИ. Создатели курса победители Stepik Awards 2023 в номинации "Лучший бесплатный курс года".
2. Линейная алгебра от Khan Academy [ENG] Linear algebra. Можно пройти курс по алгебре, а дальше углубиться в статистику и теорвер [ENG] Statistics and probability, AP College Statistics. Все курсы бесплатные.
3. Spacemath. Рускоязычный бесплатный ресурс. Сайт для самостоятельного изучения математики с нуля. Если в школе вы совсем не изучали математику - этот ресурс вам точно пригодится.
4. Не забываем про Сoursera, популярная платформа, c множеством курсов по разным темам, в том числе и по математике. Рекомендую [ENG] курс по алгебре для новичков и [ENG ]введение в статистику.
📚 Книги
Что такое математика? Р. Курант, Г. Роббинс — легко и понятно о базовых понятиях в математике и о сложных областях этой науки.
Алгебра И. М. Гельфанд , А. Шень — начинается с арифметики и заканчивается p-адическими числами, в книге есть объяснения и много задач для практики
Дополнительно
📦 [ENG] edX. Платформа предлагает пройти курсы по математике от ведущих университетов мира. Здесь есть как платные, так и бесплатные курсы. По ссылке отсортированы курсы относящиеся к теме DS.
📜 Математика для взрослых, статья на Хабре с дорожной картой для изучения математики.
Делитесь в комментариях своими рекомендациями и ставьте ❤️, далее расскажем про ресурсы для продвинутого уровня)
Stepik: online education
Клуб любителей математики
📣 Подписывайтесь, вас ждёт масса всего интересного!
❤55🔥10👍7😁1
🎯 Задача многоклассовой классификация: способы построения ML-моделей [1/2]
Задачи такого рода строятся на двух основных подходах: мультиклассовая классификация и многозадачная классификация. В рамках этого поста остановимся на первом и разберем несколько подходов к реализации ML-алгоритмов мультиклассовой классификации.
❗️Важно отметить, что подходы ниже актуальны для линейных моделей, «деревянные» алгоритмы и KNN и так умеют работать с мультиклассами.
1. One-vs-Rest (OvR), известный как One-vs-All (OvA).
Для каждого класса обучается один бинарный классификатор, который учится отделять целевой класс от всех остальных.
При классификации нового объекта все модели предсказывают вероятность принадлежности этого объекта к своему классу, затем выбирается класс с наибольшей уверенностью.
2. One-vs-One (OvO).
Отбираются все возможные пары классов, затем обучается бинарный классификатор для каждой такой пары. Всего создается N(N-1)/2 классификаторов, где N - число классов.
При классификации нового объекта все классификаторы голосуют, и выбирается класс, получивший наибольшее число голосов.
3. Логистическая Softmax-регрессия.
Обобщение бинарной логистической регрессии на случай множества классов.
Модель оценивает вероятности принадлежности объекта ко всем классам одновременно.
Использует функцию активации Softmax вместо сигмоиды, отсюда и появляется возможность выдавать вероятности объекту для всех классов. Обучение обычно производится методом максимального правдоподобия.
📚Также дополнительный материал по данной теме можно найти тут и на Хабре.
💯 Мультиклассовая и многозадачная классификация в sklearn.
Тем, кто дочитал этот пост до конца, небольшой бонус - репозиторий с kaggle-соревнованиями по задаче "классификации".
В следующем посте данной серии разберем ключевые метрики для оценки моделей в задачах многоклассовой классификации.
Ставьте ❤️ или 🔥 и не забывайте писать свои комментарии и вопросы!
До встречи👋🏻
Задачи такого рода строятся на двух основных подходах: мультиклассовая классификация и многозадачная классификация. В рамках этого поста остановимся на первом и разберем несколько подходов к реализации ML-алгоритмов мультиклассовой классификации.
❗️Важно отметить, что подходы ниже актуальны для линейных моделей, «деревянные» алгоритмы и KNN и так умеют работать с мультиклассами.
1. One-vs-Rest (OvR), известный как One-vs-All (OvA).
Для каждого класса обучается один бинарный классификатор, который учится отделять целевой класс от всех остальных.
При классификации нового объекта все модели предсказывают вероятность принадлежности этого объекта к своему классу, затем выбирается класс с наибольшей уверенностью.
2. One-vs-One (OvO).
Отбираются все возможные пары классов, затем обучается бинарный классификатор для каждой такой пары. Всего создается N(N-1)/2 классификаторов, где N - число классов.
При классификации нового объекта все классификаторы голосуют, и выбирается класс, получивший наибольшее число голосов.
3. Логистическая Softmax-регрессия.
Обобщение бинарной логистической регрессии на случай множества классов.
Модель оценивает вероятности принадлежности объекта ко всем классам одновременно.
Использует функцию активации Softmax вместо сигмоиды, отсюда и появляется возможность выдавать вероятности объекту для всех классов. Обучение обычно производится методом максимального правдоподобия.
📚Также дополнительный материал по данной теме можно найти тут и на Хабре.
💯 Мультиклассовая и многозадачная классификация в sklearn.
Тем, кто дочитал этот пост до конца, небольшой бонус - репозиторий с kaggle-соревнованиями по задаче "классификации".
В следующем посте данной серии разберем ключевые метрики для оценки моделей в задачах многоклассовой классификации.
Ставьте ❤️ или 🔥 и не забывайте писать свои комментарии и вопросы!
До встречи👋🏻
❤24👍8🔥5
➕ Продолжаем вспоминать математику
На прошлой неделе рассказывали вам про освоение базовой математики. Сегодня продолжаем тему и делимся ресурсами более продвинутого уровня про разделы математики необходимые для работы в сфере DS. Что ещё можно изучить, кроме курсов Карпова по статистике, про которые мы уже рассказывали в канале:
📜 Статья про базовые понятия статистики для науки о данных. Краткое перечисление часто встречающихся понятий в DS. Можно читать и по порядку углубленно изучать каждую тему.
📚 Теория вероятностей. Книга + видео. Тут всё просто, никаких предварительных знаний не требуется, можно начинать изучать хоть сейчас.
📚 Сборник задач по теории вероятностей (с решениями). Если уже знакомы с темой, то можно приступать к задачам.
📹 [ENG] Линейная алгебра. Простые объяснения базовых понятий, очень коротко, наглядно и доступно. Достаточно для первичного погружения в тему.
📹 [ENG] Линейная алгебра от MIT в связке с ML. Если разобрались с основами линейной алгебры в предыдущих видео, то тут можно продолжить изучение темы именно в направлении ML.
📹 Математическая статистика. Запись курса лекций по математической статистике от МФТИ (Лектор — доц. И.В. Родионов), подробно и основательно разберётесь в теме, если вам комфортен формат много часового видео.
🧑🏫 Курс по математическому анализу от МГЛУ.
Первая часть и Вторая часть. Глубокое погружение в тему, для старта не обязательно, но в будущем можно освоить.
🧑🏫 Платформы где можно попрактиковаться в решении задач: линейная алгебра + ML/DL и статистика и теория вероятности. Теория дело хорошее, но без практики никуда.
Использовали что-то из этой подборки?) Делитесь в комментариях своими рекомендациями и ставьте ❤️
На прошлой неделе рассказывали вам про освоение базовой математики. Сегодня продолжаем тему и делимся ресурсами более продвинутого уровня про разделы математики необходимые для работы в сфере DS. Что ещё можно изучить, кроме курсов Карпова по статистике, про которые мы уже рассказывали в канале:
📜 Статья про базовые понятия статистики для науки о данных. Краткое перечисление часто встречающихся понятий в DS. Можно читать и по порядку углубленно изучать каждую тему.
📚 Теория вероятностей. Книга + видео. Тут всё просто, никаких предварительных знаний не требуется, можно начинать изучать хоть сейчас.
📚 Сборник задач по теории вероятностей (с решениями). Если уже знакомы с темой, то можно приступать к задачам.
📹 [ENG] Линейная алгебра. Простые объяснения базовых понятий, очень коротко, наглядно и доступно. Достаточно для первичного погружения в тему.
📹 [ENG] Линейная алгебра от MIT в связке с ML. Если разобрались с основами линейной алгебры в предыдущих видео, то тут можно продолжить изучение темы именно в направлении ML.
📹 Математическая статистика. Запись курса лекций по математической статистике от МФТИ (Лектор — доц. И.В. Родионов), подробно и основательно разберётесь в теме, если вам комфортен формат много часового видео.
🧑🏫 Курс по математическому анализу от МГЛУ.
Первая часть и Вторая часть. Глубокое погружение в тему, для старта не обязательно, но в будущем можно освоить.
🧑🏫 Платформы где можно попрактиковаться в решении задач: линейная алгебра + ML/DL и статистика и теория вероятности. Теория дело хорошее, но без практики никуда.
Использовали что-то из этой подборки?) Делитесь в комментариях своими рекомендациями и ставьте ❤️
❤28❤🔥9🔥7👍2
🤖Модели перевернувшие NLP: как устроен Transformer
Transformer - тип нейронной сети, который был представлен в 2017 году в работе Attention Is All You Need.
До появления Трансформеров в работе с текстом в основном использовали рекуррентные нейросети (RNN, LSTM и GRU). Трансформер же позволяет избавиться от ключевых недостатков рекуррентных сетей: отсутствие распараллеливания обучения и потеря контекста в длинных последовательностях.
Трансформеры используют головы механизма внимания (Multi-Head Self-Attention), которые позволяют таким моделям понимать естественный язык и решать ключевые проблемы RNN.
❗️Например: в предложении "Кошка сидит на ковре" механизм внимания позволяет модели оценить каждое слово и понять его важность в контексте других слов: Кошка (текущее слово): "сидит" (0.8), "на ковре" (0.6); сидит (текущее слово): "Кошка" (0.8), "на ковре" (0.7), на ковре (текущее слово): "Кошка" (0.6), "сидит" (0.7). Каждый слой механизма внимания может находить свои такие зависимости в предложении.
🧠Transformer имеет три основные части:
1. Кодировщик (Encoder) - преобразует исходное предложение в некий набор чисел (векторное представление - emdedding).
2. Механизм самовнимания (Self-Attention) - в процессе моделирования текста обращает «внимание» на все слова в предложении одновременно, чтобы понять, какие из них наиболее важны.
3. Декодировщик (Decoder) - использует информацию от блока кодировщика и слоёв внимания, чтобы пошагово генерировать текст.
🦾Модели на базе Трансформера:
- GPT (Generative Pre-trained Transformer) - обучен на большом количестве текста и может генерировать осмысленные ответы на вопросы. Хороший пример - ChatGPT.
- BERT (Bidirectional Encoder Representations from Transformers) - может строить векторное представление слов, используя контекст предложения с обеих сторон.
🔥 Дополнительно:
▫️Подробное объяснение работы трансформеров от Игоря Котенкова на ютуб - первое, что нужно посмотреть, если вы не в теме.
▫️Очень простой обзор статьи Attention Is All You Need на Хабре, подойдет новичку.
▫️Крутой гайд с полным обзором разработки языковых моделей на Хабре, много дополнительных ресурсов и доступные объяснения, будет полезно любому уровню.
▫️[ENG] Интерактивное объяснение работы трансформера на картинках, для визуалов.
▫️[ENG] Google Sheets, где вы сможете воспроизвести слой внимания своими руками.
▫️[ENG] Репозиторий с качественными ресурсами и гайдами для работы с большими языковыми моделями (LLM) для людей с продвинутым пониманием концепций NLP.
Пишите свои вопросы и комментарии!
Ставьте лайки❤️ и огоньки🔥 для следующих постов про NLP!
До встречи👋🏻
Transformer - тип нейронной сети, который был представлен в 2017 году в работе Attention Is All You Need.
До появления Трансформеров в работе с текстом в основном использовали рекуррентные нейросети (RNN, LSTM и GRU). Трансформер же позволяет избавиться от ключевых недостатков рекуррентных сетей: отсутствие распараллеливания обучения и потеря контекста в длинных последовательностях.
Трансформеры используют головы механизма внимания (Multi-Head Self-Attention), которые позволяют таким моделям понимать естественный язык и решать ключевые проблемы RNN.
❗️Например: в предложении "Кошка сидит на ковре" механизм внимания позволяет модели оценить каждое слово и понять его важность в контексте других слов: Кошка (текущее слово): "сидит" (0.8), "на ковре" (0.6); сидит (текущее слово): "Кошка" (0.8), "на ковре" (0.7), на ковре (текущее слово): "Кошка" (0.6), "сидит" (0.7). Каждый слой механизма внимания может находить свои такие зависимости в предложении.
🧠Transformer имеет три основные части:
1. Кодировщик (Encoder) - преобразует исходное предложение в некий набор чисел (векторное представление - emdedding).
2. Механизм самовнимания (Self-Attention) - в процессе моделирования текста обращает «внимание» на все слова в предложении одновременно, чтобы понять, какие из них наиболее важны.
3. Декодировщик (Decoder) - использует информацию от блока кодировщика и слоёв внимания, чтобы пошагово генерировать текст.
🦾Модели на базе Трансформера:
- GPT (Generative Pre-trained Transformer) - обучен на большом количестве текста и может генерировать осмысленные ответы на вопросы. Хороший пример - ChatGPT.
- BERT (Bidirectional Encoder Representations from Transformers) - может строить векторное представление слов, используя контекст предложения с обеих сторон.
🔥 Дополнительно:
▫️Подробное объяснение работы трансформеров от Игоря Котенкова на ютуб - первое, что нужно посмотреть, если вы не в теме.
▫️Очень простой обзор статьи Attention Is All You Need на Хабре, подойдет новичку.
▫️Крутой гайд с полным обзором разработки языковых моделей на Хабре, много дополнительных ресурсов и доступные объяснения, будет полезно любому уровню.
▫️[ENG] Интерактивное объяснение работы трансформера на картинках, для визуалов.
▫️[ENG] Google Sheets, где вы сможете воспроизвести слой внимания своими руками.
▫️[ENG] Репозиторий с качественными ресурсами и гайдами для работы с большими языковыми моделями (LLM) для людей с продвинутым пониманием концепций NLP.
Пишите свои вопросы и комментарии!
Ставьте лайки❤️ и огоньки🔥 для следующих постов про NLP!
До встречи👋🏻
Linkedin
"Transforming the Future: The Power of NLP Transformers in Language Processing"
Hello LinkedIn community! 🚀✨ In the ever-evolving landscape of artificial intelligence, one innovation stands out as a game-changer in natural language processing (NLP) - the remarkable NLP Transformers. Let's delve into the transformative power of these…
🔥46❤8👍7
🪧 Про рекламу в SCiDS
Привет! На связи создатель канала Рома Васильев и команда канала Start Career in DS
Вы уже заметили, что в последнее время в канале появились рекламные посты, поэтому сегодня хотим поговорить про рекламу.
🧑💻 Чтобы продолжать создавать качественный контент, мы собрали команду энтузиастов для поиска материалов и контента. Реклама в канале помогает нам поддерживать нашу команду, продолжать развиваться и делится с вами полезной информацией
🌟 Мы считаем, что реклама должна быть полезной для вас, поэтому тщательно фильтруем рекламные материалы и не публикуем всё подряд. Наша цель рассказать вам про интересные, доступные и актуальные для вас вещи.
Мы планируем рекомендовать в первую очередь хакатоны (которые полезны для вашего резюма) и места, в которые потенциально можно попасть бесплатно (есть бюджетные места), например, наш пост про магистратуру от ИТМО и Napoleon IT. Мы с ответственностью подходим к качеству контента и сами редактируем все рекламные тексты под стиль канала, чтобы вам было комфортно нас читать. Кроме того, будем стараться ограничиваться максимум 2-3 рекламными постами в месяц.
С заботой о вас, команда канала Start Career in DS ❤️
Привет! На связи создатель канала Рома Васильев и команда канала Start Career in DS
Вы уже заметили, что в последнее время в канале появились рекламные посты, поэтому сегодня хотим поговорить про рекламу.
🧑💻 Чтобы продолжать создавать качественный контент, мы собрали команду энтузиастов для поиска материалов и контента. Реклама в канале помогает нам поддерживать нашу команду, продолжать развиваться и делится с вами полезной информацией
🌟 Мы считаем, что реклама должна быть полезной для вас, поэтому тщательно фильтруем рекламные материалы и не публикуем всё подряд. Наша цель рассказать вам про интересные, доступные и актуальные для вас вещи.
Мы планируем рекомендовать в первую очередь хакатоны (которые полезны для вашего резюма) и места, в которые потенциально можно попасть бесплатно (есть бюджетные места), например, наш пост про магистратуру от ИТМО и Napoleon IT. Мы с ответственностью подходим к качеству контента и сами редактируем все рекламные тексты под стиль канала, чтобы вам было комфортно нас читать. Кроме того, будем стараться ограничиваться максимум 2-3 рекламными постами в месяц.
С заботой о вас, команда канала Start Career in DS ❤️
❤41😁1
💬 Карьерные консультации: что это и для чего оно может быть нужно?
Мы предлагаем делить карьерные консультации на 2 типа:
1️⃣ Карьерные консультации от HR, например, можно найти в Careerspace, Ancor, HRTime. HR сможет:
▫️ Разработать карьерную стратегию: план действий, который поможет найти/сменить работу или сферу.
▫️ Написать резюме так, чтобы оно прошло первичный скрининг hr.
▫️ Предоставить актуальные данные о рынке труда и трендах — какой процесс поиска работы, на какую зарплату можно расчитывать, в каких компаниях больше перспектив и тд.
2️⃣ Карьерные консультации от специалиста в сфере DS. Найти можно в сервисах Эйч, Хабр Карьера или HeadHunter. В последнем сервисе можно также найти HR консультанта.
Сразу отметим, что это не менторство или наставничество, а именно разовая консультация. Специалист из индустрии сможет:
▫️ Провести мок-интерьвью, рассказать что в данный момент спрашивают чаще всего.
▫️ Дать специализированные советы. Пример, вам интересен FinTech. Вы можете найти соответствующего специалиста, он расскажет про DL в финтехе, оценит ваши навыки и подскажет точки роста.
▫️ Нетворкинг. Есть вероятность получить полезные контакты и рекомендации, что может ускорить процесс поиска работы.
Возможные минусы:
- Примерная стоимость консультаций от 7к до 50к и выше. Нужно внимательно выбирать компанию или частного консультанта, если бюджет на поиск работы ограничен.
- Консультации не помогут, если у вас недостаточно внутренней мотивации и дисциплины. Консультант не найдет работу за вас, нужно самостоятельно откликаться на вакансии и ходить на собесы 😉
А что вы думаете про карьерные консультации?
Ставьте ❤️, если было интересно и нужны ещё посты на эту тему)
Мы предлагаем делить карьерные консультации на 2 типа:
1️⃣ Карьерные консультации от HR, например, можно найти в Careerspace, Ancor, HRTime. HR сможет:
▫️ Разработать карьерную стратегию: план действий, который поможет найти/сменить работу или сферу.
▫️ Написать резюме так, чтобы оно прошло первичный скрининг hr.
▫️ Предоставить актуальные данные о рынке труда и трендах — какой процесс поиска работы, на какую зарплату можно расчитывать, в каких компаниях больше перспектив и тд.
2️⃣ Карьерные консультации от специалиста в сфере DS. Найти можно в сервисах Эйч, Хабр Карьера или HeadHunter. В последнем сервисе можно также найти HR консультанта.
Сразу отметим, что это не менторство или наставничество, а именно разовая консультация. Специалист из индустрии сможет:
▫️ Провести мок-интерьвью, рассказать что в данный момент спрашивают чаще всего.
▫️ Дать специализированные советы. Пример, вам интересен FinTech. Вы можете найти соответствующего специалиста, он расскажет про DL в финтехе, оценит ваши навыки и подскажет точки роста.
▫️ Нетворкинг. Есть вероятность получить полезные контакты и рекомендации, что может ускорить процесс поиска работы.
Возможные минусы:
- Примерная стоимость консультаций от 7к до 50к и выше. Нужно внимательно выбирать компанию или частного консультанта, если бюджет на поиск работы ограничен.
- Консультации не помогут, если у вас недостаточно внутренней мотивации и дисциплины. Консультант не найдет работу за вас, нужно самостоятельно откликаться на вакансии и ходить на собесы 😉
А что вы думаете про карьерные консультации?
Ставьте ❤️, если было интересно и нужны ещё посты на эту тему)
❤23👍4❤🔥2
🚀 (1/2) Transformer в задачах НЕ текстовой модальности
В прошлом посте мы разбирали архитектуру Transformer в рамках работы с текстом. Сегодня поговорим про то, как Transformer может работать с другими модальностями.
📝О терминологии: мультимодальность - способность модели работать с несколькими модальностями одновременно: текст, аудио, видео, изображение.
🎨Изображение:
Трансформер изначально создавался для работы с текстом. Однако, в статье Vision Transformer (ViT) данная архитектура была успешно адаптирована к работе с изображениями.
Особенности: изображение разбивается на маленькие куски (патчи), которые затем обрабатываются как последовательность. Ключевой слой Self-Attention помогает модели учитывать отношения между различными патчами изображения.
Затем появились мультимодальные модели LLaVA и CLIP, способные принимать на вход изображение и текстовый промпт. Такой подход позволил моделям решать задачу image captioning (описание изображения) и классифицировать изображения без дообучения. Более подробно про это тут.
🎶Аудио:
Ключевой моделью на базе Transformer в работе с аудио является Whisper от OpenAI.
Особенности: аудиосигнал преобразуется в спектрограмму или векторные представления, которые затем обрабатываются трансформером. Self-Attention позволяет модели выделять важные фрагменты звука.
Модель решает задачи распознавания речи (ASR), анализа звуковых сигналов и преобразование аудио в текст (Speech to Text).
🎥Видео:
В работе с видео трансформеры строятся на архитектурах ViViT и TimeSFormer.
Особенности: видео разбивается на последовательности кадров, которые обрабатываются как патчи изображений с учетом времени. Self-Attention учитывает как пространственные, так и временные связи между кадрами.
Модели подобных архитектур могут решать задачи анализа и классификации видео и генерации описаний к ним.
📚Дополнительное чтиво:
- Статья на Хабре про первую настоящую мультимодальную модель gpt-4o
- Про ViT для новичков читайте тут
- Подробные обзоры про ViT-like архитектуры для более продвинутых
- Распознавание речи, генерация субтитров и изучение языков при помощи Whisper на Хабре для практиков
- Подробный разбор, про ViViT и TimeSFormer, чтобы въехать
- Gitbook про трансформеры для более продвинутых (много дополнительного материала и кода)
Ставьте лайки❤️ и огоньки🔥 для следующих крутых постов!
Пишите свои комментарии! До встречи👋🏻
В прошлом посте мы разбирали архитектуру Transformer в рамках работы с текстом. Сегодня поговорим про то, как Transformer может работать с другими модальностями.
📝О терминологии: мультимодальность - способность модели работать с несколькими модальностями одновременно: текст, аудио, видео, изображение.
🎨Изображение:
Трансформер изначально создавался для работы с текстом. Однако, в статье Vision Transformer (ViT) данная архитектура была успешно адаптирована к работе с изображениями.
Особенности: изображение разбивается на маленькие куски (патчи), которые затем обрабатываются как последовательность. Ключевой слой Self-Attention помогает модели учитывать отношения между различными патчами изображения.
Затем появились мультимодальные модели LLaVA и CLIP, способные принимать на вход изображение и текстовый промпт. Такой подход позволил моделям решать задачу image captioning (описание изображения) и классифицировать изображения без дообучения. Более подробно про это тут.
🎶Аудио:
Ключевой моделью на базе Transformer в работе с аудио является Whisper от OpenAI.
Особенности: аудиосигнал преобразуется в спектрограмму или векторные представления, которые затем обрабатываются трансформером. Self-Attention позволяет модели выделять важные фрагменты звука.
Модель решает задачи распознавания речи (ASR), анализа звуковых сигналов и преобразование аудио в текст (Speech to Text).
🎥Видео:
В работе с видео трансформеры строятся на архитектурах ViViT и TimeSFormer.
Особенности: видео разбивается на последовательности кадров, которые обрабатываются как патчи изображений с учетом времени. Self-Attention учитывает как пространственные, так и временные связи между кадрами.
Модели подобных архитектур могут решать задачи анализа и классификации видео и генерации описаний к ним.
📚Дополнительное чтиво:
- Статья на Хабре про первую настоящую мультимодальную модель gpt-4o
- Про ViT для новичков читайте тут
- Подробные обзоры про ViT-like архитектуры для более продвинутых
- Распознавание речи, генерация субтитров и изучение языков при помощи Whisper на Хабре для практиков
- Подробный разбор, про ViViT и TimeSFormer, чтобы въехать
- Gitbook про трансформеры для более продвинутых (много дополнительного материала и кода)
Ставьте лайки❤️ и огоньки🔥 для следующих крутых постов!
Пишите свои комментарии! До встречи👋🏻
❤16🔥11❤🔥2👍1
Почему Polars быстрее, чем Pandas
Polars: ооткрытая библиотека для работы с данными, написанная на языке RUST. Предоставляет функционал для выполнения задач аналогичный Pandas, но с более высокой производительностью.
▫️Polars использует все ядра компьютера на системном уровне, в отличие от однопоточного Pandas
▫️В Polars поддерживаются два вида API: eager и lazy. Eager (как в Pandas) — код выполняется сразу, lazy — код выполняется только когда это требуется. Это позволяет снизить нагрузку на память и cpu, что как следствие повышает производительность
▫️В Polars создали собственную реализацию Apache Arrow (формат памяти независимый от языка). В Arrow все столбцы хранятся в непрерывном блоке памяти независимо от типа данных. Это ускоряет поиск данных
▫️Практически любая операция в Polars, может быть выражена в виде метода Polars. Сложные операции в pandas нужно передавать в метод apply в виде лямбда-выражения, который последовательно выполняет операцию на строках. Возможность использовать встроенные методы позволяет работать на уровне столбцов
🐻❄️ Приятный бонус — синтаксис практически идентичен Pandas.
У Polars есть очевидные плюсы в скорости, однако главное преимущество Pandas — это уже выстроенная экосистема. Гораздо большее количество библиотек для DS совместимо с Pandas.
Что почитать:
Статья на Хабр — подробный обзор библиотеки Polars
[ENG] Статья от JetBrains — Polars vs. pandas: What’s the Difference?
[ENG]Polars_cheat_sheet.pdf — сборник команд на Polars
Ставьте ❤️, если уже пробовали Polars)
Polars: ооткрытая библиотека для работы с данными, написанная на языке RUST. Предоставляет функционал для выполнения задач аналогичный Pandas, но с более высокой производительностью.
▫️Polars использует все ядра компьютера на системном уровне, в отличие от однопоточного Pandas
▫️В Polars поддерживаются два вида API: eager и lazy. Eager (как в Pandas) — код выполняется сразу, lazy — код выполняется только когда это требуется. Это позволяет снизить нагрузку на память и cpu, что как следствие повышает производительность
▫️В Polars создали собственную реализацию Apache Arrow (формат памяти независимый от языка). В Arrow все столбцы хранятся в непрерывном блоке памяти независимо от типа данных. Это ускоряет поиск данных
▫️Практически любая операция в Polars, может быть выражена в виде метода Polars. Сложные операции в pandas нужно передавать в метод apply в виде лямбда-выражения, который последовательно выполняет операцию на строках. Возможность использовать встроенные методы позволяет работать на уровне столбцов
🐻❄️ Приятный бонус — синтаксис практически идентичен Pandas.
У Polars есть очевидные плюсы в скорости, однако главное преимущество Pandas — это уже выстроенная экосистема. Гораздо большее количество библиотек для DS совместимо с Pandas.
Что почитать:
Статья на Хабр — подробный обзор библиотеки Polars
[ENG] Статья от JetBrains — Polars vs. pandas: What’s the Difference?
[ENG]Polars_cheat_sheet.pdf — сборник команд на Polars
Ставьте ❤️, если уже пробовали Polars)
pola.rs
Polars
DataFrames for the new era
❤35🔥18👍10
⚔️🤖 Эволюция Трансформеров: отличие GPT-моделей от BERT-моделей
Продолжая линейку статей по Трансформерам, сегодня поговорим про GPT-like и BERT-like модели и погрузимся в детали их работы, чтобы понять ключевые отличия и способы применения.
❗️BERT и GPT созданы на основе архитектуры Transformer, который мы описывали тут.
BERT (Bidirectional Encoder Representations from Transformers) - это модель, построенная лишь на Encoder-блоках базового Трансформера.
Базовая модель BERT обучалась на двух задачах: Masked Language Modeling (предсказание замаксированных слов в предложении, учитывая контекст с двух сторон) и Next Sentence Prediction (предсказание является ли последовательность B продолжением последовательности А).
Именно благодаря подходу с обучением на MLM, BERT научилcя справляться с задачами, требующими глубокого семантического анализа текста, например, определение тональности текста, извлечение именованных сущностей (названий городов, имен людей и т.д.) и понимание связей между предложениями.
GPT (Generative Pre-trained Transformer) - это модель, разработанная компанией OpenAI. Архитектура строится только на Decoder-блоках, взятых из базового Трансформера, основная цель которых - решать задачу языкового моделирования, то есть предсказывать следующий кусок текста на основе предыдущего контекста. Это может быть генерация диалогов, написание статей, создание творческих текстов и даже программирование.
🔝Современные аналоги:
Для BERT-моделей существуют следующие ключевые аналоги:
- RoBERTa: Улучшенная версия BERT, обученная только на задаче MLM (Masked Language Modeling) на больших объемах данных.
- DistilBERT: Уменьшенная (дистилированная) и более быстрая версия BERT, сохраняющая 97% качества на разных задачах при меньших размерах на 40%.
- XLM, ALBERT и т.д.
Для GPT-моделей первая версия была представлена в 2018 году, а затем последовали её улучшенные версии, такие как:
- GPT-2, GPT-3, InstructGPT
- GPT-3.5: Версия GPT от OpenAI, способная выполнять огромное количество задач благодаря 175 миллиардам параметров.
- GPT-4: Следующее поколение моделей, с еще большими языковыми и мультимодальными возможностями.
📚 Чтение - мать учения:
- BERT - в двух словах, подойдет для новичков.
- Ещё немного про BERT.
- GPT для чайников на Хабре.
- Простое руководство по дистиляции BERT.
- Простенький список с основными Pre-train задачами в NLP.
- BERT и его вариации на YouTube.
- Репозиторий с картинкой дерева эволюции NLP-моделей.
Не забывайте ставить лайки❤️ и огоньки🔥!
Пишите свои вопросы, комментарии и предложения под постом!
До встречи👋🏻
Продолжая линейку статей по Трансформерам, сегодня поговорим про GPT-like и BERT-like модели и погрузимся в детали их работы, чтобы понять ключевые отличия и способы применения.
❗️BERT и GPT созданы на основе архитектуры Transformer, который мы описывали тут.
BERT (Bidirectional Encoder Representations from Transformers) - это модель, построенная лишь на Encoder-блоках базового Трансформера.
Базовая модель BERT обучалась на двух задачах: Masked Language Modeling (предсказание замаксированных слов в предложении, учитывая контекст с двух сторон) и Next Sentence Prediction (предсказание является ли последовательность B продолжением последовательности А).
Именно благодаря подходу с обучением на MLM, BERT научилcя справляться с задачами, требующими глубокого семантического анализа текста, например, определение тональности текста, извлечение именованных сущностей (названий городов, имен людей и т.д.) и понимание связей между предложениями.
GPT (Generative Pre-trained Transformer) - это модель, разработанная компанией OpenAI. Архитектура строится только на Decoder-блоках, взятых из базового Трансформера, основная цель которых - решать задачу языкового моделирования, то есть предсказывать следующий кусок текста на основе предыдущего контекста. Это может быть генерация диалогов, написание статей, создание творческих текстов и даже программирование.
🔝Современные аналоги:
Для BERT-моделей существуют следующие ключевые аналоги:
- RoBERTa: Улучшенная версия BERT, обученная только на задаче MLM (Masked Language Modeling) на больших объемах данных.
- DistilBERT: Уменьшенная (дистилированная) и более быстрая версия BERT, сохраняющая 97% качества на разных задачах при меньших размерах на 40%.
- XLM, ALBERT и т.д.
Для GPT-моделей первая версия была представлена в 2018 году, а затем последовали её улучшенные версии, такие как:
- GPT-2, GPT-3, InstructGPT
- GPT-3.5: Версия GPT от OpenAI, способная выполнять огромное количество задач благодаря 175 миллиардам параметров.
- GPT-4: Следующее поколение моделей, с еще большими языковыми и мультимодальными возможностями.
📚 Чтение - мать учения:
- BERT - в двух словах, подойдет для новичков.
- Ещё немного про BERT.
- GPT для чайников на Хабре.
- Простое руководство по дистиляции BERT.
- Простенький список с основными Pre-train задачами в NLP.
- BERT и его вариации на YouTube.
- Репозиторий с картинкой дерева эволюции NLP-моделей.
Не забывайте ставить лайки❤️ и огоньки🔥!
Пишите свои вопросы, комментарии и предложения под постом!
До встречи👋🏻
❤41👍5🔥5
🚨АНОНС DS-КВИЗА🚨
👉Дорогие подписчики, всей командой SCiDS с радостью готовы сообщить Вам о запуске квиза по Data Science!
Что вас ждёт:
- Возможность бесплатно получить одну из книг по Data Science (см. ниже) и в добавок консультацию от админа-канала - Ромы Васильева
- Каверзные вопросы и задачки, от которых закипит ваш процессор, разделенные на три секции: Python, Machine Learning, Deep Learning
- Возможность понять свой технический уровень по основным темам в Data Science
Формат:
📅 Длительность: 1 неделя (начало завтра)
📚 Темы: Python, Machine Learning, Deep Learning
📝 3 поста по каждой теме (всего 15 вопросов)
Как участвовать:
1️⃣ Следите за постами в течение недели
2️⃣ Для участия достаточно ответить на вопросы хотя бы в рамках одного квиза из трех
3️⃣ Ответы опубликуй в комментариях под постом
4️⃣ Готово! Вы втанцах игре!
Выбор победителей и призы:
🎲 2 счастливчика будут выбраны случайным образом - победить сможет каждый!
🔝И ещё один победитель будет выбран по максимальному количеству набранных очков
📘 Каждый из победителей фиксировано получит одну из книг по Data Science:
1. "Практическая статистика для специалистов Data Science"
2. "Грокаем глубокое обучение"
3. "Математические основы Машинного обучения"
👨🏫 А финалист, набравший наибольшее количество очков, также в подарок получит персональную консультацию от админа канала Ромы Васильева
🏆Даже одно решение может принести вам победу, поэтому не упускайте шанс поучаствовать!
Ставьте лайки❤️ и огоньки🔥 если ждете начала!
👉Дорогие подписчики, всей командой SCiDS с радостью готовы сообщить Вам о запуске квиза по Data Science!
Что вас ждёт:
- Возможность бесплатно получить одну из книг по Data Science (см. ниже) и в добавок консультацию от админа-канала - Ромы Васильева
- Каверзные вопросы и задачки, от которых закипит ваш процессор, разделенные на три секции: Python, Machine Learning, Deep Learning
- Возможность понять свой технический уровень по основным темам в Data Science
Формат:
📅 Длительность: 1 неделя (начало завтра)
📚 Темы: Python, Machine Learning, Deep Learning
📝 3 поста по каждой теме (всего 15 вопросов)
Как участвовать:
1️⃣ Следите за постами в течение недели
2️⃣ Для участия достаточно ответить на вопросы хотя бы в рамках одного квиза из трех
3️⃣ Ответы опубликуй в комментариях под постом
4️⃣ Готово! Вы в
Выбор победителей и призы:
🎲 2 счастливчика будут выбраны случайным образом - победить сможет каждый!
🔝И ещё один победитель будет выбран по максимальному количеству набранных очков
📘 Каждый из победителей фиксировано получит одну из книг по Data Science:
1. "Практическая статистика для специалистов Data Science"
2. "Грокаем глубокое обучение"
3. "Математические основы Машинного обучения"
👨🏫 А финалист, набравший наибольшее количество очков, также в подарок получит персональную консультацию от админа канала Ромы Васильева
🏆Даже одно решение может принести вам победу, поэтому не упускайте шанс поучаствовать!
Ставьте лайки❤️ и огоньки🔥 если ждете начала!
❤58🔥26🤩4👍1
🔥Квиз №1 по «Python»🔥
📢Правила следующие:
◽️Квиз содержит 5 каверзных вопросов по Python, которые также часто можно встретить на собеседованиях
◽️Верные ответы будут прикреплены в комментариях под постом через 24 часа после его публикации
◽️Свои ответы оставляйте также под постом
◽️Ответ засчитывается при схожести с нашими заготовленными ответами
◽️Мы также учитываем скорость ответа: более ранний ответ будет иметь больший вес, если мы столкнёмся с одинаковым количеством верных ответов нескольких участников
◽️В комментариях также будут добавлены ссылки на материалы, с которыми можно будет ознакомиться, чтобы лучше разобраться в вопросах
🐍Начнем!
1. Можно ли извлечь элемент генератора по индексу?
2. Как создать tuple с одним элементом?
3. В чем разница между оператором «is» и оператором равенства «==»?
4. Что лучше «import module» или «from module import»?
5. Как передать в функцию декоратора аргументы?
Ставьте ❤️ и 🔥, если понравились вопросы!
👇Участвуйте в опросе и пишите свои варианты в комментариях!
⌚️Совсем скоро мы опубликуем правильные ответы!
📢Правила следующие:
◽️Квиз содержит 5 каверзных вопросов по Python, которые также часто можно встретить на собеседованиях
◽️Верные ответы будут прикреплены в комментариях под постом через 24 часа после его публикации
◽️Свои ответы оставляйте также под постом
◽️Ответ засчитывается при схожести с нашими заготовленными ответами
◽️Мы также учитываем скорость ответа: более ранний ответ будет иметь больший вес, если мы столкнёмся с одинаковым количеством верных ответов нескольких участников
◽️В комментариях также будут добавлены ссылки на материалы, с которыми можно будет ознакомиться, чтобы лучше разобраться в вопросах
🐍Начнем!
1. Можно ли извлечь элемент генератора по индексу?
2. Как создать tuple с одним элементом?
3. В чем разница между оператором «is» и оператором равенства «==»?
4. Что лучше «import module» или «from module import»?
5. Как передать в функцию декоратора аргументы?
Ставьте ❤️ и 🔥, если понравились вопросы!
👇Участвуйте в опросе и пишите свои варианты в комментариях!
⌚️Совсем скоро мы опубликуем правильные ответы!
❤🔥42❤8🔥7👍1
🔥Квиз №2 по «Data Science и Machine Learning»🔥
💯Рады сообщить, что сегодня запускаем вторую часть нашего квиза с вопросами на понимание ключевых концепций Data Science и Machine Learning!
👆Первую часть квиза вы можете найти тут
☑️Основные правила остаются теми же, а мы приступаем к вопросам!
1. Можно ли использовать accuracy, recall или precision как функцию потерь? И если да/нет, то почему?
2. Каким способом можно любое распределение превратить в нормальное?
3. После обучения Random Forest и Gradient Boosting только на положительных величинах, на тестовом примере модель выдала отрицательный прогноз. Возможно ли это? Если да, то с какой моделью и почему?
4. Существуют ли ситуации, когда cross-validation не будет работать?
5. Возможно ли, что при уменьшении CrossEntropy (функция потерь) accuracy (метрика качества) тоже уменьшится? Приведите пример, если это возможно.
❗️Напоминаем, что у вас есть возможность написать свои ответы в течении ближайших 24 часов под постом в комментариях
🤗А мы ждём ваши решения!
Ставьте обязательно ❤️ и 🔥 за интересные вопросы
💯Рады сообщить, что сегодня запускаем вторую часть нашего квиза с вопросами на понимание ключевых концепций Data Science и Machine Learning!
👆Первую часть квиза вы можете найти тут
☑️Основные правила остаются теми же, а мы приступаем к вопросам!
1. Можно ли использовать accuracy, recall или precision как функцию потерь? И если да/нет, то почему?
2. Каким способом можно любое распределение превратить в нормальное?
3. После обучения Random Forest и Gradient Boosting только на положительных величинах, на тестовом примере модель выдала отрицательный прогноз. Возможно ли это? Если да, то с какой моделью и почему?
4. Существуют ли ситуации, когда cross-validation не будет работать?
5. Возможно ли, что при уменьшении CrossEntropy (функция потерь) accuracy (метрика качества) тоже уменьшится? Приведите пример, если это возможно.
❗️Напоминаем, что у вас есть возможность написать свои ответы в течении ближайших 24 часов под постом в комментариях
🤗А мы ждём ваши решения!
Ставьте обязательно ❤️ и 🔥 за интересные вопросы
❤21🔥12
🔥 ТОП-10 вопросов из собеседований по NLP
🔎 Знание основ NLP и умение работать с LLM становятся ключевыми навыками для Data Scientistа и ML-Engineerа.
Рынок труда активно требует опытных специалистов в этой области, и чтобы чувствовать себя уверенно на собеседовании, мы подготовили список основных вопросов на подобных секциях и готовы поделиться им с вами!
❗️К каждому вопросу прилагаются полезные ресурсы для углубления знаний по данной теме.
1. Что такое Tf-IDF и как он работает?
2. Как обучается word2vec?
3. Какие виды токенизаторов есть и как они обучаются? Как оценить качество токенизатора?
4. Для чего используется позиционная кодировка, почему мы не можем просто кодировать индексами токенов?
5. Основное отличие BERT и GPT моделей?
6. Как можно решить проблему галлюцинаций в LLM?
7. Можно ли подать модели с входным контекстом 8к токенов последовательность с 32к токенами? Что произойдет?
8. Сравни вычислительную сложность у RNN/LSTM и Attention блоков в трансформерах?
9. Как можно оптимизировать расчет attention-оценок в трансформерах? Какие есть подходы?
10. Какие есть гиперпараметры генерации в GPT моделях?
📚Дополнительные ресурсы для лучшей подготовке к собеседованиям по NLP и LLM:
▫️Русский курс по NLP от Hugging Face с самого нуля.
▫️Также отличный курс от Лены Войты по базовым концепциям NLP.
▫️Онлайн-ресурс с объяснением ключевых терминов и того, что сейчас используется в индустрии, начиная с базовых вещей.
▫️100 вопросов и ответов для интервью по NLP
▫️Топ-50 вопросов из собеседований по NLP
▫️Вопросы по NLP 2024 года
Ставьте лайки❤️ и огоньки🔥
Обязательно пишите комментарии под постом и добавляйте свои варианты вопросов из собеседований!
До встречи👋🏻
🔎 Знание основ NLP и умение работать с LLM становятся ключевыми навыками для Data Scientistа и ML-Engineerа.
Рынок труда активно требует опытных специалистов в этой области, и чтобы чувствовать себя уверенно на собеседовании, мы подготовили список основных вопросов на подобных секциях и готовы поделиться им с вами!
❗️К каждому вопросу прилагаются полезные ресурсы для углубления знаний по данной теме.
1. Что такое Tf-IDF и как он работает?
2. Как обучается word2vec?
3. Какие виды токенизаторов есть и как они обучаются? Как оценить качество токенизатора?
4. Для чего используется позиционная кодировка, почему мы не можем просто кодировать индексами токенов?
5. Основное отличие BERT и GPT моделей?
6. Как можно решить проблему галлюцинаций в LLM?
7. Можно ли подать модели с входным контекстом 8к токенов последовательность с 32к токенами? Что произойдет?
8. Сравни вычислительную сложность у RNN/LSTM и Attention блоков в трансформерах?
9. Как можно оптимизировать расчет attention-оценок в трансформерах? Какие есть подходы?
10. Какие есть гиперпараметры генерации в GPT моделях?
📚Дополнительные ресурсы для лучшей подготовке к собеседованиям по NLP и LLM:
▫️Русский курс по NLP от Hugging Face с самого нуля.
▫️Также отличный курс от Лены Войты по базовым концепциям NLP.
▫️Онлайн-ресурс с объяснением ключевых терминов и того, что сейчас используется в индустрии, начиная с базовых вещей.
▫️100 вопросов и ответов для интервью по NLP
▫️Топ-50 вопросов из собеседований по NLP
▫️Вопросы по NLP 2024 года
Ставьте лайки❤️ и огоньки🔥
Обязательно пишите комментарии под постом и добавляйте свои варианты вопросов из собеседований!
До встречи👋🏻
🔥56❤22👍4
💯 Встречайте вопросы третьего квиза по «Deep Learning»
❗️В рамках текущей серии постов квизов больше не будет.
🏆 Воспользуйтесь последним шансом, ответив на вопросы, чтобы получить возможность выиграть призы
⬆️ Посты с вопросами на первый и второй квизы
🪄А мы приступаем к тематическим вопросам, связанные с «Deep Learning»:
1. Чем отличаются виды нормализации в нейронных сетях: BatchNorm, LayerNorm, RMSNorm?
2. Как работает Dropout при инференсе?
3. Какие существуют способы инициализации весов в нейронной сети?
4. Как хитро можно решить задачу multilabels в нейронных сетях?
5. Какие существуют способы решения проблемы затухания градиента?
👇Ждём ваших ответов под постом!
Также награждайте нас ❤️ и 🔥 за интересные вопросы!
❗️В рамках текущей серии постов квизов больше не будет.
🏆 Воспользуйтесь последним шансом, ответив на вопросы, чтобы получить возможность выиграть призы
⬆️ Посты с вопросами на первый и второй квизы
🪄А мы приступаем к тематическим вопросам, связанные с «Deep Learning»:
1. Чем отличаются виды нормализации в нейронных сетях: BatchNorm, LayerNorm, RMSNorm?
2. Как работает Dropout при инференсе?
3. Какие существуют способы инициализации весов в нейронной сети?
4. Как хитро можно решить задачу multilabels в нейронных сетях?
5. Какие существуют способы решения проблемы затухания градиента?
👇Ждём ваших ответов под постом!
Также награждайте нас ❤️ и 🔥 за интересные вопросы!
❤18🔥10👍3
🚨ИТОГИ DS-КВИЗА🚨
🔥🏆 Дорогие подписчики, рады сообщить об окончании квиза в нашем канале и поздравить участников и победителей этого небольшого соревнования!
Результаты получились следующие:
*Мы немного изменили правила, победителей будет больше! Вы молодцы!
🥇 Шесть финалистов:
▫️По набранным баллам:
1. @RCinderblock
2. @LoneD1gger
3. @IlyaZakharov8
4. @pilnen
▫️Выбранные рандомайзером:
5. @al_bratkov
6. @sprflv
Получают в подарок книги!
🏆 Один победитель:
@IlyaZakharov8 получает персональную консультацию от админа-канала - Ромы Васильева!
💬 Ребята, мы придем ко всем в личку в ближайшее время, просьба открыть доступы
🫶 Спасибо всем участникам за активные ответы!
🧠 Надеемся вам было полезно и вы узнали много нового
Ставьте ❤️, если было интересно и 🔥, если нужны ещё подобные активности в канале!
🚀 Победители и все участники принимают поздравления в комментариях
🔥🏆 Дорогие подписчики, рады сообщить об окончании квиза в нашем канале и поздравить участников и победителей этого небольшого соревнования!
Результаты получились следующие:
*Мы немного изменили правила, победителей будет больше! Вы молодцы!
🥇 Шесть финалистов:
▫️По набранным баллам:
1. @RCinderblock
2. @LoneD1gger
3. @IlyaZakharov8
4. @pilnen
▫️Выбранные рандомайзером:
5. @al_bratkov
6. @sprflv
Получают в подарок книги!
🏆 Один победитель:
@IlyaZakharov8 получает персональную консультацию от админа-канала - Ромы Васильева!
💬 Ребята, мы придем ко всем в личку в ближайшее время, просьба открыть доступы
🫶 Спасибо всем участникам за активные ответы!
🧠 Надеемся вам было полезно и вы узнали много нового
Ставьте ❤️, если было интересно и 🔥, если нужны ещё подобные активности в канале!
🚀 Победители и все участники принимают поздравления в комментариях
🔥30❤9👍4
✏️ Подборка актуальных стажировок по анализу данных на осень 2024
🔹 Young&Yandex
Сроки подачи заявки: набор идет круглый год
Особые условия: скорее всего не будет удалёнки, стажировку можно пройти в офисах Яндекса в Москве, Санкт-Петербурге, Екатеринбурге, Сочи, Новосибирске и Нижнем Новгороде
🔹 Ozon Camp
Сроки подачи заявки: набор откроется осенью 2024
Особые условия: кроме скрининга и тестового, нужно написать мотивационное письмо, локация - Москва
🔹 WB техношкола, курс-стажировка по направлению Дата Сайенс от Wildberries
Сроки подачи заявки: набор открыт
Особые условия: неоплачиваемая стажировка, 3 месяца. Лучших студентов, которые пройдут все этапы и защитят итоговый проект, пригласят на работу в Wildberries
🔹 Sber Seasons
Сроки подачи заявки: набор откроется в сентябре 2024
Особые условия: нужно быть действующим студентом очной формы обучения
🔹 Т-банк Старт
Сроки подачи заявки: до 16 сентября 2024 включительно
Особые условия: занятость от 20 часов в неделю
Вакансии для стажёров:
МТС Старт
Сбер
AlfaStudents от Альба банка
Ставьте 🔥, если было полезно! Желаем удачи в поисках стажировки 🫶
🔹 Young&Yandex
Сроки подачи заявки: набор идет круглый год
Особые условия: скорее всего не будет удалёнки, стажировку можно пройти в офисах Яндекса в Москве, Санкт-Петербурге, Екатеринбурге, Сочи, Новосибирске и Нижнем Новгороде
🔹 Ozon Camp
Сроки подачи заявки: набор откроется осенью 2024
Особые условия: кроме скрининга и тестового, нужно написать мотивационное письмо, локация - Москва
🔹 WB техношкола, курс-стажировка по направлению Дата Сайенс от Wildberries
Сроки подачи заявки: набор открыт
Особые условия: неоплачиваемая стажировка, 3 месяца. Лучших студентов, которые пройдут все этапы и защитят итоговый проект, пригласят на работу в Wildberries
🔹 Sber Seasons
Сроки подачи заявки: набор откроется в сентябре 2024
Особые условия: нужно быть действующим студентом очной формы обучения
🔹 Т-банк Старт
Сроки подачи заявки: до 16 сентября 2024 включительно
Особые условия: занятость от 20 часов в неделю
Вакансии для стажёров:
МТС Старт
Сбер
AlfaStudents от Альба банка
Ставьте 🔥, если было полезно! Желаем удачи в поисках стажировки 🫶
🔥46❤🔥7❤4👍1
Автор нашего канала Рома Васильев дал интервью для новой рубрики канале Карьера в Data | LEFT JOIN — Завтра в Data
В мини-интервью можно узнать про первую работу Романа, подводные камни в профессии и как развиваться в Data новичку 🙂
В мини-интервью можно узнать про первую работу Романа, подводные камни в профессии и как развиваться в Data новичку 🙂
👍5❤3🤩2
Forwarded from LEFT JOIN Insider
Завтра в Data №1: от анализа данных при продаже кумыса до руководителя международной аналитики
Запускаем новую рубрику, где расскажем об экспертах в сфере Data — об их крутых проектах, пройденном пути и накопленном опыте.
🔜 Гость пилотного выпуска — Роман Васильев, руководитель международной аналитики «Яндекс Поиск».
Автор Telegram-каналов Start Career in DS и я так понимаю, Роман Васильев.
О чем это интервью?
🔵 Как развиваться в Data новичку: университет, курсы или самостоятельное обучение.
🔵 О факторах, влияющих на успех в сфере.
🔵 О подводных камнях в работе.
🔵 Что читать и смотреть, чтобы развиваться в Data (ссылки оставили в комментариях).
Все подробности — в карточках 🔥
А задать любые интересующие вопросы Роману можно в комментариях!
🔜 @leftjoin_career
Запускаем новую рубрику, где расскажем об экспертах в сфере Data — об их крутых проектах, пройденном пути и накопленном опыте.
Автор Telegram-каналов Start Career in DS и я так понимаю, Роман Васильев.
О чем это интервью?
Все подробности — в карточках 🔥
А задать любые интересующие вопросы Роману можно в комментариях!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥19🔥3❤2😁1