EBOUTDATASCIENCE Telegram 207
Теперь даже ваша собака будет понимать логистическую регрессию 🗣

Вот уже прошло второе занятие по ML от Ebout Data Science, делюсь его итогами. Мы проводим живые занятия в небольших группах (до 30 человек), где у вас есть возможность общаться с преподавателем на протяжении всего обучения 👨‍🦰

По теории мы прошли
🔘 как строить строить выборки train/val/test, и как их оценивать результаты модели
🔘 Какие бывают проблемы с данными: пропуски, выбросы, мультиколлинеарность, утечка данных
🔘Что такое недообучение и переобучение?
🔘 И что такое регуляризация линейных моделей: L1, L2, Elastic Net, и чем они оличаются?

А попрактиковались в:
🟣работе с мультиколлирированными данными на синтетическом датасете
🟡самостоятельно реализовали методы регуляризации
🔵анализировали влияние регуляризации на веса, интерпретация
🟢решили задачу на kaggle: задача на прогнозирования цены квартиры с помощью линрег

А вот отзывы учеников на второе занятие 🍷
Математическую часть объяснил довольно понятно хорошо разжеван материал, матформулы даны с понятными пояснениями

Как и в прошлый раз, практическая часть реализация на питоне с нуля - самое полезное. ещё примеры были хорошие

- то, что покрываешь тему исчерпывающе
- есть домашка полезная!

В этот раз понравился сам материал: синтез статистики и машинного обучения + очень доходчиво все было объяснено преподавателем


На третьем занятии "Классификация. Логистическая регрессия. Метрики", которые пройдёт в четверг (6 марта) с 18:00 по 19:30 - мы сделаем уклон в теорию логистической регрессии, а на четвёртом занятии всё будем смотреть через призму соревок на Kaggle!

А также дадим вам список вопросов, которые спрашивают на собесе по логистической регрессии... 💃

В теоретической части мы потеоретизируем про:
🟡 Что такое задача классификации?
🔵 Как решать задачи бинарной классификации с помощью логистической регрессии?
🟢 Вывод логистической регрессии: вероятностный подход, метод максимального правдоподобия, геометрический смысл
🟣 Что такое регуляризация у логистической регрессии?
🟢 И какие бывают метрики бинарной классификации для меток классов и вероятностей?

А на практической части мы попрактикуемся в:
🟣 Выводе формул для логистической регрессии
🟡 Реализуем логистическую регрессию с нуля
🔵 Порешаем задачи бинарной классификации на тривиальных данных
🟢 По экспериментируем с метриками, и сделаем анализ устойчивости к балансу классов

Ученики довольны, ученики получают сошиал кредитс на собесах и всё ближе и ближе к офферу. Для записи пишите @Alexander_Isaev1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8🍌4❤‍🔥3🥰21



tgoop.com/eboutdatascience/207
Create:
Last Update:

Теперь даже ваша собака будет понимать логистическую регрессию 🗣

Вот уже прошло второе занятие по ML от Ebout Data Science, делюсь его итогами. Мы проводим живые занятия в небольших группах (до 30 человек), где у вас есть возможность общаться с преподавателем на протяжении всего обучения 👨‍🦰

По теории мы прошли
🔘 как строить строить выборки train/val/test, и как их оценивать результаты модели
🔘 Какие бывают проблемы с данными: пропуски, выбросы, мультиколлинеарность, утечка данных
🔘Что такое недообучение и переобучение?
🔘 И что такое регуляризация линейных моделей: L1, L2, Elastic Net, и чем они оличаются?

А попрактиковались в:
🟣работе с мультиколлирированными данными на синтетическом датасете
🟡самостоятельно реализовали методы регуляризации
🔵анализировали влияние регуляризации на веса, интерпретация
🟢решили задачу на kaggle: задача на прогнозирования цены квартиры с помощью линрег

А вот отзывы учеников на второе занятие 🍷

Математическую часть объяснил довольно понятно хорошо разжеван материал, матформулы даны с понятными пояснениями

Как и в прошлый раз, практическая часть реализация на питоне с нуля - самое полезное. ещё примеры были хорошие

- то, что покрываешь тему исчерпывающе
- есть домашка полезная!

В этот раз понравился сам материал: синтез статистики и машинного обучения + очень доходчиво все было объяснено преподавателем


На третьем занятии "Классификация. Логистическая регрессия. Метрики", которые пройдёт в четверг (6 марта) с 18:00 по 19:30 - мы сделаем уклон в теорию логистической регрессии, а на четвёртом занятии всё будем смотреть через призму соревок на Kaggle!

А также дадим вам список вопросов, которые спрашивают на собесе по логистической регрессии... 💃

В теоретической части мы потеоретизируем про:
🟡 Что такое задача классификации?
🔵 Как решать задачи бинарной классификации с помощью логистической регрессии?
🟢 Вывод логистической регрессии: вероятностный подход, метод максимального правдоподобия, геометрический смысл
🟣 Что такое регуляризация у логистической регрессии?
🟢 И какие бывают метрики бинарной классификации для меток классов и вероятностей?

А на практической части мы попрактикуемся в:
🟣 Выводе формул для логистической регрессии
🟡 Реализуем логистическую регрессию с нуля
🔵 Порешаем задачи бинарной классификации на тривиальных данных
🟢 По экспериментируем с метриками, и сделаем анализ устойчивости к балансу классов

Ученики довольны, ученики получают сошиал кредитс на собесах и всё ближе и ближе к офферу. Для записи пишите @Alexander_Isaev1

BY Ebout Data Science | Дима Савелко







Share with your friend now:
tgoop.com/eboutdatascience/207

View MORE
Open in Telegram


Telegram News

Date: |

As the broader market downturn continues, yelling online has become the crypto trader’s latest coping mechanism after the rise of Goblintown Ethereum NFTs at the end of May and beginning of June, where holders made incoherent groaning sounds and role-played as urine-loving goblin creatures in late-night Twitter Spaces. Developing social channels based on exchanging a single message isn’t exactly new, of course. Back in 2014, the “Yo” app was launched with the sole purpose of enabling users to send each other the greeting “Yo.” On June 7, Perekopsky met with Brazilian President Jair Bolsonaro, an avid user of the platform. According to the firm's VP, the main subject of the meeting was "freedom of expression." Click “Save” ; 4How to customize a Telegram channel?
from us


Telegram Ebout Data Science | Дима Савелко
FROM American