Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
912 - Telegram Web
Telegram Web
Что-то сегодня целый день уходит на процессы ревью, поэтому ловите мемы

#meme
😁12🔥4🦄2👍1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥5❤‍🔥31
asisakov
Video message
Немножечко городской природы вам в ленту
👍6🔥3
Интересное что-то от ребят, кого я читаю v0.20

Предыдущий пост тут
Интересное что-то тут

Всех с новой неделей, го почитаем интересное:

1. Начнем с необычного - некоторое время в каналах по ллмкам (больше всего мне зашел пост Сергея) гуляют ссылки на интересную статью про то, как модель сломали, обучив на коде с уязвимостями, что привело просто к неожиданному - alignment модели сломался. Подробнее в посте и приложенных статьях.

2. Татьяна поделилась классным выступлением Тима Роктешела про ворлд моделинг. Говорят, что это очень хороший и своевременный обзорный доклад про новые приоритеты в исследовании ИИ: reinforcement learning, фундаментальные модели, проблемы бенчмарков, агентов и акселерации науки. Короче, го слушать.

3. Сева нашел классный курс про RAG с нуля на Питоне. До этого не видел подобных материалов, обычно весь код ограничивался туториалами с лангчейна или импорта RAGTools. Думаю точно потыкаю, очень интересно! Кстати, он же писал про важность правильного дизайна проектов с LLMками.

4. Женя рассказал про разницу между zero-shot и few-shot подходами в промптинге. Казалось бы, вроде все про это знают, а по моим опросам оказалось что нет. Хоть курс по промптингу запускай!

5. Другой Женя поделился интересным гайдом для СДВГшников, который оказывается может пригодиться каждому из нас. Не знаю как вы, но я буквально часто сталкиваюсь с похожими проблемами. Мб надо пройти тест, тогда точно будет понятно.

Кстати, если у вас есть классные материалы или курсы по промптингу, кидайте в комментарии!

#interesting
4👍3🔥3
Узнали?
Было?

UPD. Контекст тут

#meme
👍5😁4🤝2
Теория покера

Если погуглить форумы про покер, то в большинстве тредов эта игра воспринимается как некоторая система, в которой есть определенность. Хотя казалось бы, что карты всегда раздаются случайно. Считается, что успех в игре зависит от глубокого понимания математики, статистики и психологии. Даже существует целая дисциплина - теория покера.

С точки зрения человеческих способностей, тут хотелось бы упомянуть в первую очередь память - попробуйте без подсказок держать в голове все вероятностные исходы раздач, когда известна информация только о нескольких картах среди большого числа тех, что сейчас разыгрываются.

При этом, важно не только помнить вероятности по вышедшим картам и например историю сыгранных партий, но и отыскивать и запоминать паттерны поведения соперников в различных ситуациях - кто и как играл в разных позициях за столом.

Где здесь статистика и вероятности

Покер построен на математических расчетах:

▫️Вероятность получить определенную стартовую руку
▫️Шансы улучшить руку на флопе, терне, ривере
▫️Pot odds (соотношение размера банка к ставке)
▫️Implied odds (потенциальные шансы с учетом будущих ставок)

Продвинутая аналитика:

▫️EV (Expected Value) — матожидание каждого решения
▫️ICM (Independent Chip Model) — модель оценки фишек в денежном выражении
▫️GTO (Game Theory Optimal) — теоретически оптимальная стратегия, если мы не знаем стили игры соперников

Покерные движки и софт (обычно всегда платный софт):

Солверы (решатели):
▫️PioSOLVER - рассчитывает GTO-стратегии
▫️MonkerSolver - анализирует сложные споты
▫️SimplePostflop - анализ постфлопа

Трекеры и анализаторы (солверы там тоже есть):
▫️PokerTracker - сбор и анализ статистики
▫️Holdem Manager - детальная аналитика игры
▫️ICMIZER - расчеты для турнирных ситуаций

Очевидно, что программ больше, я просто привел рандомный список из того, что насоветовала GPT

Где тут аналитика

Статистические показатели:

▫️VPIP (Voluntarily Put $ In Pot) - частота вложений в банк
▫️PFR (Pre-Flop Raise) - показатель агрессивности игрока
▫️3-bet% - частота ререйзов
▫️C-bet% - продолженные ставки на флопе

Позиционная аналитика:

▫️Статистика по каждой позиции за столом
▫️Анализ прибыльности в разных ситуациях
▫️Частота блефов в зависимости от позиции

Аналитика психологии:

▫️Тайминг ставок (время на принятие решения)
▫️Поведение в стрессовых или типичных ситуациях
▫️Тильт-контроль

Вообще, покер идеально подходит для изучения стратегических взаимодействий и развития навыков принятия решений в условиях неопределенности. Еще сверху это присыпается умением в риск-менеджмент и проработку поведения под эмоциональным давлением. В современное время теория покера включает и матмодели на основе теории игр, и AI-системы и ML алгоритмы, и даже поведенческие исследования

Покер давно перестал быть просто игрой. Это полноценная научная дисциплина, где успех зависит от глубокого понимания математики, умения анализировать данные и принимать оптимальные решения в условиях неопределенности.

Ну и напоследок ссылочка на открытый курс по теории покера от MIT. Весь пост родился вообще после того, как я нашел курс в рекомендациях ютуба. Очень круто просто понять, в каких случаях может пригодиться знание статистики и математики.

Надеюсь, было интересно ознакомиться.

Важно: в азартные игры играть не рекомендую!

#math #statistics #softskills #interesting
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥169👍4
nano-vllm

На прошлой неделе в опенсорс сообществе появился интересный проект - nano-vLLM. Это написанная с нуля минимальная версия движка vLLM. Проект кстати создан исследователем из DeepSeek (это к слову о том, почему важно заниматься своими пет-проектами). У чела всего 1200 строк Python-кода, но при этом он воспроизводит ключевой функционал vLLM. Причем за 2 недели набралось больше 4к звезд

Из названия прослеживается явная отсылка к нашумевшему nanoGPT Андрея Карпатого. И сходства действительно радуют: оба проекта созданы для понимания того, как работают сложные системы "под капотом", при это написан читаемый код без лишних абстракций. А еще есть реализация основных возможностей. Короче, можно просто форкнуть и потыкать для своих целей.

Говорят, что проводили замеры на RTX 4070 в сравнении с моделью Qwen3-0.6B (256 запросов), где нановллм уступил всего 3%. Выводы думаю можете сделать сами.

API не трогал, но заявлено, что похож на оригинальный vLLM. Примеры есть в example.py.

Короче, вот ссылка на репозиторий.

#llm #petproject
5❤‍🔥5👍21🔥1
Интересное что-то от ребят, кого я читаю v0.21

Предыдущий пост тут
Интересное что-то тут

Всех с новой неделей, го почитаем интересное:

1. Рефат поделился подборкой промптинг гайдов для NotebookLM. Удобно применять как RAG по этой базе знаний. Можно например попросить составить промпт, улучшить его или оптимизировать под другую модель.

2. Валера выложил свою презентацию, где он рассказывал про Workflow LLM системы. Короче, реальный опыт практикующего чела - рекомендую ознакомиться.

3. Ринат пишет про типичный паттерн проектирования системы с LLM под капотом. Там и Парсинг хитрых документов с разными либками и включение human in the loop, и анализ документов ллмками с SO CoT, и даже интерфейс, который был собран вайбкодингом разными инструментами!

4. Другой Валера размышлял про майндсет тимлида и его руководителя. Вся суть в майндсете и целях. Если тимлиду команды нужно всеми силами работать над долгосрочным перфомансом своей команды и ее выхлопом, то лид лидов уже мыслит в рамках эффективности всей компании и делает хорошо стратегически.

5. Наш Тоха поделился видением самоотзыва на ревью со стороны тимлида. Почему важно писать коротко и понятно без больших полотен текста, и для чего все-таки надо работать над оцифровкой эффектов.

Интересного по классике больше, но постарался приложить самое годное. Если у вас есть что добавить, кидайте в коменты.

#interesting
👍53🔥3❤‍🔥21
Прокрастинация

Думаю, вы знакомы с удивительным феноменом: чем важнее задача, тем больше хочется заняться чем угодно, только не ей.

Нужно писать диплом?

Отлично, самое время просмотреть все 400 непрочитанных каналов с постами коллег или послушать свою волну в Яндекс Музыке. Либо разобрать загрузки по папочкам и полезностям, хотя вряд ли к ним вернусь.

Сдать курсовую завтра?

Идеальный момент, чтобы появилось желание помыть посуду или пропылесосить. Ух, главное чтобы еще и пыль протирать не захотелось - так и до генеральной уборки недалеко (к слову, не люблю убираться, поэтому при появлении желания или рвения обязательно это использую).

Давайте потратим 6 часов на изучение истории Пауэр Рейнжеров вместо того, чтобы за 10 минут пофиксить тот тупой баг, чтобы запустить расчет на полдня. Или там поработать над курсом по промптингу. Кстати, было и обратное - однажды я потратил все выходные на то, чтобы разобраться с очень мелкой и тупой ошибкой. Хотя внимательно посмотреть один раз - и проблема решена, ну или либо в гпт загнать.

И реально сидишь кайфуешь - почему бы не узнать про символизм в фильме Револьвер, или почитать отзывы на фильм Ненависть 1995 года. Мозг выдает хоть и не ощущение продуктивности, но сколько же это удовольствия. К сожалению не 100%-го. Потому что на фоне постоянно сидишь с мыслями о том, а че когда вот задачку делать? Опять ночью? И потихоньку накручивается все

Что мешает просто сесть и сделать? Ничего! Но как себя заставить? Что сказать мозгу? Почему он панически боится неопределенности, сложности, возможности неудачи и ему нужно столько энергии, чтобы хоть что-то начать?

Хочется по-другому. Захотелось - и можешь откладывать дела с максимальным удовольствием, без чувства вины. Или наоборот - если нужно, сразу садишься за самое важное дело без каких-либо странных мыслей. Короче, не лениться.

А что, если прокрастинация - это не лень. Это страх. Страх не справиться. Сделать плохо. Потратить время впустую. Избежать возможной неудачи. Или есть закономерность: чем больше я думаю о задаче, тем страшнее она кажется. Чем дольше откладываю - тем сложнее она становится? А что если поменять подход? Не думать и не откладывать. Вдруг эта привычка на самом деле бережет наш ресурс?

Давайте ее использовать.

Не нужно сразу бросаться целиком на большую задачу. Если она маленькая и можно сделать здесь и сейчас за пару минут? Давайте сделаем. Занимает времени больше и пора бы уже сделать - давайте поставим минимальную цель: поработать над задачей 1 минуту. Часто этого хватает, чтобы преодолеть барьер входа и втянуться.

Иногда можно договориться с собой: "Буду прокрастинировать, но продуктивно". Вместо соцсетей - почитать литературу. Вместо рилсиков - видосики по развитию. Это все еще прокрастинация, но уже слегка полезная. Поэтому я прокрастинирую через чтение каналов и репостов интересных постов.

Важно себя не ругать. Зачем тратить энергию на чувство вины? Можно просто принять: мы все прокрастинируем. Это не баг, это фича человеческой психики. Вопрос не в том, как полностью избавиться от этого, а в том, как это перевернуть в свою сторону. Понять сигналы тела, использовать применить разные техники, чтобы высвободить эмоции и энергию.

И вообще рекомендую задуматься, почему в нашей жизни появляется прокрастинация и в принципе работать над этим в долгосроке.

Ссылочки: 1, 2, 3, 4

#softskills
10🔥8👍31
Forwarded from Yandex for ML
🧿 1000 (и больше!) временных рядов

Как их прогнозировать и не сойти с ума? Об этом нам рассказал Александр Исаков, руководитель группы Прогнозирования в Лавке. Передаём ему слово:

У нас в фудтехе длинная цепочка поставок. Это несколько логистических шагов от производителя до покупателя. На каждом этапе нам нужно прогнозирование, и мы хотим знать: сколько курьерских слотов требуется, чтобы чипсы успели доехать до всех, достаточно ли сейчас места в наших холодильниках для мороженого и каким будет спрос на лёд в июле.

С этим нам помогает модель Prophet. В отличие от других методов (линейная регрессия или ARIMA), в ней под капотом можно учесть праздники и ломаный или насыщенный тренд профита.

📺 Чтобы погрузиться в нюансы прогнозирования тысячи временных рядов, смотрите запись моего доклада с конференции Aha.

🌠 Видео можно использовать как пошаговую инструкцию, если вы строите прогноз с нуля в своей компании. Либо можно подцепить хаки и процессы для ваших уже существующих прогнозов.

🔳 А все доклады ребят из Яндекса на Aha можно найти в одном плейлисте. Смотрите на ютубе и в VK Видео.

Подписывайтесь:
💬 @Yandex4ML
📹 @YandexML
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍4❤‍🔥2
Yandex for ML
🧿 1000 (и больше!) временных рядов Как их прогнозировать и не сойти с ума? Об этом нам рассказал Александр Исаков, руководитель группы Прогнозирования в Лавке. Передаём ему слово: У нас в фудтехе длинная цепочка поставок. Это несколько логистических шагов…
Вообще, во все эти выступления вкладываюсь не только я один. Кроме бесценной поддержки моей жены есть большой вклад коллег:

▫️Во-первых, наши проекты, их возникновение и такой масштаб влияния - результаты целой огромной команды не только нашей аналитики, но и заказчиков, потому что без них и не было бы этих процессов, болей и следовательно, полученных решений.

▫️Во-вторых, презентации мы всегда отсматриваем внутри нашей команды прогноза, уточняем формулировки, думаем как рассказать и показать что-то интересное без раскрытия NDA - то есть вовлечены все.

▫️В-третьих, этого бы вообще могло получиться не так классно без наших деврелов с Яндекса и особенно с Райдтеха - ребята сильно вовлекались, ставили дедлайны по презам, помогали всем, чем могли и ставили даже прогоны с экспертами. Еще помогали с дизайном слайдов и даже с мерчом! Так еще и посты с видео по выступлениям публикуют!

Этот результат не был бы достижим без участия и вовлеченности хотя бы одного из этого большого количества людей. Поэтому давайте накидаем реакций для наших коллег💪🏿

#speaking
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤‍🔥54🥰2
Интересное что-то от ребят, кого я читаю v0.22

Предыдущий пост тут
Интересное что-то тут

Нашлось немножечко интересного:

1. Сергей приложил несколько интересных папир про элаймент картиночных моделей. В чем дело - если ответ текстовой модели можно видоизменить в конце, когда она дорасскажет, что произошло на площади Тяньаньмэнь, либо просто она выдаст, что поговорить на эту тему не получится, то в случае с картиночными модельками она должна хоть что-то выдать. И тут стоит задача понять эти концепты скользких тем.

2. Макс нашел и кратко суммаризовал статью, где рассказывается про систем дизайн Курсора. Интересно, что он сначала индексирует репозиторий, чтобы потом это засунуть в древоподобную структуру - считайте, в некотором роде RAG. Ну и для автодополнения используется контекст уже локальный в том куске кода, для которого он генерируется.

3. Дядька выступил с презентацией, чтобы уже наконец научиться держать нас ллм за рага (именно так называется доклад). В дополнение конечно же выложена презентация. Рекомендую к изучению.

4. Артемий написал небольшой конспект основных советов от CPO OpenAI. Там же сразу есть и вторая часть. Все в духе того, как преуспеть и что вообще делать.

5. Немного квантового вам в ленту - Квант Ресерчер поделился списком репозиториев для квантов. Там есть все: и бэктестинг, и проверка стратегий, и факторный анализ, и даже отчеты. Бонусом есть работа с опционами, но на свой страх и риск.

6*. Гриша рассказал про 2 недавно прочитанные им книги: "Einstein's Mirror" и "The New Quantum Universe" про теорию относительности и квантовый мир соответственно. Далее цитата: "это правильный микс сути и деталей различных открытий, интуиции за всем этим, и исторического контекста, включая что было неверно и от каких идей отказались и почему". Думаю больше слов не надо.

#interesting
❤‍🔥72👍2🔥1
Базированные промпты

Наверно каждый из нас как минимум один раз слышал про "принцип garbage in, garbage out". Это когда при работе с ML моделькой мы скармливаем ей плохие или смещенные данные, что на инференсе приводит к очевидно плохим результатам. То же самое и в аналитике - выводы по неправильным данным очевидно garbage.

Самое интересное, что при работе с промптами мы буквально можем столкнуться с той же проблемой, но не со стороны данных для обучения. А со стороны постановки вопроса. То есть с промпта, который подается на вход ллмке.

Давайте разберем самые базовые примеры того, что можно сделать лучше:

1️⃣Трехслойный запрос

Думаю мы все сойдёмся во мнении, что чем больше контекста получает мозг, тем точнее его выводы при прямо сформулированной задаче. Давайте просто перенесем это на AI. Применяем формулу: ЗАДАЧА + КОНТЕКСТ + ФОРМАТ.

Можно кстати сделать запрос четырехслойным, добавив ограничения (активируют более целенаправленную обработку информации):

Собери краткое саммари основ проектирования компрессорных установок для студентов-инженеров с опытом практики на энергетических предприятиях. Выведи ответ тезисно в виде 5 основных идей


Важно указать целевую аудиторию, желаемый объем и конкретные элементы (примеры, списки, схемы)

2️⃣Применение роли

Легкая одноходовочка с воображением - навязываем определенный паттерн мышления. Это как будто отыграть роль другого человека.

Особо пытливые могут заметить, что можно насуетить и многозодовочку:

Сначала как психолог объясни причины прокрастинации, затем как коуч дай 5 практических советов, а потом как нейробиолог расскажи, что происходит в мозге


Дополнительно кстати роли можно сделать специфичными с временными рамками

Ты - маркетолог из 2030 года. Какие тренды будут актуальны в блоггинге?


3️⃣Четко структурированный запрос

Промпты можно передать в виде информации, организованной в логические блоки. По сути мы упрощаем задачу для модельки, и сами формируем основные тезисы, которые она должна понять из запроса.

Допустим, принцип пирамиды Минто в промптах, чтобы получить иерархичную последовательность ответа:

Начни с главного тезиса, затем 3 основных аргумента, к каждому из них добавь 2-3 подпункта с примерами


Кстати, нормальная тема еще затестить прогрессивное усложнение:

Объясни, что такое RAG сначала 5-летнему ребенку, потом студенту, затем Эндрю Ыну


Прикол в том, что по сути своим последовательным раскрытием ответа на вопрос гптха сможет ответить четче.

Кстати, на крайняк можно попросить саму нейронку написать за вас пост промпт, или задавать уточняющие вопросы.

Если не знали эту базу, ставьте реакции. А если знаете, делитесь в коментах своими хаками.

#prompt
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥7❤‍🔥41
Случайное на случайное

задача от коллег

Даны два случайных числа x и y, значения которых равномерно распределены от 0 до 1. Какова вероятность того, что округление результата деления одного из чисел на другое будет четным числом?

#problem
👍5🤔3🔥2🥴2
2025/10/17 17:00:45
Back to Top
HTML Embed Code: