😁12🔥4🦄2👍1🤣1
Интересное что-то от ребят, кого я читаю v0.20
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Начнем с необычного - некоторое время в каналах по ллмкам (больше всего мне зашел пост Сергея) гуляют ссылки на интересную статью про то, как модель сломали, обучив на коде с уязвимостями, что привело просто к неожиданному - alignment модели сломался. Подробнее в посте и приложенных статьях.
2. Татьяна поделилась классным выступлением Тима Роктешела про ворлд моделинг. Говорят, что это очень хороший и своевременный обзорный доклад про новые приоритеты в исследовании ИИ: reinforcement learning, фундаментальные модели, проблемы бенчмарков, агентов и акселерации науки. Короче, го слушать.
3. Сева нашел классный курс про RAG с нуля на Питоне. До этого не видел подобных материалов, обычно весь код ограничивался туториалами с лангчейна или импорта RAGTools. Думаю точно потыкаю, очень интересно! Кстати, он же писал про важность правильного дизайна проектов с LLMками.
4. Женя рассказал про разницу между zero-shot и few-shot подходами в промптинге. Казалось бы, вроде все про это знают, а по моим опросам оказалось что нет. Хоть курс по промптингу запускай!
5. Другой Женя поделился интересным гайдом для СДВГшников, который оказывается может пригодиться каждому из нас. Не знаю как вы, но я буквально часто сталкиваюсь с похожими проблемами. Мб надо пройти тест, тогда точно будет понятно.
Кстати, если у вас есть классные материалы или курсы по промптингу, кидайте в комментарии!
#interesting
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Начнем с необычного - некоторое время в каналах по ллмкам (больше всего мне зашел пост Сергея) гуляют ссылки на интересную статью про то, как модель сломали, обучив на коде с уязвимостями, что привело просто к неожиданному - alignment модели сломался. Подробнее в посте и приложенных статьях.
2. Татьяна поделилась классным выступлением Тима Роктешела про ворлд моделинг. Говорят, что это очень хороший и своевременный обзорный доклад про новые приоритеты в исследовании ИИ: reinforcement learning, фундаментальные модели, проблемы бенчмарков, агентов и акселерации науки. Короче, го слушать.
3. Сева нашел классный курс про RAG с нуля на Питоне. До этого не видел подобных материалов, обычно весь код ограничивался туториалами с лангчейна или импорта RAGTools. Думаю точно потыкаю, очень интересно! Кстати, он же писал про важность правильного дизайна проектов с LLMками.
4. Женя рассказал про разницу между zero-shot и few-shot подходами в промптинге. Казалось бы, вроде все про это знают, а по моим опросам оказалось что нет. Хоть курс по промптингу запускай!
5. Другой Женя поделился интересным гайдом для СДВГшников, который оказывается может пригодиться каждому из нас. Не знаю как вы, но я буквально часто сталкиваюсь с похожими проблемами. Мб надо пройти тест, тогда точно будет понятно.
Кстати, если у вас есть классные материалы или курсы по промптингу, кидайте в комментарии!
#interesting
Telegram
asisakov
Интересное что-то от ребят, кого я читаю v0.19
Предыдущий пост тут
Интересное что-то тут
Погнали:
1. 40 муравьев поделился хорошей альтернативой супервисперу. Это опенсурсный воислинк - говорят нормальная тема, а еще и можно надиктованное промптами обрабатывать.…
Предыдущий пост тут
Интересное что-то тут
Погнали:
1. 40 муравьев поделился хорошей альтернативой супервисперу. Это опенсурсный воислинк - говорят нормальная тема, а еще и можно надиктованное промптами обрабатывать.…
❤4👍3🔥3
Теория покера
Если погуглить форумы про покер, то в большинстве тредов эта игра воспринимается как некоторая система, в которой есть определенность. Хотя казалось бы, что карты всегда раздаются случайно. Считается, что успех в игре зависит от глубокого понимания математики, статистики и психологии. Даже существует целая дисциплина - теория покера.
С точки зрения человеческих способностей, тут хотелось бы упомянуть в первую очередь память - попробуйте без подсказок держать в голове все вероятностные исходы раздач, когда известна информация только о нескольких картах среди большого числа тех, что сейчас разыгрываются.
При этом, важно не только помнить вероятности по вышедшим картам и например историю сыгранных партий, но и отыскивать и запоминать паттерны поведения соперников в различных ситуациях - кто и как играл в разных позициях за столом.
Где здесь статистика и вероятности
Покер построен на математических расчетах:
▫️ Вероятность получить определенную стартовую руку
▫️ Шансы улучшить руку на флопе, терне, ривере
▫️Pot odds (соотношение размера банка к ставке)
▫️Implied odds (потенциальные шансы с учетом будущих ставок)
Продвинутая аналитика:
▫️EV (Expected Value) — матожидание каждого решения
▫️ICM (Independent Chip Model) — модель оценки фишек в денежном выражении
▫️GTO (Game Theory Optimal) — теоретически оптимальная стратегия, если мы не знаем стили игры соперников
Покерные движки и софт (обычно всегда платный софт):
Солверы (решатели):
▫️PioSOLVER - рассчитывает GTO-стратегии
▫️MonkerSolver - анализирует сложные споты
▫️SimplePostflop - анализ постфлопа
Трекеры и анализаторы (солверы там тоже есть):
▫️PokerTracker - сбор и анализ статистики
▫️Holdem Manager - детальная аналитика игры
▫️ICMIZER - расчеты для турнирных ситуаций
Очевидно, что программ больше, я просто привел рандомный список из того, что насоветовала GPT
Где тут аналитика
Статистические показатели:
▫️VPIP (Voluntarily Put $ In Pot) - частота вложений в банк
▫️PFR (Pre-Flop Raise) - показатель агрессивности игрока
▫️3-bet% - частота ререйзов
▫️C-bet% - продолженные ставки на флопе
Позиционная аналитика:
▫️ Статистика по каждой позиции за столом
▫️ Анализ прибыльности в разных ситуациях
▫️ Частота блефов в зависимости от позиции
Аналитика психологии:
▫️ Тайминг ставок (время на принятие решения)
▫️ Поведение в стрессовых или типичных ситуациях
▫️Тильт-контроль
Вообще, покер идеально подходит для изучения стратегических взаимодействий и развития навыков принятия решений в условиях неопределенности. Еще сверху это присыпается умением в риск-менеджмент и проработку поведения под эмоциональным давлением. В современное время теория покера включает и матмодели на основе теории игр, и AI-системы и ML алгоритмы, и даже поведенческие исследования
Покер давно перестал быть просто игрой. Это полноценная научная дисциплина, где успех зависит от глубокого понимания математики, умения анализировать данные и принимать оптимальные решения в условиях неопределенности.
Ну и напоследок ссылочка на открытый курс по теории покера от MIT. Весь пост родился вообще после того, как я нашел курс в рекомендациях ютуба. Очень круто просто понять, в каких случаях может пригодиться знание статистики и математики.
Надеюсь, было интересно ознакомиться.
Важно: в азартные игры играть не рекомендую!
#math #statistics #softskills #interesting
Если погуглить форумы про покер, то в большинстве тредов эта игра воспринимается как некоторая система, в которой есть определенность. Хотя казалось бы, что карты всегда раздаются случайно. Считается, что успех в игре зависит от глубокого понимания математики, статистики и психологии. Даже существует целая дисциплина - теория покера.
С точки зрения человеческих способностей, тут хотелось бы упомянуть в первую очередь память - попробуйте без подсказок держать в голове все вероятностные исходы раздач, когда известна информация только о нескольких картах среди большого числа тех, что сейчас разыгрываются.
При этом, важно не только помнить вероятности по вышедшим картам и например историю сыгранных партий, но и отыскивать и запоминать паттерны поведения соперников в различных ситуациях - кто и как играл в разных позициях за столом.
Где здесь статистика и вероятности
Покер построен на математических расчетах:
▫️Pot odds (соотношение размера банка к ставке)
▫️Implied odds (потенциальные шансы с учетом будущих ставок)
Продвинутая аналитика:
▫️EV (Expected Value) — матожидание каждого решения
▫️ICM (Independent Chip Model) — модель оценки фишек в денежном выражении
▫️GTO (Game Theory Optimal) — теоретически оптимальная стратегия, если мы не знаем стили игры соперников
Покерные движки и софт (обычно всегда платный софт):
Солверы (решатели):
▫️PioSOLVER - рассчитывает GTO-стратегии
▫️MonkerSolver - анализирует сложные споты
▫️SimplePostflop - анализ постфлопа
Трекеры и анализаторы (солверы там тоже есть):
▫️PokerTracker - сбор и анализ статистики
▫️Holdem Manager - детальная аналитика игры
▫️ICMIZER - расчеты для турнирных ситуаций
Очевидно, что программ больше, я просто привел рандомный список из того, что насоветовала GPT
Где тут аналитика
Статистические показатели:
▫️VPIP (Voluntarily Put $ In Pot) - частота вложений в банк
▫️PFR (Pre-Flop Raise) - показатель агрессивности игрока
▫️3-bet% - частота ререйзов
▫️C-bet% - продолженные ставки на флопе
Позиционная аналитика:
Аналитика психологии:
▫️Тильт-контроль
Вообще, покер идеально подходит для изучения стратегических взаимодействий и развития навыков принятия решений в условиях неопределенности. Еще сверху это присыпается умением в риск-менеджмент и проработку поведения под эмоциональным давлением. В современное время теория покера включает и матмодели на основе теории игр, и AI-системы и ML алгоритмы, и даже поведенческие исследования
Покер давно перестал быть просто игрой. Это полноценная научная дисциплина, где успех зависит от глубокого понимания математики, умения анализировать данные и принимать оптимальные решения в условиях неопределенности.
Ну и напоследок ссылочка на открытый курс по теории покера от MIT. Весь пост родился вообще после того, как я нашел курс в рекомендациях ютуба. Очень круто просто понять, в каких случаях может пригодиться знание статистики и математики.
Надеюсь, было интересно ознакомиться.
Важно: в азартные игры играть не рекомендую!
#math #statistics #softskills #interesting
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16❤9👍4
nano-vllm
На прошлой неделе в опенсорс сообществе появился интересный проект - nano-vLLM. Это написанная с нуля минимальная версия движка vLLM. Проект кстати создан исследователем из DeepSeek (это к слову о том, почему важно заниматься своими пет-проектами). У чела всего 1200 строк Python-кода, но при этом он воспроизводит ключевой функционал vLLM. Причем за 2 недели набралось больше 4к звезд
Из названия прослеживается явная отсылка к нашумевшему nanoGPT Андрея Карпатого. И сходства действительно радуют: оба проекта созданы для понимания того, как работают сложные системы "под капотом", при это написан читаемый код без лишних абстракций. А еще есть реализация основных возможностей. Короче, можно просто форкнуть и потыкать для своих целей.
Говорят, что проводили замеры на RTX 4070 в сравнении с моделью Qwen3-0.6B (256 запросов), где нановллм уступил всего 3%. Выводы думаю можете сделать сами.
API не трогал, но заявлено, что похож на оригинальный vLLM. Примеры есть в
Короче, вот ссылка на репозиторий.
#llm #petproject
На прошлой неделе в опенсорс сообществе появился интересный проект - nano-vLLM. Это написанная с нуля минимальная версия движка vLLM. Проект кстати создан исследователем из DeepSeek (это к слову о том, почему важно заниматься своими пет-проектами). У чела всего 1200 строк Python-кода, но при этом он воспроизводит ключевой функционал vLLM. Причем за 2 недели набралось больше 4к звезд
Из названия прослеживается явная отсылка к нашумевшему nanoGPT Андрея Карпатого. И сходства действительно радуют: оба проекта созданы для понимания того, как работают сложные системы "под капотом", при это написан читаемый код без лишних абстракций. А еще есть реализация основных возможностей. Короче, можно просто форкнуть и потыкать для своих целей.
Говорят, что проводили замеры на RTX 4070 в сравнении с моделью Qwen3-0.6B (256 запросов), где нановллм уступил всего 3%. Выводы думаю можете сделать сами.
API не трогал, но заявлено, что похож на оригинальный vLLM. Примеры есть в
example.py
.Короче, вот ссылка на репозиторий.
#llm #petproject
GitHub
GitHub - GeeeekExplorer/nano-vllm: Nano vLLM
Nano vLLM. Contribute to GeeeekExplorer/nano-vllm development by creating an account on GitHub.
❤5❤🔥5👍2⚡1🔥1
Интересное что-то от ребят, кого я читаю v0.21
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Рефат поделился подборкой промптинг гайдов для NotebookLM. Удобно применять как RAG по этой базе знаний. Можно например попросить составить промпт, улучшить его или оптимизировать под другую модель.
2. Валера выложил свою презентацию, где он рассказывал про Workflow LLM системы. Короче, реальный опыт практикующего чела - рекомендую ознакомиться.
3. Ринат пишет про типичный паттерн проектирования системы с LLM под капотом. Там и Парсинг хитрых документов с разными либками и включение human in the loop, и анализ документов ллмками с SO CoT, и даже интерфейс, который был собран вайбкодингом разными инструментами!
4. Другой Валера размышлял про майндсет тимлида и его руководителя. Вся суть в майндсете и целях. Если тимлиду команды нужно всеми силами работать над долгосрочным перфомансом своей команды и ее выхлопом, то лид лидов уже мыслит в рамках эффективности всей компании и делает хорошо стратегически.
5. Наш Тоха поделился видением самоотзыва на ревью со стороны тимлида. Почему важно писать коротко и понятно без больших полотен текста, и для чего все-таки надо работать над оцифровкой эффектов.
Интересного по классике больше, но постарался приложить самое годное. Если у вас есть что добавить, кидайте в коменты.
#interesting
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Рефат поделился подборкой промптинг гайдов для NotebookLM. Удобно применять как RAG по этой базе знаний. Можно например попросить составить промпт, улучшить его или оптимизировать под другую модель.
2. Валера выложил свою презентацию, где он рассказывал про Workflow LLM системы. Короче, реальный опыт практикующего чела - рекомендую ознакомиться.
3. Ринат пишет про типичный паттерн проектирования системы с LLM под капотом. Там и Парсинг хитрых документов с разными либками и включение human in the loop, и анализ документов ллмками с SO CoT, и даже интерфейс, который был собран вайбкодингом разными инструментами!
4. Другой Валера размышлял про майндсет тимлида и его руководителя. Вся суть в майндсете и целях. Если тимлиду команды нужно всеми силами работать над долгосрочным перфомансом своей команды и ее выхлопом, то лид лидов уже мыслит в рамках эффективности всей компании и делает хорошо стратегически.
5. Наш Тоха поделился видением самоотзыва на ревью со стороны тимлида. Почему важно писать коротко и понятно без больших полотен текста, и для чего все-таки надо работать над оцифровкой эффектов.
Интересного по классике больше, но постарался приложить самое годное. Если у вас есть что добавить, кидайте в коменты.
#interesting
Telegram
asisakov
Интересное что-то от ребят, кого я читаю v0.20
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Начнем с необычного - некоторое время в каналах по ллмкам (больше всего мне зашел пост Сергея) гуляют ссылки на интересную…
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Начнем с необычного - некоторое время в каналах по ллмкам (больше всего мне зашел пост Сергея) гуляют ссылки на интересную…
👍5⚡3🔥3❤🔥2❤1
Прокрастинация
Думаю, вы знакомы с удивительным феноменом: чем важнее задача, тем больше хочется заняться чем угодно, только не ей.
Нужно писать диплом?
Отлично, самое время просмотреть все 400 непрочитанных каналов с постами коллег или послушать свою волну в Яндекс Музыке. Либо разобрать загрузки по папочкам и полезностям, хотя вряд ли к ним вернусь.
Сдать курсовую завтра?
Идеальный момент, чтобы появилось желание помыть посуду или пропылесосить. Ух, главное чтобы еще и пыль протирать не захотелось - так и до генеральной уборки недалеко(к слову, не люблю убираться, поэтому при появлении желания или рвения обязательно это использую) .
Давайте потратим 6 часов на изучение истории Пауэр Рейнжеров вместо того, чтобы за 10 минут пофиксить тот тупой баг, чтобы запустить расчет на полдня. Или там поработать над курсом по промптингу. Кстати, было и обратное - однажды я потратил все выходные на то, чтобы разобраться с очень мелкой и тупой ошибкой. Хотя внимательно посмотреть один раз - и проблема решена, ну или либо в гпт загнать.
И реально сидишь кайфуешь - почему бы не узнать про символизм в фильме Револьвер, или почитать отзывы на фильм Ненависть 1995 года. Мозг выдает хоть и не ощущение продуктивности, но сколько же это удовольствия.К сожалению не 100%-го . Потому что на фоне постоянно сидишь с мыслями о том, а че когда вот задачку делать? Опять ночью? И потихоньку накручивается все
Что мешает просто сесть и сделать? Ничего! Но как себя заставить? Что сказать мозгу? Почему он панически боится неопределенности, сложности, возможности неудачи и ему нужно столько энергии, чтобы хоть что-то начать?
Хочется по-другому. Захотелось - и можешь откладывать дела с максимальным удовольствием, без чувства вины. Или наоборот - если нужно, сразу садишься за самое важное дело без каких-либо странных мыслей. Короче, не лениться.
А что, если прокрастинация - это не лень. Это страх. Страх не справиться. Сделать плохо. Потратить время впустую. Избежать возможной неудачи. Или есть закономерность: чем больше я думаю о задаче, тем страшнее она кажется. Чем дольше откладываю - тем сложнее она становится? А что если поменять подход? Не думать и не откладывать. Вдруг эта привычка на самом деле бережет наш ресурс?
Давайте ее использовать.
Не нужно сразу бросаться целиком на большую задачу. Если она маленькая и можно сделать здесь и сейчас за пару минут? Давайте сделаем. Занимает времени больше и пора бы уже сделать - давайте поставим минимальную цель: поработать над задачей 1 минуту. Часто этого хватает, чтобы преодолеть барьер входа и втянуться.
Иногда можно договориться с собой: "Буду прокрастинировать, но продуктивно". Вместо соцсетей - почитать литературу. Вместо рилсиков - видосики по развитию. Это все еще прокрастинация, но уже слегка полезная. Поэтому я прокрастинирую через чтение каналов и репостов интересных постов.
Важно себя не ругать. Зачем тратить энергию на чувство вины? Можно просто принять: мы все прокрастинируем. Это не баг, это фича человеческой психики. Вопрос не в том, как полностью избавиться от этого, а в том, как это перевернуть в свою сторону. Понять сигналы тела, использовать применить разные техники, чтобы высвободить эмоции и энергию.
И вообще рекомендую задуматься, почему в нашей жизни появляется прокрастинация и в принципе работать над этим в долгосроке.
Ссылочки: 1, 2, 3, 4
#softskills
Думаю, вы знакомы с удивительным феноменом: чем важнее задача, тем больше хочется заняться чем угодно, только не ей.
Нужно писать диплом?
Отлично, самое время просмотреть все 400 непрочитанных каналов с постами коллег или послушать свою волну в Яндекс Музыке. Либо разобрать загрузки по папочкам и полезностям, хотя вряд ли к ним вернусь.
Сдать курсовую завтра?
Идеальный момент, чтобы появилось желание помыть посуду или пропылесосить. Ух, главное чтобы еще и пыль протирать не захотелось - так и до генеральной уборки недалеко
Давайте потратим 6 часов на изучение истории Пауэр Рейнжеров вместо того, чтобы за 10 минут пофиксить тот тупой баг, чтобы запустить расчет на полдня. Или там поработать над курсом по промптингу. Кстати, было и обратное - однажды я потратил все выходные на то, чтобы разобраться с очень мелкой и тупой ошибкой. Хотя внимательно посмотреть один раз - и проблема решена, ну или либо в гпт загнать.
И реально сидишь кайфуешь - почему бы не узнать про символизм в фильме Револьвер, или почитать отзывы на фильм Ненависть 1995 года. Мозг выдает хоть и не ощущение продуктивности, но сколько же это удовольствия.
Что мешает просто сесть и сделать? Ничего! Но как себя заставить? Что сказать мозгу? Почему он панически боится неопределенности, сложности, возможности неудачи и ему нужно столько энергии, чтобы хоть что-то начать?
Хочется по-другому. Захотелось - и можешь откладывать дела с максимальным удовольствием, без чувства вины. Или наоборот - если нужно, сразу садишься за самое важное дело без каких-либо странных мыслей. Короче, не лениться.
А что, если прокрастинация - это не лень. Это страх. Страх не справиться. Сделать плохо. Потратить время впустую. Избежать возможной неудачи. Или есть закономерность: чем больше я думаю о задаче, тем страшнее она кажется. Чем дольше откладываю - тем сложнее она становится? А что если поменять подход? Не думать и не откладывать. Вдруг эта привычка на самом деле бережет наш ресурс?
Давайте ее использовать.
Не нужно сразу бросаться целиком на большую задачу. Если она маленькая и можно сделать здесь и сейчас за пару минут? Давайте сделаем. Занимает времени больше и пора бы уже сделать - давайте поставим минимальную цель: поработать над задачей 1 минуту. Часто этого хватает, чтобы преодолеть барьер входа и втянуться.
Иногда можно договориться с собой: "Буду прокрастинировать, но продуктивно". Вместо соцсетей - почитать литературу. Вместо рилсиков - видосики по развитию. Это все еще прокрастинация, но уже слегка полезная. Поэтому я прокрастинирую через чтение каналов и репостов интересных постов.
Важно себя не ругать. Зачем тратить энергию на чувство вины? Можно просто принять: мы все прокрастинируем. Это не баг, это фича человеческой психики. Вопрос не в том, как полностью избавиться от этого, а в том, как это перевернуть в свою сторону. Понять сигналы тела, использовать применить разные техники, чтобы высвободить эмоции и энергию.
И вообще рекомендую задуматься, почему в нашей жизни появляется прокрастинация и в принципе работать над этим в долгосроке.
Ссылочки: 1, 2, 3, 4
#softskills
Yourstory
Andrew Huberman’s 7-step formula to overcome procrastination
Neuroscientist Andrew Huberman shares a 7-step formula to conquer procrastination, boost focus, and build lasting productivity habits.
❤10🔥8👍3⚡1
Forwarded from Yandex for ML
Как их прогнозировать и не сойти с ума? Об этом нам рассказал Александр Исаков, руководитель группы Прогнозирования в Лавке. Передаём ему слово:
У нас в фудтехе длинная цепочка поставок. Это несколько логистических шагов от производителя до покупателя. На каждом этапе нам нужно прогнозирование, и мы хотим знать: сколько курьерских слотов требуется, чтобы чипсы успели доехать до всех, достаточно ли сейчас места в наших холодильниках для мороженого и каким будет спрос на лёд в июле.
С этим нам помогает модель Prophet. В отличие от других методов (линейная регрессия или ARIMA), в ней под капотом можно учесть праздники и ломаный или насыщенный тренд профита.
Подписывайтесь:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍4❤🔥2
Yandex for ML
Вообще, во все эти выступления вкладываюсь не только я один. Кроме бесценной поддержки моей жены есть большой вклад коллег:
▫️ Во-первых, наши проекты, их возникновение и такой масштаб влияния - результаты целой огромной команды не только нашей аналитики, но и заказчиков, потому что без них и не было бы этих процессов, болей и следовательно, полученных решений.
▫️ Во-вторых, презентации мы всегда отсматриваем внутри нашей команды прогноза, уточняем формулировки, думаем как рассказать и показать что-то интересное без раскрытия NDA - то есть вовлечены все.
▫️ В-третьих, этого бы вообще могло получиться не так классно без наших деврелов с Яндекса и особенно с Райдтеха - ребята сильно вовлекались, ставили дедлайны по презам, помогали всем, чем могли и ставили даже прогоны с экспертами. Еще помогали с дизайном слайдов и даже с мерчом! Так еще и посты с видео по выступлениям публикуют!
Этот результат не был бы достижим без участия и вовлеченности хотя бы одного из этого большого количества людей. Поэтому давайте накидаем реакций для наших коллег💪🏿
#speaking
Этот результат не был бы достижим без участия и вовлеченности хотя бы одного из этого большого количества людей. Поэтому давайте накидаем реакций для наших коллег💪🏿
#speaking
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤🔥5❤4🥰2
Интересное что-то от ребят, кого я читаю v0.22
Предыдущий пост тут
Интересное что-то тут
Нашлось немножечко интересного:
1. Сергей приложил несколько интересных папир про элаймент картиночных моделей. В чем дело - если ответ текстовой модели можно видоизменить в конце, когда она дорасскажет, что произошло на площади Тяньаньмэнь, либо просто она выдаст, что поговорить на эту тему не получится, то в случае с картиночными модельками она должна хоть что-то выдать. И тут стоит задача понять эти концепты скользких тем.
2. Макс нашел и кратко суммаризовал статью, где рассказывается про систем дизайн Курсора. Интересно, что он сначала индексирует репозиторий, чтобы потом это засунуть в древоподобную структуру - считайте, в некотором роде RAG. Ну и для автодополнения используется контекст уже локальный в том куске кода, для которого он генерируется.
3. Дядька выступил с презентацией, чтобы уже наконец научиться держать нас ллм за рага (именно так называется доклад). В дополнение конечно же выложена презентация. Рекомендую к изучению.
4. Артемий написал небольшой конспект основных советов от CPO OpenAI. Там же сразу есть и вторая часть. Все в духе того, как преуспеть и что вообще делать.
5. Немного квантового вам в ленту - Квант Ресерчер поделился списком репозиториев для квантов. Там есть все: и бэктестинг, и проверка стратегий, и факторный анализ, и даже отчеты. Бонусом есть работа с опционами, но на свой страх и риск.
6*. Гриша рассказал про 2 недавно прочитанные им книги: "Einstein's Mirror" и "The New Quantum Universe" про теорию относительности и квантовый мир соответственно. Далее цитата: "это правильный микс сути и деталей различных открытий, интуиции за всем этим, и исторического контекста, включая что было неверно и от каких идей отказались и почему". Думаю больше слов не надо.
#interesting
Предыдущий пост тут
Интересное что-то тут
Нашлось немножечко интересного:
1. Сергей приложил несколько интересных папир про элаймент картиночных моделей. В чем дело - если ответ текстовой модели можно видоизменить в конце, когда она дорасскажет, что произошло на площади Тяньаньмэнь, либо просто она выдаст, что поговорить на эту тему не получится, то в случае с картиночными модельками она должна хоть что-то выдать. И тут стоит задача понять эти концепты скользких тем.
2. Макс нашел и кратко суммаризовал статью, где рассказывается про систем дизайн Курсора. Интересно, что он сначала индексирует репозиторий, чтобы потом это засунуть в древоподобную структуру - считайте, в некотором роде RAG. Ну и для автодополнения используется контекст уже локальный в том куске кода, для которого он генерируется.
3. Дядька выступил с презентацией, чтобы уже наконец научиться держать нас ллм за рага (именно так называется доклад). В дополнение конечно же выложена презентация. Рекомендую к изучению.
4. Артемий написал небольшой конспект основных советов от CPO OpenAI. Там же сразу есть и вторая часть. Все в духе того, как преуспеть и что вообще делать.
5. Немного квантового вам в ленту - Квант Ресерчер поделился списком репозиториев для квантов. Там есть все: и бэктестинг, и проверка стратегий, и факторный анализ, и даже отчеты. Бонусом есть работа с опционами, но на свой страх и риск.
6*. Гриша рассказал про 2 недавно прочитанные им книги: "Einstein's Mirror" и "The New Quantum Universe" про теорию относительности и квантовый мир соответственно. Далее цитата: "это правильный микс сути и деталей различных открытий, интуиции за всем этим, и исторического контекста, включая что было неверно и от каких идей отказались и почему". Думаю больше слов не надо.
#interesting
Telegram
asisakov
Интересное что-то от ребят, кого я читаю v0.21
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Рефат поделился подборкой промптинг гайдов для NotebookLM. Удобно применять как RAG по этой базе знаний. Можно например…
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Рефат поделился подборкой промптинг гайдов для NotebookLM. Удобно применять как RAG по этой базе знаний. Можно например…
❤🔥7⚡2👍2🔥1
Базированные промпты
Наверно каждый из нас как минимум один раз слышал про "принцип garbage in, garbage out". Это когда при работе с ML моделькой мы скармливаем ей плохие или смещенные данные, что на инференсе приводит к очевидно плохим результатам. То же самое и в аналитике - выводы по неправильным данным очевидно garbage.
Самое интересное, что при работе с промптами мы буквально можем столкнуться с той же проблемой, но не со стороны данных для обучения. А со стороны постановки вопроса. То есть с промпта, который подается на вход ллмке.
Давайте разберем самые базовые примеры того, что можно сделать лучше:
1️⃣ Трехслойный запрос
Думаю мы все сойдёмся во мнении, что чем больше контекста получает мозг, тем точнее его выводы при прямо сформулированной задаче. Давайте просто перенесем это на AI. Применяем формулу: ЗАДАЧА + КОНТЕКСТ + ФОРМАТ.
Можно кстати сделать запрос четырехслойным, добавив ограничения (активируют более целенаправленную обработку информации):
Важно указать целевую аудиторию, желаемый объем и конкретные элементы (примеры, списки, схемы)
2️⃣ Применение роли
Легкая одноходовочка с воображением - навязываем определенный паттерн мышления. Это как будто отыграть роль другого человека.
Особо пытливые могут заметить, что можно насуетить и многозодовочку:
Дополнительно кстати роли можно сделать специфичными с временными рамками
3️⃣ Четко структурированный запрос
Промпты можно передать в виде информации, организованной в логические блоки. По сути мы упрощаем задачу для модельки, и сами формируем основные тезисы, которые она должна понять из запроса.
Допустим, принцип пирамиды Минто в промптах, чтобы получить иерархичную последовательность ответа:
Кстати, нормальная тема еще затестить прогрессивное усложнение:
Прикол в том, что по сути своим последовательным раскрытием ответа на вопрос гптха сможет ответить четче.
Кстати, на крайняк можно попросить саму нейронку написать за васпост промпт, или задавать уточняющие вопросы.
Если не знали эту базу, ставьте реакции. А если знаете, делитесь в коментах своими хаками.
#prompt
Наверно каждый из нас как минимум один раз слышал про "принцип garbage in, garbage out". Это когда при работе с ML моделькой мы скармливаем ей плохие или смещенные данные, что на инференсе приводит к очевидно плохим результатам. То же самое и в аналитике - выводы по неправильным данным очевидно garbage.
Самое интересное, что при работе с промптами мы буквально можем столкнуться с той же проблемой, но не со стороны данных для обучения. А со стороны постановки вопроса. То есть с промпта, который подается на вход ллмке.
Давайте разберем самые базовые примеры того, что можно сделать лучше:
Думаю мы все сойдёмся во мнении, что чем больше контекста получает мозг, тем точнее его выводы при прямо сформулированной задаче. Давайте просто перенесем это на AI. Применяем формулу: ЗАДАЧА + КОНТЕКСТ + ФОРМАТ.
Можно кстати сделать запрос четырехслойным, добавив ограничения (активируют более целенаправленную обработку информации):
Собери краткое саммари основ проектирования компрессорных установок для студентов-инженеров с опытом практики на энергетических предприятиях. Выведи ответ тезисно в виде 5 основных идей
Важно указать целевую аудиторию, желаемый объем и конкретные элементы (примеры, списки, схемы)
Легкая одноходовочка с воображением - навязываем определенный паттерн мышления. Это как будто отыграть роль другого человека.
Особо пытливые могут заметить, что можно насуетить и многозодовочку:
Сначала как психолог объясни причины прокрастинации, затем как коуч дай 5 практических советов, а потом как нейробиолог расскажи, что происходит в мозге
Дополнительно кстати роли можно сделать специфичными с временными рамками
Ты - маркетолог из 2030 года. Какие тренды будут актуальны в блоггинге?
Промпты можно передать в виде информации, организованной в логические блоки. По сути мы упрощаем задачу для модельки, и сами формируем основные тезисы, которые она должна понять из запроса.
Допустим, принцип пирамиды Минто в промптах, чтобы получить иерархичную последовательность ответа:
Начни с главного тезиса, затем 3 основных аргумента, к каждому из них добавь 2-3 подпункта с примерами
Кстати, нормальная тема еще затестить прогрессивное усложнение:
Объясни, что такое RAG сначала 5-летнему ребенку, потом студенту, затем Эндрю Ыну
Прикол в том, что по сути своим последовательным раскрытием ответа на вопрос гптха сможет ответить четче.
Кстати, на крайняк можно попросить саму нейронку написать за вас
Если не знали эту базу, ставьте реакции. А если знаете, делитесь в коментах своими хаками.
#prompt
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥7❤🔥4⚡1