Кому нужен ещё один канал про AI?
Привет! Я — Илья Филиппов, CEO red_mad_robot AI. Занимаюсь реализацией AI-стратегии в одной из самых технологичных команд на рынке. Участвовал в создании десятков решений — от ML для фондового рынка до workflow-агентов в бизнес-процессах.
За последние годы мы с командой внедрили AI в девелопмент, ритейл, банкинг и финтех. И хорошо видим, где он про деньги и бизнес, а где — просто красивый слайд для питча.
Сегодня компании наконец начинают отходить от игр с чат-ботами и точечной оптимизации и фокусируются на системных изменениях в процессах, ролях и экономике. Этот канал — способ фиксировать, что действительно работает.
Если отвечаете за бизнес и процессы — welcome on board!
Привет! Я — Илья Филиппов, CEO red_mad_robot AI. Занимаюсь реализацией AI-стратегии в одной из самых технологичных команд на рынке. Участвовал в создании десятков решений — от ML для фондового рынка до workflow-агентов в бизнес-процессах.
За последние годы мы с командой внедрили AI в девелопмент, ритейл, банкинг и финтех. И хорошо видим, где он про деньги и бизнес, а где — просто красивый слайд для питча.
Сегодня компании наконец начинают отходить от игр с чат-ботами и точечной оптимизации и фокусируются на системных изменениях в процессах, ролях и экономике. Этот канал — способ фиксировать, что действительно работает.
Если отвечаете за бизнес и процессы — welcome on board!
Про UI-агентов
Мне интересно разбираться, как новые AI-технологии будут решать реальные задачи — и для людей, и для бизнеса. Сегодня — коротко о том, куда нас могут привести UI-агенты.
Если кто не знает, то UI-агенты — это программы, способные взаимодействовать с пользовательскими интерфейсами для выполнения задач по запросу. Например, Operator от OpenAI. Подробнее об этом можно прочитать здесь и здесь.
По сути, AI научился сам работать за компьютером. Он и раньше мог исполнять код и делать другие операции, но сейчас меняется парадигма. До этого, чтобы управлять системой, нужно было подключаться к API (если оно есть) или парсить данные. Теперь — достаточно визуального интерфейса. Агент «видит» экран и понимает, что нужно делать, почти как человек.
К чему это может привести?
Агенты смогут работать с системами, которые раньше были признаком прокачанного резюме — SAP, SAS, Bloomberg, CRM и ERP. AI станет тем самым «настройщиком», который после нативного объяснения сам занесёт данные, соберёт дашборд и настроит новые сценарии.
Для бизнеса это означает три вещи:
1. Ускорение — одно звено в цепочке уходит, условный оператор ЭВМ больше не нужен.
2. Снижение издержек — больше не нужно платить интегратору за каждую допнастройку.
3. И, пожалуй, самое главное: можно будет опираться на профильные навыки сотрудников, а не на их техническую подкованность, которая раньше могла быть блокером.
Мне интересно разбираться, как новые AI-технологии будут решать реальные задачи — и для людей, и для бизнеса. Сегодня — коротко о том, куда нас могут привести UI-агенты.
Если кто не знает, то UI-агенты — это программы, способные взаимодействовать с пользовательскими интерфейсами для выполнения задач по запросу. Например, Operator от OpenAI. Подробнее об этом можно прочитать здесь и здесь.
По сути, AI научился сам работать за компьютером. Он и раньше мог исполнять код и делать другие операции, но сейчас меняется парадигма. До этого, чтобы управлять системой, нужно было подключаться к API (если оно есть) или парсить данные. Теперь — достаточно визуального интерфейса. Агент «видит» экран и понимает, что нужно делать, почти как человек.
К чему это может привести?
Агенты смогут работать с системами, которые раньше были признаком прокачанного резюме — SAP, SAS, Bloomberg, CRM и ERP. AI станет тем самым «настройщиком», который после нативного объяснения сам занесёт данные, соберёт дашборд и настроит новые сценарии.
Для бизнеса это означает три вещи:
1. Ускорение — одно звено в цепочке уходит, условный оператор ЭВМ больше не нужен.
2. Снижение издержек — больше не нужно платить интегратору за каждую допнастройку.
3. И, пожалуй, самое главное: можно будет опираться на профильные навыки сотрудников, а не на их техническую подкованность, которая раньше могла быть блокером.
Openai
Introducing Operator
A research preview of an agent that can use its own browser to perform tasks for you. Available to Pro users in the U.S.
🔥 Прожарка AI: готовим и обсуждаем AI
Вчера ребята из @sthhb устроили вечер в духе «вино + мясо + AI». Без сцены, но с живыми дискуссиями и кухонным интерактивом. Вместо презентаций просто обсуждали, что такое AI для бизнеса сегодня. А заодно резали, жарили, взбивали — ну и так далее)
Потом готовили десерт с Витей Тарнавским (Т-Банк) и Мишей Неверовым (X5 Tech) и подводили итоги обсуждений. Короче, интересный формат получился👨🍳
Вчера ребята из @sthhb устроили вечер в духе «вино + мясо + AI». Без сцены, но с живыми дискуссиями и кухонным интерактивом. Вместо презентаций просто обсуждали, что такое AI для бизнеса сегодня. А заодно резали, жарили, взбивали — ну и так далее)
Потом готовили десерт с Витей Тарнавским (Т-Банк) и Мишей Неверовым (X5 Tech) и подводили итоги обсуждений. Короче, интересный формат получился
Please open Telegram to view this post
VIEW IN TELEGRAM
HR-tech и AI
Сегодня участвовал в панельной дискуссии на Skolkovo Startup Village. Ребята из @it_sense позвали рассказать про AI — в непривычной для меня теме HR-tech.
Обсуждали, что происходит с IT-рекрутингом, зачем бизнесу технологии в HR и где заканчивается ATS и начинается нормальный HRM. На панели были Лиза Василенко (Т-Банк), Ира Голубева (экс-Lamoda Tech) и Василина Соколова (HRBOX). Модерировал всё это дело Ваня Лунин (SENSE).
Было интересно)
Сегодня участвовал в панельной дискуссии на Skolkovo Startup Village. Ребята из @it_sense позвали рассказать про AI — в непривычной для меня теме HR-tech.
Обсуждали, что происходит с IT-рекрутингом, зачем бизнесу технологии в HR и где заканчивается ATS и начинается нормальный HRM. На панели были Лиза Василенко (Т-Банк), Ира Голубева (экс-Lamoda Tech) и Василина Соколова (HRBOX). Модерировал всё это дело Ваня Лунин (SENSE).
Было интересно)
Run, Forrest, Run
Все говорят о невероятных скоростях, с которыми сейчас развивается AI: релизы моделей, новые подходы, технологии. Но я бы остановился на том, как быстро появляются и умирают AI-based продукты и бизнесы.
Недавно прошла волна обсуждений стартапа Cluely, который помогает проходить технические интервью под манифестом cheat on everything. Всех, конечно, занимала этическая сторона вопроса (вот тут большой тред о том, с чего всё началось), но меня привлекли цифры. $3M ARR и $5M инвестиций у проекта, который только что запустился.
На большой поляне темп тоже фантастический. Cursor, на который сейчас смотрит OpenAI, может стать самой быстрорастущей компанией в истории с $100M ARR, достигнув этого показателя меньше чем за два года!
Но вот обратная сторона медали: с каждым обновлением фундаментальных моделей умирают сотни продуктов — тот же сервис доступен из коробки.
Какой вывод?
Скорость — ключевая вещь в AI-бизнесе прямо сейчас. Если вы не делаете быстро, скорее всего, кто-то уже делает это вместо вас. Так что для AI-продактов действует правило: «Беги, Форрест, беги!»)
Все говорят о невероятных скоростях, с которыми сейчас развивается AI: релизы моделей, новые подходы, технологии. Но я бы остановился на том, как быстро появляются и умирают AI-based продукты и бизнесы.
Недавно прошла волна обсуждений стартапа Cluely, который помогает проходить технические интервью под манифестом cheat on everything. Всех, конечно, занимала этическая сторона вопроса (вот тут большой тред о том, с чего всё началось), но меня привлекли цифры. $3M ARR и $5M инвестиций у проекта, который только что запустился.
На большой поляне темп тоже фантастический. Cursor, на который сейчас смотрит OpenAI, может стать самой быстрорастущей компанией в истории с $100M ARR, достигнув этого показателя меньше чем за два года!
Но вот обратная сторона медали: с каждым обновлением фундаментальных моделей умирают сотни продуктов — тот же сервис доступен из коробки.
Какой вывод?
Скорость — ключевая вещь в AI-бизнесе прямо сейчас. Если вы не делаете быстро, скорее всего, кто-то уже делает это вместо вас. Так что для AI-продактов действует правило: «Беги, Форрест, беги!»)
ML vs GenAI
На фоне роста GenAI бизнес всё чаще задаётся вопросом: что делать с ML-решениями? Во многих компаниях уже есть полноценные команды Data Science, но непонятно, стоит ли продолжать инвестировать в долгий и дорогой процесс создания ML-моделей. Не станет ли всё это устаревшим и ненужным?
На мой взгляд — нет. Более того, в некоторых задачах технологии GenAI могут дать ML новый виток развития.
Возьмём, например, рекомендательные системы (RecSys). Они, как правило, требуют большого количества данных: истории покупок, просмотров фильмов, поисковых запросов и etc. У таких моделей почти всегда возникает проблема холодного старта — и её вполне можно решить с помощью синтетических данных, сгенерированных LLM.
Другой пример — обогащение фич-листов ML-моделей информацией, агрегированной с помощью LLM. Мы можем просто закинуть в модель какую-то data клиента, которая на первый взгляд не связана со скорингом (например транзакции), и попробовать извлечь из них что-то полезное. В духе: «Любит ли он летать на самолётах?» Да, это будет не супер точно. Да, не факт, что фича в итоге улучшит скор. Но гипотеза точно стоит теста.
Наконец, LLM и другие генеративки иногда позволяют прототипировать ML-решение за 2-3 дня. Допустим, нужен классификатор — пока нет датасета, роль модели временно играет LLM. Смотрим, какую точность она даёт, запускаем пилот, проводим A/B-тесты. И уже на основе этих результатов принимаем решение: стоит ли вкладываться в полноценную разработку, собирать команду и инвестировать в данные и масштабирование.
На фоне роста GenAI бизнес всё чаще задаётся вопросом: что делать с ML-решениями? Во многих компаниях уже есть полноценные команды Data Science, но непонятно, стоит ли продолжать инвестировать в долгий и дорогой процесс создания ML-моделей. Не станет ли всё это устаревшим и ненужным?
На мой взгляд — нет. Более того, в некоторых задачах технологии GenAI могут дать ML новый виток развития.
Возьмём, например, рекомендательные системы (RecSys). Они, как правило, требуют большого количества данных: истории покупок, просмотров фильмов, поисковых запросов и etc. У таких моделей почти всегда возникает проблема холодного старта — и её вполне можно решить с помощью синтетических данных, сгенерированных LLM.
Другой пример — обогащение фич-листов ML-моделей информацией, агрегированной с помощью LLM. Мы можем просто закинуть в модель какую-то data клиента, которая на первый взгляд не связана со скорингом (например транзакции), и попробовать извлечь из них что-то полезное. В духе: «Любит ли он летать на самолётах?» Да, это будет не супер точно. Да, не факт, что фича в итоге улучшит скор. Но гипотеза точно стоит теста.
Наконец, LLM и другие генеративки иногда позволяют прототипировать ML-решение за 2-3 дня. Допустим, нужен классификатор — пока нет датасета, роль модели временно играет LLM. Смотрим, какую точность она даёт, запускаем пилот, проводим A/B-тесты. И уже на основе этих результатов принимаем решение: стоит ли вкладываться в полноценную разработку, собирать команду и инвестировать в данные и масштабирование.
GenAI и клиентский опыт
Поделился с @rbc_trends взглядом на то, как GenAI меняет работу с клиентами — не в теории, а на уровне реального внедрения.
Сегодня на рынке много решений, которые называются AI, но по сути остаются rule-based — сценариями с базовой персонализацией и предсказуемыми шаблонами. Настоящие LLM-системы работают иначе: обучаются на контексте, адаптируются к пользователю, понимают нечёткие запросы и генерируют новый смысл, а не пересобирают готовые ответы.
Примеров уже много: AI-рекомендации в книгах билайн, визуалы в Яндекс Книгах, подбор отелей в Marriott, нейросканер в Beauty-GPT. Во всех этих случаях меняется не UX, а поведение: пользователь остаётся в продукте дольше, быстрее находит нужное и чаще возвращается.
🤩 Статья целиком — здесь
Поделился с @rbc_trends взглядом на то, как GenAI меняет работу с клиентами — не в теории, а на уровне реального внедрения.
Сегодня на рынке много решений, которые называются AI, но по сути остаются rule-based — сценариями с базовой персонализацией и предсказуемыми шаблонами. Настоящие LLM-системы работают иначе: обучаются на контексте, адаптируются к пользователю, понимают нечёткие запросы и генерируют новый смысл, а не пересобирают готовые ответы.
Примеров уже много: AI-рекомендации в книгах билайн, визуалы в Яндекс Книгах, подбор отелей в Marriott, нейросканер в Beauty-GPT. Во всех этих случаях меняется не UX, а поведение: пользователь остаётся в продукте дольше, быстрее находит нужное и чаще возвращается.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Neural Deep
Как GenAI работает в реальных решениях? Расскажем на Conversations
В конце июня встречаемся на одной из главных летних AI-конференций — Conversations 2025. Обсудим, как GenAI становится частью рабочих систем, что помогает не просто тестировать технологии, а внедрять их осознанно, и куда движется индустрия.
От red_mad_robot — два доклада:
Я расскажу, как мы перешли от Naive RAG к workflow-агентским системам, усложнили архитектуру и применяем подход в решении многослойных бизнес-задач.
Илья Филиппов, CEO red_mad_robot AI, вместе с руководителем сервиса книги билайн Натальей Каменских покажет, как AI-поиск работает в продукте и что это даёт пользователю и бизнесу. Кстати Илья завел очень крутой канал где рассказывает про крупный b2b сегмент GenAI в РФ
Конференция пройдёт 26–27 июня в Санкт-Петербурге. Подробности и билеты на сайте,а от меня промокод на 10% — CNVS25sKaV
В конце июня встречаемся на одной из главных летних AI-конференций — Conversations 2025. Обсудим, как GenAI становится частью рабочих систем, что помогает не просто тестировать технологии, а внедрять их осознанно, и куда движется индустрия.
От red_mad_robot — два доклада:
Я расскажу, как мы перешли от Naive RAG к workflow-агентским системам, усложнили архитектуру и применяем подход в решении многослойных бизнес-задач.
Илья Филиппов, CEO red_mad_robot AI, вместе с руководителем сервиса книги билайн Натальей Каменских покажет, как AI-поиск работает в продукте и что это даёт пользователю и бизнесу. Кстати Илья завел очень крутой канал где рассказывает про крупный b2b сегмент GenAI в РФ
Конференция пройдёт 26–27 июня в Санкт-Петербурге. Подробности и билеты на сайте,
Прокомментировали с Валерой новость о том, что Яндекc начал интегрировать GenAI в свои рекомендательные системы. Это как раз пример той связки ML и GenAI, о которой я недавно писал.
ML-модели отлично справляются с точечными задачами, но как только в сценарии появляется большое количество неструктурированных данных и разрозненной информации — нужна LLM, которая может дополнить информацию, а не просто посчитать.
ML-модели отлично справляются с точечными задачами, но как только в сценарии появляется большое количество неструктурированных данных и разрозненной информации — нужна LLM, которая может дополнить информацию, а не просто посчитать.
Forbes.ru
Генератор советов: «Яндекс» внедряет ИИ-рекомендации в свои сервисы
«Яндекс» продолжает активное внедрение генеративного ИИ в собственные продукты. Теперь компания вводит в свои сервисы рекомендательные системы на основе генеративных моделей, узнал Forbes. Помимо «Яндекс Музыки», их уже успешно интегрировал «Маркет»,
LLM + векторный поиск = новый СX
Сегодня выступал на @conversations_ai вместе с Наташей Каменских (CPO AI @beeline). Рассказывали, как мы собрали AI-поиск в сервисе книги билайн.
Система объединяет сразу три контура:
— Поиск через LLM
— Расширенный фильтрационный поиск по базе
— Векторный поиск по аннотациям
Все ранжируются через кастомный реранкер и дополняются short summary.
Под капотом — нормализованная база, сгруппированные жанры, xgrammar и защита от нежелательного контента. На выходе — поиск, который понимает не только прямые, но и ситуационные или эмоциональные запросы: «почитать в самолёте», «что-то как у <…>», «если грустно», «про дружбу собаки и человека».
В этом проекте очень интересно, что AI-решение реализуется действительно полноценным продуктовым подходом: с анализом реальных запросов людей, адаптацией под них стратегий поиска и постоянным мониторингом метрик.
Неожиданный инсайт: поиском, созданным для неструктурированных и абстрактных запросов, люди в 75% случаев пользуются как обычным точным поиском — вводят конкретного автора или книгу. То есть технологии шагнули вперёд, но пользовательские привычки и паттерны поведения пока остаются прежними.
Интересно сколько времени ещё займёт трансформация людей?
Сегодня выступал на @conversations_ai вместе с Наташей Каменских (CPO AI @beeline). Рассказывали, как мы собрали AI-поиск в сервисе книги билайн.
Система объединяет сразу три контура:
— Поиск через LLM
— Расширенный фильтрационный поиск по базе
— Векторный поиск по аннотациям
Все ранжируются через кастомный реранкер и дополняются short summary.
Под капотом — нормализованная база, сгруппированные жанры, xgrammar и защита от нежелательного контента. На выходе — поиск, который понимает не только прямые, но и ситуационные или эмоциональные запросы: «почитать в самолёте», «что-то как у <…>», «если грустно», «про дружбу собаки и человека».
В этом проекте очень интересно, что AI-решение реализуется действительно полноценным продуктовым подходом: с анализом реальных запросов людей, адаптацией под них стратегий поиска и постоянным мониторингом метрик.
Неожиданный инсайт: поиском, созданным для неструктурированных и абстрактных запросов, люди в 75% случаев пользуются как обычным точным поиском — вводят конкретного автора или книгу. То есть технологии шагнули вперёд, но пользовательские привычки и паттерны поведения пока остаются прежними.
Интересно сколько времени ещё займёт трансформация людей?