Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
- Telegram Web
Telegram Web
Кому нужен ещё один канал про AI?

Привет! Я — Илья Филиппов, CEO red_mad_robot AI. Занимаюсь реализацией AI-стратегии в одной из самых технологичных команд на рынке. Участвовал в создании десятков решений — от ML для фондового рынка до workflow-агентов в бизнес-процессах.

За последние годы мы с командой внедрили AI в девелопмент, ритейл, банкинг и финтех. И хорошо видим, где он про деньги и бизнес, а где — просто красивый слайд для питча.

Сегодня компании наконец начинают отходить от игр с чат-ботами и точечной оптимизации и фокусируются на системных изменениях в процессах, ролях и экономике. Этот канал — способ фиксировать, что действительно работает.

Если отвечаете за бизнес и процессы — welcome on board!
Про UI-агентов

Мне интересно разбираться, как новые AI-технологии будут решать реальные задачи — и для людей, и для бизнеса. Сегодня — коротко о том, куда нас могут привести UI-агенты.

Если кто не знает, то UI-агенты — это программы, способные взаимодействовать с пользовательскими интерфейсами для выполнения задач по запросу. Например, Operator от OpenAI. Подробнее об этом можно прочитать здесь и здесь.

По сути, AI научился сам работать за компьютером. Он и раньше мог исполнять код и делать другие операции, но сейчас меняется парадигма. До этого, чтобы управлять системой, нужно было подключаться к API (если оно есть) или парсить данные. Теперь — достаточно визуального интерфейса. Агент «видит» экран и понимает, что нужно делать, почти как человек. 

К чему это может привести? 

Агенты смогут работать с системами, которые раньше были признаком прокачанного резюме — SAP, SAS, Bloomberg, CRM и ERP. AI станет тем самым «настройщиком», который после нативного объяснения сам занесёт данные, соберёт дашборд и настроит новые сценарии. 

Для бизнеса это означает три вещи:

1. Ускорение — одно звено в цепочке уходит, условный оператор ЭВМ больше не нужен.

2. Снижение издержек — больше не нужно платить интегратору за каждую допнастройку.

3. И, пожалуй, самое главное: можно будет опираться на профильные навыки сотрудников, а не на их техническую подкованность, которая раньше могла быть блокером.
🔥 Прожарка AI: готовим и обсуждаем AI

Вчера ребята из @sthhb устроили вечер в духе «вино + мясо + AI». Без сцены, но с живыми дискуссиями и кухонным интерактивом. Вместо презентаций просто обсуждали, что такое AI для бизнеса сегодня. А заодно резали, жарили, взбивали — ну и так далее)

Потом готовили десерт с Витей Тарнавским (Т-Банк) и Мишей Неверовым (X5 Tech) и подводили итоги обсуждений. Короче, интересный формат получился 👨‍🍳
Please open Telegram to view this post
VIEW IN TELEGRAM
HR-tech и AI

Сегодня участвовал в панельной дискуссии на Skolkovo Startup Village. Ребята из @it_sense позвали рассказать про AI — в непривычной для меня теме HR-tech.

Обсуждали, что происходит с IT-рекрутингом, зачем бизнесу технологии в HR и где заканчивается ATS и начинается нормальный HRM. На панели были Лиза Василенко (Т-Банк), Ира Голубева (экс-Lamoda Tech) и Василина Соколова (HRBOX). Модерировал всё это дело Ваня Лунин (SENSE).

Было интересно)
Run, Forrest, Run

Все говорят о невероятных скоростях, с которыми сейчас развивается AI: релизы моделей, новые подходы, технологии. Но я бы остановился на том, как быстро появляются и умирают AI-based продукты и бизнесы. 

Недавно прошла волна обсуждений стартапа Cluely, который помогает проходить технические интервью под манифестом cheat on everything. Всех, конечно, занимала этическая сторона вопроса (вот тут большой тред о том, с чего всё началось), но меня привлекли цифры. $3M ARR и $5M инвестиций у проекта, который только что запустился.

На большой поляне темп тоже фантастический. Cursor, на который сейчас смотрит OpenAI, может стать самой быстрорастущей компанией в истории с $100M ARR, достигнув этого показателя меньше чем за два года!

Но вот обратная сторона медали: с каждым обновлением фундаментальных моделей умирают сотни продуктов — тот же сервис доступен из коробки.

Какой вывод? 

Скорость — ключевая вещь в AI-бизнесе прямо сейчас. Если вы не делаете быстро, скорее всего, кто-то уже делает это вместо вас. Так что для AI-продактов действует правило: «Беги, Форрест, беги!»)
ML vs GenAI

На фоне роста GenAI бизнес всё чаще задаётся вопросом: что делать с ML-решениями? Во многих компаниях уже есть полноценные команды Data Science, но непонятно, стоит ли продолжать инвестировать в долгий и дорогой процесс создания ML-моделей. Не станет ли всё это устаревшим и ненужным?

На мой взгляд — нет. Более того, в некоторых задачах технологии GenAI могут дать ML новый виток развития.

Возьмём, например, рекомендательные системы (RecSys). Они, как правило, требуют большого количества данных: истории покупок, просмотров фильмов, поисковых запросов и etc. У таких моделей почти всегда возникает проблема холодного старта — и её вполне можно решить с помощью синтетических данных, сгенерированных LLM.

Другой пример — обогащение фич-листов ML-моделей информацией, агрегированной с помощью LLM. Мы можем просто закинуть в модель какую-то data клиента, которая на первый взгляд не связана со скорингом (например транзакции), и попробовать извлечь из них что-то полезное. В духе: «Любит ли он летать на самолётах?» Да, это будет не супер точно. Да, не факт, что фича в итоге улучшит скор. Но гипотеза точно стоит теста.

Наконец, LLM и другие генеративки иногда позволяют прототипировать ML-решение за 2-3 дня. Допустим, нужен классификатор — пока нет датасета, роль модели временно играет LLM. Смотрим, какую точность она даёт, запускаем пилот, проводим A/B-тесты. И уже на основе этих результатов принимаем решение: стоит ли вкладываться в полноценную разработку, собирать команду и инвестировать в данные и масштабирование.
GenAI и клиентский опыт

Поделился с @rbc_trends взглядом на то, как GenAI меняет работу с клиентами — не в теории, а на уровне реального внедрения.

Сегодня на рынке много решений, которые называются AI, но по сути остаются rule-based — сценариями с базовой персонализацией и предсказуемыми шаблонами. Настоящие LLM-системы работают иначе: обучаются на контексте, адаптируются к пользователю, понимают нечёткие запросы и генерируют новый смысл, а не пересобирают готовые ответы.

Примеров уже много: AI-рекомендации в книгах билайн, визуалы в Яндекс Книгах, подбор отелей в Marriott, нейросканер в Beauty-GPT. Во всех этих случаях меняется не UX, а поведение: пользователь остаётся в продукте дольше, быстрее находит нужное и чаще возвращается.

🤩 Статья целиком — здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Neural Deep
Как GenAI работает в реальных решениях? Расскажем на Conversations

В конце июня встречаемся на одной из главных летних AI-конференций — Conversations 2025. Обсудим, как GenAI становится частью рабочих систем, что помогает не просто тестировать технологии, а внедрять их осознанно, и куда движется индустрия.

От red_mad_robot — два доклада:

Я расскажу, как мы перешли от Naive RAG к workflow-агентским системам, усложнили архитектуру и применяем подход в решении многослойных бизнес-задач.

Илья Филиппов, CEO red_mad_robot AI, вместе с руководителем сервиса книги билайн Натальей Каменских покажет, как AI-поиск работает в продукте и что это даёт пользователю и бизнесу. Кстати Илья завел очень крутой канал где рассказывает про крупный b2b сегмент GenAI в РФ

Конференция пройдёт 26–27 июня в Санкт-Петербурге. Подробности и билеты на сайте, а от меня промокод на 10% — CNVS25sKaV
Прокомментировали с Валерой новость о том, что Яндекc начал интегрировать GenAI в свои рекомендательные системы. Это как раз пример той связки ML и GenAI, о которой я недавно писал

ML-модели отлично справляются с точечными задачами, но как только в сценарии появляется большое количество неструктурированных данных и разрозненной информации — нужна LLM, которая может дополнить информацию, а не просто посчитать.
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
LLM + векторный поиск = новый СX

Сегодня выступал на @conversations_ai вместе с Наташей Каменских (CPO AI @beeline). Рассказывали, как мы собрали AI-поиск в сервисе книги билайн.

Система объединяет сразу три контура:

— Поиск через LLM
— Расширенный фильтрационный поиск по базе
— Векторный поиск по аннотациям

Все ранжируются через кастомный реранкер и дополняются short summary.

Под капотом — нормализованная база, сгруппированные жанры, xgrammar и защита от нежелательного контента. На выходе — поиск, который понимает не только прямые, но и ситуационные или эмоциональные запросы: «почитать в самолёте», «что-то как у <…>», «если грустно», «про дружбу собаки и человека».

В этом проекте очень интересно, что AI-решение реализуется действительно полноценным продуктовым подходом: с анализом реальных запросов людей, адаптацией под них стратегий поиска и постоянным мониторингом метрик.

Неожиданный инсайт: поиском, созданным для неструктурированных и абстрактных запросов, люди в 75% случаев пользуются как обычным точным поиском — вводят конкретного автора или книгу. То есть технологии шагнули вперёд, но пользовательские привычки и паттерны поведения пока остаются прежними.

Интересно сколько времени ещё займёт трансформация людей?
2025/06/28 19:04:12
Back to Top
HTML Embed Code: