Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
300 - Telegram Web
Telegram Web
Agentic Web: Mediators

Самое интересное сейчас происходит на стороне медиаторов – компаний, соединяющих пользователя и конечный бизнес, товар или информацию. Кстати, неверно считать, что это только Google или Яндекс.

Рассказываю, как всё устроено. Есть задачи пользователей в онлайне. Они бьются на вертикали. В каждой вертикали есть компании-медиаторы. Google, Ozon, HH, ЦИАН – такие компании. Они получают рекламные и транзакционные деньги – и это самые большие деньги в онлайне.

Правило простое: деньги получает тот, у кого пользователь совершает выбор. Поэтому все такие компании сражаются за выбор по-умолчанию при решении задачи в своей вертикали. Мануал простой: бери новые технологии, делай продукт лучше чем у соседа, перетягивай пользователей, расширяй воронку направо, делай рекламу, зарабатывай.

В прошлых сериях этого сериала маркетплейсы отжали у поиска рынок за счет логистики. В этой серии техногиганты стараются отжать себе что-нибудь назад, а новые ChatGPT / Perplexity – отжать что-нибудь у техногигантов.

Ещё один аспект здесь – открытые vs закрытые экосистемы. Agentic Web это подход открытых данных – каждый бизнес публикует себя в открытом виде "в интернете". Теоретически, это лучше: больше свободы у бизнеса, открытость к нескольким медиаторам на одном рынке. Фактически, закрытые экосистемы пока что отжирают всё больше, а web-медиатор обычно на рынке один. Кстати, Китай живет на закрытых экосистемах.

Стоит внимательно смотреть за развитием Google A2A: это кусочек нового интернета, где личный агент пользователя может общаться с агентами бизнесов. Стоит внимательно смотреть за Perplexity Shopping. И стоит следить за прогрессом Яндекса в развитии вертикалей.

Кто лучше разыграет эти новые карты? Время покажет. Радует, что пользователи в такой борьбе выигрывают. #agenticweb
218🔥8🤡7
Наконец-до дошли руки до OpenAI Operator
Заказал себе кофту, оч удобно ) Всё заполняет сам кроме оплаты
🔥15🤡41🥱1💅1
Сегодня я обнаружил что потратил на replit $400 в этом месяце 😅

Фильтроняша начала расти как проект и изменения начали ломать старое поведение.

Пришлось сделать:
- Четкие продуктовые требования зафиксированные в одном файле
- TDD: все обвешать тестами и постоянно их гонять

Тогда удалось нормально двигаться дальше. Денег это жрет конечно много, но человеку я бы все равно больше заплатил.

И вообще, я делаю это не потому что оно возвращает инвестиции. О нет.

Я верю что будущим будут управлять люди которые умеют управлять роботами. Я учусь.
А вы?
44🤡14💅3🔥2
Forwarded from Nadir
152🔥24💅5🥱1
Поспорил с разработчиком из команды что смогу с одного промпта добавить в фильтроняшу статистику по юзерам и правила фильтрации по ней 🌟

В результате, с одного промпта Replit смог:
- обновить требования
- закодить сбор статистики в отдельную табличку
- запилить бизнес-правило по юзерам >2 хороших сообщений не удалять
- отобразить это везде в статусах вердикта как надо
- сделать миграционные скрипты для базы
- написать тесты

Получилось потому что до этого яростно перерефакторил всю кодовую базу, слив очередные $100 🤡

Эпический успех. Матвей, жду на тусовке в табличке «вайбкод меня заменит» 🤡
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
64🔥21🤡21💅5🥱2
Постоянно спрашивают, почему я сижу в Replit, когда все настоящие пацаны и пацанессы в Cursor. Отвечаю.

1. Деплой в облако по кнопке. Я ненавижу настраивать эти чертовы ssh-ключи, секретницы и домены.
2. Дев-среда в облаке. Не нужно никаких окружений и прочей ерунды на ноутбуке.
3. Работает с телефона. Я пишу в агент с телефона "сделай такую фичу" и он где-то там в облаке сам пашет. Десктоп-мобайл continuity – просто продолжаешь работать где хочешь.

Как будто так и должен выглядеть будущий UX для агентов в разработке. Cursor очень уж привязан к IDE.

Devin и OpenAI Codex тоже двигаются в правильную сторону. Кстати, именно Cognition AI – авторы Devin – приобрели Windsurf после неловкой попытки приорбитения от OpenAI.
232🤡12💅5🥱2
This media is not supported in your browser
VIEW IN TELEGRAM
Waifu в новом Grok напоминает вам что уже в эту субботу пройдет Turbo ML Conf!

Обязательно смотрим видео 🌚

Регистрация еще открыта
https://mlconf.t-bank.ai/
💅18🔥14🤡10
Reflections on OpenAI

Потрясающее чтиво от инженера, который недавно покинул OpenAI. Пишет про культуру, атмосферу, и как всё работает.

Очень душевное и как будто честное, хочется верить. Выжимки делать специально не буду, идите читать. Я мгновенно залип и прочитал целиком.

https://calv.info/openai-reflections
🔥17🤡10
На графике - пулл-реквесты на гитхабе от облачных кодинг агентов, из исследования. Слева – накопленное количество PR, справа – процент принятых PR.

Видим огромный растущий Codex от OpenAI на фоне остальных. Codex сделал уже 600к+ PR. Дальше идут Devin, Cursor Background Agent и Codegen.

Речь именно об автономных облачных агентах. То, что делают Cursor или Github Copilot в IDE, коммитится от имени человека и сюда не попадает. Таких сильно большое – например, Github Copilot репортит о ревью 8 миллиона PR-ов.

Будущее разработки вижу за облачными агентами. Как только ты можешь хоть какую-нибудь задачу отдать на ночь под ключ, привязка к IDE теряет смысл.

На графике – только публичная часть. Остается только догадываться, сколько ещё работы делают агенты в приватных репозиториях.
🔥16🤡106🥱4💅1
T-pro 2.0 – с гибридным ризонингом 🥳

Лучшая модель в своём весе среди всех открытых моделей по широкому ряду русскоязычных бенчмарков. В два раза более быстрая и дешевая чем аналоги по качеству.

Модель с рассуждениями, создана для построения сложных систем и решения сложных задач. Модель в открытом доступе, качай да используй.

– Qwen3 32B based
– Гибридный ризонинг
– Уплотненный токенайзер на русском
– Спекулятивный декодер в комплекте
– Apache 2.0 – используй как хочешь

Больше подробностей выложим в тех репорте – с бенчмарками и накопленными знаниями.

Сама модель и основные бенчмарки
Спекулятивный декодер
Новость
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥14535💅18🤡9
Открыли Turbo ML Conf!
💅31🔥16
This media is not supported in your browser
VIEW IN TELEGRAM
🔥4213💅12
This media is not supported in your browser
VIEW IN TELEGRAM
Все видели громкую историю про обнимающихся CEO + HRD из компании Astronomer на концерте Coldplay?

Какой-то чел успел завайбкодить игру «найди ceo+hrd» на Vercel 🤡

Эффект Барбары Стрейзанд вышел из под контроля )

Поиграть можно тут
🔥78💅1913
Смешная история была на выкладке T-Pro

Открываем для скачивания модельки и видим почти 30к скачиваний буквально через пару часов 😳 Причем только на GGUF – формате для запуска моделей локально на своём устройстве. На остальных ссылках до 500 загрузок.

В результате разборок раскопали, что нас выложил Бэкдор – 2 млн подписчиков – с ссылкой именно на эту версию. И эти люди ломанулись качать себе искусственный интеллект 🤡

Кстати, выложили развернутые бенчмарки на хабр. Тех репорт тоже будет, пишем!
Please open Telegram to view this post
VIEW IN TELEGRAM
💅33🔥16🤡73🥱3
🥳 Выкладываем T-One: открытая потоковая ASR модель для телефонии

Распознать хорошее аудио в оффлайне сегодня – не проблема. Берём какой-нибудь whisper и полетели.

А вот на плохих телефонных каналах всё довольно сложно. 8 килогерц, пшш-пшш, эхо и прочие беды. Для нас это задача типичная, и у нас получается её хорошо решать. Мы решили поделиться наработками.

Модель называется T-One, и это потоковая модель для телефонии. Она супер компактная, быстрая, и адаптирована для телефонных каналов.

→ Потоковая модель
→ 70M параметров, это в 50 раз меньше whisper-large-v3
→ В 2-3 раза (!) лучше WER чем у whisper-large-v3 на телефонных каналах (бенчи)
→ 300 ms чанк данных, можно строить realtime системы
→ Apache 2.0

Читайте крутой развернутый тех репорт на хабре
Качать как обычно на нашем Hugging Face
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥10623🤔3🤡3🥱2
Channel name was changed to «[29/100] Витя Тарнавский»
На T-Pro 2.0 мы потратили всего 120 млн ₽

В эту сумму входит всё: пол-года R&D, удачные и неудачные запуски обучения, стоимость датасетов. Для моделей такого уровня это очень скромно и эффективно.

Финальный прогон – 2.6 млн ₽. Большая разница – норма: нужна широкая сетка экспериментов, чтобы подобрать подход, датамикс и параметры.

Для сравнения: стоимость финального прогона для GPT-4 оценивается примерно в $40 млн (~3 млрд ₽). Да, в 1000 раз больше 😳 Яндекс ещё в 2023 тратил на генеративки больше 10 млрд/год; у Сбера масштабы ещё больше.

Конечно, мы не обучаем модели с нуля. Чтобы мы уложились в 120 млн, Alibaba сожгла миллиарды. Но какой смысл обучать с нуля?

Теперь вы можете взять наши запакованные в T-Pro 120 млн и строить своё – ещё дешевле 🌟
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14439🤡10
Это Матвей и он проиграл в споре 🌟
Please open Telegram to view this post
VIEW IN TELEGRAM
1172🤡57🔥31💅25
2025/10/08 18:21:43
Back to Top
HTML Embed Code: