Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
- Telegram Web
Telegram Web
Cursor 1.0: обзор ключевых обновлений 🚀

Вышла новая версия популярного AI-редактора кода Cursor 1.0.
Разберем долгожданные нововведения, которые могут быть полезны разработчикам.

BugBot — инструмент для автоматического ревью кода 🔍
Новый инструмент анализирует pull request'ы и находит потенциальные баги. При обнаружении проблем BugBot оставляет комментарии в GitHub с кнопкой "Fix in Cursor" для быстрого перехода к исправлению.

Упрощенная установка MCP серверов ⚡️ (наконец-то!)
• Установка MCP серверов теперь происходит в один клик
• Добавлена поддержка OAuth для аутентификации
• Доступен список официальных серверов в документации
Разработчики могут создавать кнопки "Add to Cursor" для своих проектов

Background Agent для всех пользователей! 🤖
Фоновый агент для кодирования стал доступен всем пользователям. Запуск через иконку облака в чате или комбинацию Cmd/Ctrl+E (для пользователей без режима приватности).

Поддержка Jupyter Notebooks 📊
Agent теперь может создавать и редактировать ячейки в Jupyter Notebooks. Функция работает с моделями Sonnet и особенно полезна для исследований и data science задач.

Memories Beta — память контекста 🧠
Новая функция позволяет Cursor запоминать факты из разговоров и использовать их в будущем. Воспоминания сохраняются на уровне проекта и управляются через настройки. Похожая функция существует в Windsurf уже давно, я рад, что Cursor тоже ее реализовали.

Улучшенные ответы в чате 📈
• Поддержка диаграмм Mermaid
• Рендеринг Markdown таблиц
• Визуализация данных прямо в разговоре

Обновленный интерфейс

Переработаны страницы настроек и дашборда с детальной аналитикой использования по инструментам и моделям.

Подробнее здесь

#cursor #ai #coding #development #tools
На днях на канале Anthropic посмотрел запись беседы с Борисом Черным - создателем Claude Code, инструмента, который я все чаще начинаю использовать совместно, а иногда и вместо Cursor/Windsurf/Roo Code/Cline 📝
Эта беседа - отличное дополнение к документу по лучшим практикам использования Claude Code (вот здесь подготовил перевод на русский язык)

Ниже мои заметки по данной беседе.

Что такое Claude Code 🤖

Claude Code - это агентный инструмент для программирования, который работает прямо в терминале. Не нужно осваивать новые IDE или сайты - работает там, где вы уже работаете.

Почему терминал?
• Универсальность - работает с любым редактором (VS Code, Vim, Zed)
• Простота - позволяет быстро итерировать
• Гибкость - интегрируется в любой workflow

Установка и использование ⚙️

Установка через npm:
npm install -g @anthropic-ai/claude-code


Запуск: просто введите claude в терминале

Работает везде: iTerm2, SSH сессии, TMUX, терминалы IDE

Ключевые особенности 🔧

Агентность: Claude не просто дополняет код, а выполняет полные задачи - анализирует кодовую базу, читает файлы, вносит изменения

Интеграция с GitHub: можно @упоминать Claude в issues и PR для автоматического исправления багов и написания тестов

Claude.md файлы - система "памяти" для инструкций:
1️⃣ Claude.md - общие инструкции для проекта 2️⃣ Claude.local.md - персональные настройки
3️⃣ Глобальный Claude.md в домашней папке 4️⃣ Локальные Claude.md в подпапках проекта
Очень похоже на cursor project rules

Стоимость и доступность 💰

• Тестирование: $5 через API ключ
• Серьезное использование: ~$50-200/месяц
• Claude Max подписка: $100-200/месяц с практически безлимитным использованием - при регулярном использовании claude данный тариф получается выгодным.

Эволюция с Claude 4 🚀


Новые модели значительно улучшили:
• Следование инструкциям с первого раза
• Способность к "one-shot" решениям сложных задач
• Качество автоматически генерируемых тестов

Практические советы 💡

Для сложных задач:
• Просите Claude сначала составить план
• Используйте extended thinking для лучших результатов
• Комбинируйте чтение контекста → размышления → кодирование

Рабочий процесс:
• Простые задачи - делегируйте полностью в GitHub Actions
• Сложные задачи - работайте в паре с Claude в IDE терминале

Будущее развитие 🔮

Планируется расширение интеграций с различными инструментами и упрощение доступа для быстрых задач без открытия терминала.

P.S. Беседа идет всего 20 минут, полный транскрипт на русском языке здесь, краткий - тут.

@llm_notes

#claude #aicoding #developertools #anthropic #programming
7 стратегий промптинга из "утечки" системного промпта Claude 4

Недавно в сети появился предполагаемый системный промпт Claude 4 объемом 10,000 слов. Независимо от его подлинности, документ содержит ценные принципы для создания эффективных промптов 📝

Я решил провести анализ этого системного промпта для Claude 4, используя Claude 4 :)
Вот здесь результат анализа
А тут универсальный промпт, который я использовал (формировал и улучшал его по методике, которую описывал чуть раньше).

Затем мне на глаза попалась интересная статья на medium про 7 стратегий промптинга, которые используются в системном промпте Claude 4
Что порадовало - выводы практически совпадают. Только мой промпт, выявил 6, а не 7 приемов. Ну и мне были интересны также рекомендации по улучшению имеющихся промптов от самой модели, которая должна им следовать :)

Ключевая идея: промпт — это не магическое заклинание, а конфигурационный файл операционной системы. 90% внимания уделяется предотвращению ошибок, и только 10% — желаемому результату.

Основные стратегии:

1️⃣ Якорение идентичности
Начинайте промпт с фиксированных фактов: идентичность модели, дата, основные возможности. Это снижает нагрузку на рабочую память и стабилизирует рассуждения.

2️⃣ Явные условные блоки
Используйте четкие конструкции "если X, то Y" для граничных случаев. Неопределенность приводит к непоследовательности — будьте конкретны.

3️⃣ Трехуровневая маршрутизация неопределенности
• Вечная информация → прямой ответ
• Медленно меняющаяся → ответ + предложение проверки
• Актуальная → немедленный поиск

4️⃣ Грамматика инструментов с контрпримерами
Показывайте как правильные, так и неправильные примеры использования API. Негативные примеры учат не хуже позитивных.

5️⃣ Бинарные правила стиля
Вместо размытых указаний ("будь краток") используйте четкие запреты ("никогда не начинай с лести", "никаких эмодзи без запроса").

6️⃣ Позиционное усиление
В длинных промптах повторяйте критические ограничения каждые 500 токенов — внимание модели ослабевает в длинном контексте.

7️⃣ Рефлексия после использования инструментов
Добавляйте паузу для "размышлений" после вызова функций. Это улучшает точность в многошаговых цепочках рассуждений 🤔 (то, что мой промпт-анализатор не обнаружил)

Практический вывод

Думайте о промптах как об операционных системах. Будьте точны в намерениях и не бойтесь "оборонительного программирования" — детально прописывайте, чего модель делать НЕ должна.

Декларативный подход "если X, всегда Y" часто эффективнее императивного "сначала X, потом Y" ⚡️

@llm_notes

#claude4 #ai_engineering #llm_optimization #prompt
🤖 Google выпустил open-source агента на базе Gemini 2.5

Компания Google представила полнофункциональный агент-исследователь с открытым исходным кодом, построенный на Gemini 2.5 и LangGraph.

Что умеет агент:
• Выполняет многоэтапный поиск в интернете
• Анализирует найденную информацию
• Синтезирует ответы с указанием источников
• Работает как человек-исследователь

Техническая архитектура:
1️⃣ Frontend на React
2️⃣ Backend на LangGraph
3️⃣ Интеграция с Google Search API
4️⃣ Рефлексивное мышление для улучшения поисковых запросов
5️⃣ Автоматическая генерация цитат

Проект интересен тем, что Google предоставил полный код как фронтенда, так и бэкенда. Это позволяет изучить весь пайплайн работы AI-агента от начала до конца.

🔗 Репозиторий: https://github.com/google-gemini/gemini-fullstack-langgraph-quickstart
DeepWiki по проекту здесь

@llm_notes

#ai_agents #langgraph #google_gemini #open_source #research_ai
Как устроен Cursor: технические детали от создателей 🔧

Вчера прочитал очень интересное интервью с основателем Cursor. Интервью содержит множество деталей внутреннего устройства самого популярного AI-кодера, и с моей точки зрения будет интересно практически каждому.

Ниже мой краткий конспект.

Полная оригинальная версия здесь.
Перевод на русский язык: часть 1 | часть 2

Cursor — AI-редактор кода, который за год вырос в 100 раз по нагрузке и обрабатывает более 1 млн запросов в секунду. Сооснователь Суалех Асиф рассказал об используемых технических решениях.

Цифры проекта 📊

• 50 инженеров в команде
• 1M+ транзакций в секунду в пике
• 100x рост пользователей за 12 месяцев
• $500M+ годовая выручка
• Миллиард строк кода пишется ежедневно

Технический стек 💻

Клиент:
• TypeScript — основная логика
• Electron — форк VS Code
• Rust — производительные компоненты

Бэкенд:
• TypeScript + Rust
• Монолитная архитектура
• Node API для связи с Rust

Базы данных:
• Turbopuffer — хранение зашифрованных файлов
• Pinecone — векторная БД для документации

Инфраструктура:
• AWS + Azure для вычислений
• Десятки тысяч NVIDIA H100 GPU
• Terraform для управления инфраструктурой

Как работает автодополнение ⚡️

1️⃣ Клиент собирает контекст кода локально 2️⃣ Код шифруется и отправляется на сервер 3️⃣ Сервер расшифровывает и генерирует предложение 4️⃣ Предложение возвращается в IDE 5️⃣ Пользователь принимает через Tab

Ключевая задача — минимизировать задержки при максимальном качестве предложений.

Чат без хранения кода 🔒

Cursor не хранит исходный код на серверах, используя умную систему индексации:

Создание индексов:
• Код разбивается на чанки
• Создаются эмбеддинги без сохранения имен файлов
• Используются обфусцированные названия

Поиск по коду:
• Векторный поиск по эмбеддингам
• Запрос нужных файлов с клиента
• Анализ и ответ на основе контекста

Синхронизация через Merkle Trees:
• Каждые 3 минуты сравнение деревьев клиент-сервер
• Переиндексация только измененных файлов
• Эффективное использование ресурсов

Anyrun: оркестратор агентов 🤖

Написанный на Rust сервис для запуска AI-агентов в облаке:

• AWS EC2 — для корпоративных клиентов
• AWS Firecracker — микро-ВМ с запуском за 125мс
• Изоляция процессов — безопасность на уровне ВМ
• Снапшоты — сохранение состояния для быстрого восстановления

Инженерные вызовы 🚧

Проблемы масштабирования:
• Рост использования в 100 раз за год
• Миллиарды эмбеддингов ежедневно
• Один из крупнейших клиентов OpenAI

Проблема холодного старта:
• При падении всех нодов перезапуск критичен
• Нужно контролировать трафик при восстановлении
• Приоритизация пользователей во время инцидентов

Шардинг и его сложности:
• Ручное разделение индексов в Pinecone
• Недоиспользование ресурсов (30% простоя)
• Сложные миграции между шардами

Миграции баз данных 🔄

От Yugabyte к PostgreSQL:
• Yugabyte не справлялся с нагрузкой
• Долгие транзакции в распределенной системе
• PostgreSQL на AWS RDS решил проблемы

От PostgreSQL к Turbopuffer:
• 22TB данных в RDS достигли лимитов
• Особенности VACUUM в PostgreSQL
• Экстренная миграция за 10 часов во время инцидента

Культура разработки 👥

Релизы:
• Каждые 2-4 недели (десктопное приложение)
• Консервативные feature flags
• Тщательное тестирование перед выпуском

Команда:
• 15 инженеров в инфраструктурной команде
• Культура экспериментов
• Использование собственного продукта

Будущие вызовы:
• Масштабирование reinforcement learning
• Тысячи GPU для обучения
• Сложная архитектура с множеством компонентов

Выводы 💡

• Небольшие команды могут превосходить гигантов при правильном подходе
• Облачные провайдеры критичны для быстрого масштабирования
• Надо быть очень осторожными с использованием стартап-продуктов в инфраструктуре - лучше доверять гиперскейлерам
• Создание продукта для собственной аудитории упрощает разработку

Cursor своим примером показывает, как 50 инженеров могут конкурировать с Microsoft и GitHub, фокусируясь на потребностях разработчиков.

@llm_notes

#cursor #vibecoding #tech_architecture #startup_scaling
OpenAI снизила цены на o3 на 80% и представила o3-pro 🚀

OpenAI объявила о значительном снижении стоимости модели o3 и запуске новой версии o3-pro через API.

Новые цены на o3: 💰
• Входящие токены: $2 за миллион
• Исходящие токены: $8 за миллион

Сама модель не изменилась — улучшили только инфраструктуру для более дешевого инференса.

o3-pro — более мощная версия: ⚡️
1️⃣ Входящие токены: $20 за миллион
2️⃣ Исходящие токены: $80 за миллион
3️⃣ На 87% дешевле предыдущей o1-pro
4️⃣ OpenAI советует использовать фоновый режим с o3-pro для долгих задач — это позволяет избежать таймаутов и дает возможность задачам завершаться асинхронно. Получается, это классный кандидат для Cursor Background Agents.

Ключевые особенности o3-pro: 🎯
Превосходит конкурентов в математике и науке на PhD уровне
• Поддерживает веб-поиск и анализ данных (но пока не поддерживает генерацию картинок и Canvas)
• Работает медленнее базовой версии

Доступность: 📅
• ChatGPT Pro/Team — уже доступно
• Enterprise и Edu — на следующей неделе

Что говорят тестировщики:
🔍 По словам тестера Бена Хайлака, o3-pro ощущается "намного умнее" предшественника и "очень отличается" от других передовых моделей. Самое удивительное в этом релизе — это ценообразование: модель стоит в разы дешевле старых версий при значительном скачке в интеллекте и возможностях.
Похоже что теперь для стадии планирования в vibecoding это самый подходящий вариант 😁

Кажется, что Windsurf и Cursor обновили цены на o3 сразу после анонса 📊

@llm_notes

#openai #o3pro #pricing #llm #chatgpt
Windsurf Wave 10: новый режим планирования и встроенный браузер 🌊

Windsurf выпустил обновление Wave 10 с двумя ключевыми функциями: встроенным браузером и режимом планирования. Рассмотрим кратко, что это значит для разработчиков.

Windsurf Browser 🌐

Встроенный браузер на базе Chromium интегрирован прямо в IDE. Основные возможности:

• ИИ-ассистент Cascade видит содержимое открытых вкладок
• Автоматическое использование контента веб-страниц без копирования (по сути аналог Stagewise для Cursor)
• Отладка фронтенда и просмотр логов в одном окне (аналог browser-tools-mcp, только встроенный в AI-кодер)
• Работа с документацией API без переключения между приложениями

Planning Mode 📋
Новый подход к долгосрочному планированию проектов:

1️⃣ Создает markdown-файл с целями и задачами 2️⃣ Синхронизируется между пользователем и ИИ 3️⃣ Обновляется автоматически при изменении контекста 4️⃣ Использует более мощную модель для долгосрочного планирования 5️⃣ Сохраняется локально и доступен для редактирования

Технические детали ⚙️

• Planning Mode доступен на всех платных тарифах
• Браузер находится в бета-версии
• Модель O3 стала дешевле в использовании
• Планируется добавление автоматизации веб-задач (по сути встроенный browser-use)

Обновление направлено на решение проблемы разрыва между краткосрочными действиями и долгосрочными целями в разработке. Браузер закрывает пробел в понимании ИИ контекста веб-активности разработчика.

2025 год превращается в настоящее поле битвы AI-браузеров. После Opera, Dia, Perplexity и Genspark теперь и Windsurf решил не отставать от трендов 📈

Ждем ответных шагов от команды Cursor!
Встроенный планировщик без необходимости настройки дополнительных кастомных агентных ролей, Memory Bank или Task Master теперь есть практически у всех популярных AI-кодеров: Windsurf, Claude Code.

@llm_notes

#windsurf #vibecoding #browser #planning #tools
🔍 Два новых инструмента для веб-поиска и исследований: Firesearch и GPT Researcher

Разработчики получили два интересных решения для автоматизации веб-исследований, которые решают разные задачи при работе с данными.

Firesearch: поиск и скрапинг в одном запросе

Firecrawl запустили эндпоинт /search, который объединяет поиск в интернете и извлечение контента в одном API-вызове. Теперь не нужно делать отдельные запросы для поиска и последующего скрапинга страниц. Что очень круто. Например, yandex search api в режиме нейро-поиска пока работает только по определенному спектру url (см. здесь).

Основные возможности:
• Поиск и извлечение контента одним запросом
• Настройка по языку, стране и временному диапазону
• Вывод в разных форматах: markdown, HTML, ссылки, скриншоты
• Интеграция с Zapier, n8n, MCP для Claude и OpenAI

Как устроен:
Firesearch использует Langgraph и Firecrawl и построен на основе одного основного компонента - LangGraphSearchEngine, который управляет всем процессом поиска через граф состояний LangGraph.
Система содержит 6 основных узлов обработки в графе состояний:
understand - анализ запроса пользователяplan - планирование стратегии поиска
search - выполнение поисковых запросов
scrape - извлечение дополнительного контента
analyze - анализ найденных источников
synthesize - синтез финального ответа
Подробнее в репозитории (где, кстати, есть возможность сразу сделать деплой на vercel со своими ключами Firecrawl и Openai) и на deepwiki (где можно не только подробно ознакомиться с архитектурой решения, но и позадавать интересующие вопросы, только не включайте опцию deep research - она почему-то работает бесконечно медленно)


GPT Researcher: opensource альтернатива дорогим deep research решениям

Пока крупные компании предлагают свои "Deep Research" функции за $200/месяц (OpenAI) или с ограничениями (Perplexity - 5 запросов в день), GPT Researcher предоставляет открытое решение.

Ключевые особенности:
1️⃣ Мультиагентная архитектура с планировщиком и исполнителем
2️⃣ Рекурсивные исследования с древовидной структурой анализа
3️⃣ Обработка 20+ источников за 3 минуты ($0.1 за отчет)
4️⃣ Глубокий анализ за 5 минут ($0.4 за расширенный отчет)
5️⃣ Отчеты свыше 2000 слов с цитированием источников

Как устроен
GPT Researcher использует Tavily для поиска и LangGraph для построения мультиагентной архитектуры.
Система состоит из 8 агентов:
Chief Editor - главный агент-координатор, который управляет командой через LangGraph
Researcher (gpt-researcher) - специализированный автономный агент для исследований
Editor - планирует структуру исследования
Reviewer - проверяет корректность результатов
Revisor - пересматривает результаты на основе обратной связи
Writer - составляет финальный отчет
Publisher - публикует отчет в различных форматах
Human - человек в цикле для обратной связи
Подобнее в репозитории и на deepwiki
Также у GPT Researcher есть отдельный репозиторий для MCP-сервера

Практическое применение 📊

Firesearch подходит для быстрого получения актуального контента с веб-страниц, а GPT Researcher - для комплексного анализа и создания детальных отчетов по исследуемым темам.

Оба инструмента можно интегрировать в существующие рабочие процессы и настроить под конкретные задачи.

@llm_notes

#webscraping #deepresearch #opensource #firecrawl #langgraph
🤖 Вышел интересный CEO playbook от Mckinsey по решению парадокса генеративного ИИ при помощи ИИ-агентов

Источник здесь

Суть парадокса:
почти 80% компаний используют генеративный ИИ, но столько же сообщают об отсутствии значимого влияния на прибыль. Это называют "парадоксом генеративного ИИ" 📊

🔍 В чем проблема

Дисбаланс между двумя типами решений:
• Горизонтальные (корпоративные копилоты, чат-боты) - быстро масштабируются, но дают размытые результаты
• Вертикальные (функциональные решения) - более трансформационные, но 90% застревают на стадии пилота

⚡️ Что такое ИИ-агенты

ИИ-агенты выходят за рамки реактивной генерации контента, становясь автономными исполнителями с возможностями:
• Планирование и память
• Интеграция с системами
• Проактивное выполнение задач
• Адаптация в реальном времени

💼 Реальные кейсы применения

1. Банк: модернизация legacy-систем
• Проблема: 400 компонентов ПО, бюджет $600+ млн
• Решение: гибридные "цифровые фабрики" с ИИ-агентами
• Результат: сокращение времени и усилий на 50%+

2. Исследовательская компания: качество данных
• Проблема: 500+ сотрудников на обработку данных, 80% ошибок
• Решение: мультиагентная система для анализа аномалий
• Результат: рост продуктивности на 60%+, экономия $3+ млн в год

3. Банк: кредитные меморандумы
• Проблема: недели на создание кредитных отчетов
• Решение: агенты для извлечения данных и составления отчетов
• Результат: рост продуктивности на 20-60%

🏗 Архитектура будущего: Agentic AI Mesh

Новая парадигма для управления экосистемой агентов:

Ключевые принципы:
1️⃣ Композитность (Composability) - любой агент легко интегрируется в mesh-сеть
2️⃣ Распределенный интеллект - задачи декомпозируются и решаются сетями взаимодействующих агентов
3️⃣ Развязка по слоям (Layered decoupling) - функции логики, памяти и оркестрации независимы друг от друга
4️⃣ Вендор-нейтральность - избежание привязки к проприетарным решениям (предпочтение отдается открытым протоколам, например, A2A и MCP)
5️⃣ Управляемая автономия - контроль поведения агентов

🎯 Три уровня трансформации процессов

Уровень 1: Помощь в задачах (5-10% улучшения)
• ИИ помогает в существующих процессах

Уровень 2: Автоматизация шагов (20-40% экономии времени)
• Агенты выполняют отдельные операции

Уровень 3: Переосмысление процесса (до 80% автономного решения)
• Полная перестройка рабочих процессов вокруг агентов

⚠️ Основные вызовы

Технические:
• Управление новыми рисками
• Интеграция кастомных и готовых решений
• Адаптация к быстро развивающимся технологиям

Организационные:
• Взаимодействие человек-агент
• Контроль автономии
• Предотвращение неконтролируемого распространения

🚀 Что нужно для успеха

Четыре ключевых направления:

1️⃣ Люди: обучение сотрудников, новые роли
2️⃣ Управление: контроль автономии, предотвращение хаоса
3️⃣ Технологии: архитектура для взаимодействия и масштабирования
4️⃣ Данные: ускорение продуктизации данных

📈 Новый подход к ИИ-трансформации

Переход от:
• Разрозненных инициатив → к стратегическим программам
• Отдельных кейсов → к бизнес-процессам
• Изолированных ИИ-команд → к кросс-функциональным группам
• Экспериментов → к промышленному масштабированию

🎯 Роль CEO

Время экспериментов заканчивается. Руководители должны:
• Завершить фазу экспериментов
• Перестроить модель управления ИИ
• Запустить первые трансформационные проекты

ИИ-агенты - это не просто технологический шаг, а основа операционной модели следующего поколения 🔮

@llm_notes

#agents #genai #digital_transformation #business_automation #mckinsey
Сравнение подходов: как строить AI-агентов в продакшене 🤖

Думаю, что будет интересно всем. Две крупные AI-компании одновременно опубликовали диаметрально противоположные взгляды на архитектуру агентов.
Cognition утверждает "не стройте мульти-агентов", а Anthropic напротив детально описывает свою мульти-агентную систему для Claude Research.

Позиция Cognition: простота как залог надежности 🎯

Основные принципы:
• Общий контекст для всех операций
• Действия несут неявные решения
• Параллельные агенты создают конфликты

Почему мульти-агенты НЕ работают:
1️⃣ Потеря контекста между агентами
2️⃣ Противоречивые решения подагентов
3️⃣ Сложность отладки и координации
4️⃣ Накопление ошибок в цепочке

Cognition предлагает линейную архитектуру с единым потоком выполнения и компрессией истории для длинных задач.

Подход Anthropic: сложность под контролем ⚡️

Архитектура Advanced Research:
• Главный агент-координатор
• Специализированные подагенты для поиска
• Параллельное выполнение задач
• Система цитирования

Ключевые решения:
1️⃣ Детальное делегирование задач
2️⃣ Масштабирование усилий под сложность запроса
3️⃣ Параллельные вызовы инструментов
4️⃣ Расширенный режим мышления

Результаты: мульти-агентная система превосходит одиночного агента на 90% в исследовательских задачах.

Сравнение подходов 📊

Управление контекстом:
• Cognition: единый поток, компрессия истории
• Anthropic: распределенный контекст, память системы

Обработка ошибок:
• Cognition: минимизация точек отказа
• Anthropic: graceful degradation, retry логика

Производительность:
• Cognition: предсказуемость и стабильность
• Anthropic: скорость через распараллеливание задач

Сложность разработки:
• Cognition: простая отладка, линейный флоу
• Anthropic: сложная координация, но больше возможностей

Когда какой подход использовать 🎪

Линейные агенты (Cognition):
• Задачи с высокими требованиями к надежности
• Ограниченные ресурсы на разработку
• Последовательные рабочие процессы

Мульти-агенты (Anthropic):
• Исследовательские задачи
• Высокая ценность результата
• Возможность распараллеливания задач

Выводы 💡

Оба подхода имеют право на существование.

Выбор зависит от:
• Типа задач
• Требований к надежности
• Бюджета на разработку
• Опыта команды

Главное - понимать все trade-offs и не пытаться решить все задачи одним универсальным подходом.

@llm_notes

#agents #multi_agent_systems #production_ai #claude_research #battle #anthropic #cognition
🤖 MiniMax представила модель M1 с рекордным контекстным окном

Китайский стартап MiniMax выпустил открытую модель M1 с контекстным окном в 1 миллион токенов. Модель показывает результаты, сопоставимые с ведущими открытыми моделями (а также с топовыми моделями Openai - o3 и Anthropic - Claude 4 Opus), при значительно меньших затратах на обучение.

Основные характеристики:

• Контекстное окно: 1M входных токенов
• "Бюджет размышлений": 80k токенов для вывода
• Особенно эффективна в разработке ПО и использовании инструментов (tool calling)
• Превосходит конкурентов в задачах с длинным контекстом

Технические детали:

1️⃣ Использован новый алгоритм обучения CISPO (Clipped IS-weight Policy Optimization)
2️⃣ Скорость обучения в 2 раза выше существующих методов
3️⃣ Полное обучение заняло 3 недели
4️⃣ Общая стоимость обучения: $535,000

Подробности в отчете

💡 Значение для индустрии:


Китайские лаборатории продолжают развивать открытые модели, расширяя границы возможностей работы с контекстом. Эффективность обучения M1 показывает, что новые подходы в архитектуре могут существенно снизить затраты на создание мощных ИИ-систем.
С таким большим контекстным окном было бы неплохо данную модель взять за основу в следующих версиях YandexGPT :)

💡 Как самим потестировать:

• Модель доступна на huggingface
• Есть также подробное описание на Github
• Чат-бот на базе этой модели здесь
• MCP-сервер модели тут

@llm_notes

#minimax #openai #longcontext #training #chinese
Как отслеживать расходы на Claude Code 💰

Если вы пользователь Claude Max или Pro и задаетесь вопросом, стоит ли Claude Code своих денег — просто посмотрите на статистику расходов.

Без детального анализа сложно оценить эффективность затрат. Некоторые задачи могут обходиться в $5 за каждый запуск, что серьезно бьет по бюджету 💸

Есть два полезных инструмента для отслеживания использования Claude Code:

1️⃣ ccusage
• CLI-инструмент для анализа использования токенов Claude Code
• Помогает легко выявить ресурсозатратные задачи
• Работает с локальными JSONL файлами

2️⃣ claude-code-costs
• Предоставляет визуальную разбивку стоимости сессий Claude
• Показывает расходы в динамике по времени
• Полезен для контроля бюджета

Основные возможности:
🔹 Расчет общих затрат по всем диалогам
🔹 Ежедневная разбивка расходов за последние 30 дней
🔹 Топ-20 самых дорогих диалогов
🔹 Фильтрация по проектам
🔹 Интерактивные HTML-отчеты с графиками

Установка и использование:
npx ccusage@latest
npx claude-code-costs


Оба инструмента анализируют данные из ~/.claude/projects/ и не требуют дополнительной настройки 🛠

Определенно стоит попробовать, если регулярно используете Claude Code для работы.

@llm_notes

#claude #cost #budget #development #vibecoding
This media is not supported in your browser
VIEW IN TELEGRAM
Zen MCP Server: интеграция Claude Code с другими AI-моделями 🤖

Несмотря на то, что Claude Code необычайно быстр и удобен, думаю, что многие из вас уже сталкивались с ситуацией когда он иногда "слегка забывает" предыдущие шаги при работе со сложными задачами из-за ограничений контекстного окна (даже при использовании опции /compact). В этот момент хочется следовать проверенному временем процессу.
Я когда работаю в Cursor/Windsurf/Roo для анализа существующей кодовой базы обычно использую Gemini 2.5 Pro, а для планирования использую o3 или o3-mini/o4-mini.
При использовании Claude Code у нас есть возможность использовать для планирования и сложного траблшутинга Claude 4 Opus, во всех других случаях - Claude 4 Sonnet.
Claude 4 Opus дорогой и даже при использовании Claude Max 5x плана (за $100 в месяц) можно близко подойти к лимитам его использования, и в голову начинает приходить мысль "а не перейти ли на Max 20x plan за $200 долларов в месяц", которых мне пока что жалко :)

Zen MCP Server позволяет решить эти проблемы, позволяя Claude Code взаимодействовать с другими моделями, у которых и контекстное окно значительно больше, и reasoning-способности на очень хорошем уровне.

Что это дает 📈

• Доступ к Gemini 2.5 Pro с контекстом до 1M токенов
• Работа с GPT O3 и другими моделями
• Возможность передать всю кодовую базу проекта для анализа

Основные инструменты 🛠

1️⃣ chat — мозговой штурм и обзор кода
2️⃣ thinkdeep — глубокий анализ сложных проблем
3️⃣ planner — пошаговое планирование
4️⃣ consensus — получение мнений от нескольких моделей
5️⃣ codereview — профессиональный код-ревью
6️⃣ precommit — проверка перед коммитом
7️⃣ debug — диагностика и исправление багов
8️⃣ analyze — анализ больших файлов
9️⃣ refactor — рефакторинг кода
🔟 tracer — отслеживание зависимостей
1️⃣1️⃣ testgen — генерация тестов
1️⃣2️⃣ настраиваемые инструменты

Поддерживаемые провайдеры 🌐
• Google Gemini (нативный API)
• OpenAI (O3 модель)
• OpenRouter (множество моделей через один API)
• Локальные модели (Ollama, vLLM, LM Studio)

Особенности⚡️
• Автоматический выбор подходящей модели для задачи
• Продолжение диалогов между моделями
• Работа с изображениями и диаграммами
• Обход ограничений MCP в 25K токенов

Проект с открытым исходным кодом, лицензия Apache 2.0.
Deepwiki по проекту здесь.
Настройка через Docker занимает около 5 минут.

@llm_notes

#claude #mcp #ai_tools #code_review #gemini
🚀 Cursor Agents теперь доступны в браузере и на мобильных устройствах

Разработчики Cursor расширили возможности своих AI-агентов — теперь они работают не только на десктопе, но и в веб-браузере, и на мобильных устройствах.

Что нового:

🌐 Кодинг откуда угодно — запускайте агентов из любого браузера или мобильного устройства для работы со своими задачами по написанию кода

⚙️ Фоновое выполнение задач — агенты вносят изменения в кодовую базу, создают pull request'ы и выполняют задачи без постоянного контроля (см. background agents)

🔄 Бесшовная передача на десктоп — продолжайте работу с того места, где остановились веб-агенты, прямо в Cursor IDE для проверки и доработки

🤖 Параллельное тестирование агентов — запускайте одну и ту же задачу на разных AI-моделях одновременно для сравнения результатов

Теперь можно задать задачу Cursor-агенту с телефона в кафе, а когда вернетесь к рабочему месту — просмотреть готовые изменения в редакторе. Агенты работают с реальной кодовой базой (нужно интегрировать cursor с github), что делает процесс разработки более гибким и продуктивным 📱💻

Подробности в официальном блоге Cursor тут

@llm_notes

#cursor #vibecoding #development #productivity #mobile
🚀 Как Shopify внедряет ИИ: опыт руководителя инженерного отдела

Коллеги, добрый вечер!

Сегодня хочу обратить ваше внимание на очень интересное интервью (Ч1 | Ч2 | Ч3) с Фарханом Таваром, руководителем инженерного отдела Shopify, о том, как компания полностью перешла на ИИ и какие результаты это принесло.

🔍 Ранние эксперименты с ИИ

Shopify начала использовать инструменты ИИ задолго до хайпа вокруг ChatGPT:

"Мы уже давно используем инструменты искусственного интеллекта в инженерии. Я уверен, что мы были первой компанией за пределами GitHub, которая начала использовать GitHub Copilot. Это был 2021 год, за год до появления ChatGPT." - Фархан Тавар

Интересно, что Shopify получила доступ к Copilot, когда он еще не был доступен для коммерческого использования. Компания не платила за него около 2 лет, потому что не было тарифного плана, но взамен предоставляла много обратной связи.

💻 Инструменты ИИ в Shopify

Сейчас в компании используют несколько ключевых инструментов:

• GitHub Copilot - первый инструмент, который начали использовать
• Cursor - редактор с интегрированным ИИ
• Claude Code - для агентных рабочих процессов
• Внутренний прокси LLM - для безопасной работы с данными

Самое интересное, что Cursor активно используется не только инженерами:

"Финансы, продажи, поддержка — вот команды, которые используют Cursor. Они создают MCP-серверы для доступа к сервисам, а затем создают домашние страницы для себя." - Фархан Тавар

🧠 Философия использования ИИ

В Shopify есть несколько необычных подходов к использованию ИИ:

1️⃣ Нет ограничений на расходы на токены ИИ. Компания даже ведет таблицу лидеров, где чествует людей, которые используют больше всего токенов!

2️⃣ Руководство считает, что 1000 долларов в месяц на инженера за инструменты ИИ - это слишком дешево, если они повышают продуктивность хотя бы на 10%.

3️⃣ Компания рекомендует использовать более мощные (и дорогие) модели вместо моделей по умолчанию.

4️⃣ В процессе собеседований кандидатам разрешается и даже рекомендуется использовать ИИ-инструменты.

👨‍💻 Трансформация найма и обучения

Одно из самых интересных решений Shopify - масштабное расширение программы стажировок:

"В прошлом году у нас было около 25 стажёров за семестр. Я убедил Тоби (CEO) расширить программу до тысячи стажёров в год, основываясь на гипотезе, что они будут более восприимчивы к искусственному интеллекту, чем остальные сотрудники."

Компания верит, что молодые специалисты, выросшие в эпоху интернета, смартфонов и языковых моделей, помогут трансформировать корпоративную культуру.

🛠 Внутренние инструменты и практики

Shopify создала собственную экосистему для работы с ИИ:

• Внутренний прокси LLM для безопасной работы с данными
• Около 20 MCP-серверов для доступа к различным системам
• Библиотека промптов, которой могут пользоваться все сотрудники
• Система GSD ("Get Shit Done") с интегрированным ИИ для управления проектами

Интересно, что компания внедрила ИИ-компонент, который анализирует последние запросы на проверку кода и обсуждения в Slack, а затем формирует проект отчета о ходе работ.

🔑 Советы для компаний, желающих внедрить ИИ

Фархан Тавар считает, что самое главное - это личный пример:

"Ничто не работает лучше, чем демонстрация на собственном опыте. Вы должны сами активно применять эти технологии. Если вы пишете код, показывайте коллегам свой рабочий процесс с использованием ИИ, делитесь в общих каналах своими вопросами."

Также важно создать инфраструктуру, которая облегчает использование ИИ, и поощрять экспериментирование.

🌟 Ключевые выводы

1️⃣ Не экономьте на инструментах ИИ - их стоимость окупается повышением продуктивности

2️⃣ Привлекайте молодых специалистов, которые естественным образом воспринимают ИИ

3️⃣ Создавайте инфраструктуру для безопасного использования ИИ внутри компании

4️⃣ Поощряйте экспериментирование и обмен опытом

5️⃣ Показывайте личный пример использования ИИ

Интересно, что Shopify не боится инвестировать в ИИ и рассматривает его как долгосрочное преимущество, а не временное увлечение.

@llm_notes

#ai #engineering #shopify #productivity
Media is too big
VIEW IN TELEGRAM
Claudia: долгожданный GUI для Claude Code — обзор возможностей 🖥

Никто, наверное, сейчас не будет спорить, что Claude Code от Anthropic с момента своего выхода в свет показал себя, как мощнейший AI-инструмент для разработки, но работа через командную строку подходит не всем, да и добавлять скрины интерфейса приложения в него в процессе траблшутинга не так удобно как в том же Cursor.
Claudia решает эту проблему, предоставляя графический интерфейс и дополнительные возможности.

Что такое Claudia? 🤔


Claudia — это open-source десктопное приложение, построенное на Tauri 2, которое превращает Claude Code в полноценную IDE-подобную среду. Работает на Windows, macOS и Linux.

Основные возможности 🛠

(очень советую посмотреть "крышесносную" 2х минутную демку)

Управление проектами:
• Визуальный браузер всех Claude Code проектов
• Возобновление прошлых сессий с полным контекстом
• Умный поиск по проектам и сессиям

Кастомные агенты:
• Создание специализированных AI-агентов
• Настройка системных промптов для конкретных задач
• Изолированная среда выполнения с детальными разрешениями

Аналитика и мониторинг:
📊 Dashboard с метриками использования 📈 Отслеживание расходов API в реальном времени 📋 Детальная разбивка по моделям, проектам и времени

Ключевые преимущества 💡

1️⃣ Полный контекст
В отличие от Cursor, Claude Code предоставляет доступ к полному контекстному окну модели (200K токенов), что значительно повышает качество работы.

2️⃣ Система чекпоинтов
• Создание точек сохранения в любой момент
• Визуальная временная шкала сессий
• Возможность отката изменений одним кликом
• Встроенный diff-viewer для сравнения версий

3️⃣ Удобство работы с изображениями Прямая вставка изображений в интерфейс без необходимости указывать пути к файлам.

4️⃣ MCP серверы
• Графическое управление Model Context Protocol серверами
• Импорт конфигураций из JSON
• Тестирование соединений через UI

Установка ⚙️

Требования:
• Node.js 18+
• Rust 1.70+
• Bun
• Git
• Claude Code CLI

Процесс установки:

git clone https://github.com/getAsterisk/claudia.git
cd claudia
bun install
bun run tauri build

У меня вся процедура заняла около 5 минут

Практическое применение 🎯

Примеры использования:
• Создание веб-приложений (например, клон Notion)
• Разработка мобильных прототипов
• Автоматизация рефакторинга кода
• Написание unit-тестов

Типы агентов которые можно создать:
• Web Search Agent — для поиска документации
• Security Scanner — проверка уязвимостей (просто 🔥)
• Code Quality Checker — анализ качества кода
• Bug Fixer — автоматическое исправление ошибок

Ограничения ⚠️

• Сборка только из исходного кода (пока нет готовых релизов)
• Лицензия AGPL (важно для коммерческого использования)
• Некоторые функции еще в разработке
• Claude Code недоступен на Windows (только через WSL)

Заключение 📝

Claudia превращает мощный, но сложный в использовании Claude Code в доступный инструмент с богатым функционалом. Особенно полезна Claudia будет для разработчиков, которые предпочитают графические интерфейсы командной строке.

Проект активно развивается и уже сейчас предлагает функциональность, сопоставимую с коммерческими решениями.

@llm_notes

#claudecode #vibecoding #claudia #development #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
Новые инструменты Replit Agent: веб-поиск, расширенное мышление и высокопроизводительный режим 🚀

Отличные новости для тех, кто как и я любит пользоваться Replit (много раз писал об этом инструменте для вайбкодинга, можно найти на канале по хэш-тегу #replit) для быстрого прототипирования стильных full-stack приложений.
Дизайн получается "из коробки" красивым, GUI работает "шустро", и можно спокойно добавлять бэкенд практически любой сложности (а не как в lovable или тем более bolt, которые сильно расчитывют на BaaS от Supabase), к тому же никаких проблем с деплоем - приложение разворачивается и публикуется парой кликов, и сразу мониторится.

Replit представил три новые функции для своего AI-агента, которые существенно расширяют возможности разработки приложений.

Веб-поиск 🔍


Агент теперь может самостоятельно искать информацию в интернете во время создания приложений. Вместо того чтобы вручную собирать данные и предоставлять контекст, достаточно описать задачу — агент найдет необходимую информацию сам.

Примеры использования:
• Поиск актуальных библиотек и пакетов
• Создание образовательных материалов с актуальными данными
• Анализ конкурентов
• Поиск бесплатных источников данных

Расширенное мышление 🧠

Функция дает агенту больше времени на "размышления" и анализ задачи. Это приводит к более точным решениям с первого раза и лучшей обработке сложных случаев.

Высокопроизводительный режим ⚡️

Включает модель Claude Opus 4 с увеличенным контекстным окном и улучшенными возможностями рассуждения для решения сложных задач.

Важные особенности ⚠️

1️⃣ Обе функции (расширенное мышление и высокопроизводительный режим) увеличивают стоимость использования

2️⃣ Веб-поиск включен по умолчанию для новых проектов, но требует активации в настройках агента

3️⃣ Комбинация всех трех функций значительно повышает качество результатов и сокращает количество итераций

Практический результат 📈

Как утверждают разработчики Replit, сочетание этих инструментов превращает агента из "младшего разработчика" в более опытного помощника, способного решать сложные задачи самостоятельно с минимальным количеством правок. Очень хочется в это верить. И будем проверять. В прошлый раз при переходе на более сложную модель Claude 3.7 агентая цепочка Langgraph внутри Replit Agent работала хуже, чем на Claude 3.5.

@llm_notes

#replit #ai #webdev #coding #aitools
2025/07/04 20:54:37
Back to Top
HTML Embed Code: