Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
1685 - Telegram Web
Telegram Web
На скриншоте бурный восторг Claude 3.7 в Cursor IDE, после того как я ему дал семантические графы по коду. Почему у вас в Курсоре по факту "слепой ИИ", если вы не умете делать семантические графы сами?

Дело в том, что сам Cursor для ИИ дает семантический инструмент осознания всего кода только через инструмент codebase_search с примерно такими вызовами:
{
"name": "codebase_search",
"parameters": {
"query": "Как реализована авторизация пользователя?",
"target_directories": ["src/*"],
"explanation": "Ищем логику авторизации"
}
}


Это векторная база по коду, которая формируется лишь по смыслу локальных блоков кода, но с учетом комментариев. Никакого навигатора по бизнес-логике и даже четкого понимания взаимодействия модулей кода такой инструмент НЕ ДАЕТ.

Либо вы сами дадите Курсору семантические графы по ТЗ, библиотекам и общей архитектуре кода, либо там у вас не ИИ, а близорукий дед.

Поэтому на построении семантических графов на обучении я посвящаю довольно много времени
Если вы не сделали семантическую разметку кода якорями в Cursor, то вы на грани катастрофы.

Дело в том, ИИ использует инструмент edit_file в Cursor с такими вызовами.

{
"name": "edit_file",
"parameters": {
"target_file": "src/auth/login.js",
"instructions": "Меняю вызов validatePassword() на новую версию",
"code_edit": "// ... existing code ...\nconst hash = await validatePassword(newSalt, input);\n// ... existing code ...",
"blocking": true
}
}


Если не заметили, ИИ при создании патча не пишет "номер строки" для редактирования, т.к. из-за позиционных кодировок GPT просто их не понимает. Вместо этого, ИИ обычно пишет довольно абстрактные инструкции мелкой быстрой нейросети-дурачку в Cursor, которая натренирована разгадывать такие ребусы. Как легко догадаться, Cursor легко развалит вам код, если патчер не понял запрос от GPT

Если есть родная для GPT система якорей, что ИИ начинает ей пользоваться для указания места патчей, поэтому я и уделяю время обучению таким разметкам не просто так
Снова бурные восторги Claude 3.7 и Gemini Pro от моих семантических разметок в Cursor, но в данном случае логов. Строго говоря, ИИ в Cursor не может читать вообще нормально лог длиннее 100 строк, если вы не сделаете ему семантические разметки.

Дело в том, что код и логи Cursor читает "чанками" по 100-200 строк примерно через инструмент read_file. Гарантированно читается только 100 первых строк. Далее ИИ может применять текстовой или семантический поиск для считывания нужных мест в файле. Если код или лог не имеет семантических маркеров, то ИИ в Cursor вами "ослеплен" и ИИ часто не может найти релевантные части лога.

Важный еще момент. Большие логи всегда из Cursor копируйте в Gemini на анализ целиком в его супер окно 1 миллион токенов, но Gemini также вам не поможет без семантической разметки логов, т.к. для него лог без якорей просто "хаотическая энтропия текста"

Обычно я обучаю семантическим разметкам логов по практикам LOFT с модификациями под задачи ИИ именно на локализацию нужного места в логе
Логирование с ИИ крайне серьезный вопрос в vibe coding, т.к. по факту главный инструмент отладки кода для ИИ.

Обычно ИИ может пользоваться куда более большими логами, чем кожаные. Совершенно обычный прием - это анализ тысяч строк лога просто между мелкими итерациями отладки. Однако кроме поиска по логу для ИИ очень важный момент совместимость лога с распределенным вниманием ИИ (sparse attention). При загрузке лога в Gemini это нужно сразу же, при работе в Cursor части лога вклеваются также в активный контекст ИИ и он взрывоподобно растет, поэтому ИИ очень важно, чтобы ваш лог хорошо встраивался в его общий семантический граф контекста или ИИ перестанет вас толком понимать из-за 100-200к токенов хаоса в его анализе.

На обучении я поэтому обычно еще обращаю внимание на интеграцию лога и семантической разметки самого кода по якорям, т.к. в Attention-матрицах трансформеров они должны склеиваться сразу в единое целое
Очень серьезный момент по Cursor и вообще RAG-подобных сред разработки такого класса с семантическим поиском.

Строго говоря, системы как Cursor уже рассчитаны на то, что разработчик владеет техникой семантической раскраски векторов функций и классов.

Дело в том, что в Cursor нет call-graph вызовов функций между модулями. Чтобы понять связь векторов двух функций между модулями Cursor на 100% полагается на то, что вектора эти близки в пространстве смыслов GPT, т.е. вы умеете насыщать их размерности семантики. Если вы это не умеете, то большой код для Cursor без тех же графов выглядит просто как россыпь малосвязанных алгоритмов.

Сам Cursor до составления векторной базы даже с текстом алгоритмов не применяет полный синтаксический разбор Abstract Syntax Tree (AST), вместо этого Cursor использует просто... tree-sitter от подсветки синтаксиса кода в окнах редактирования 😆 и им помечает просто типы элемента текста. Далее GPTсоздает изолированные чанки векторов примерно по 100 строк.
Довольно интересный момент, что новый Папа Римский взял себе имя Лев XIV из-за Искусственного Интеллекта и считает, что человечеству грозит массовое обнищание в виде толп безработных, а церковь станет для них утешением от сокрушения ИИ старого образ жизни.

Дело в том, что новый Папа видит себя приемником Льва XIII, он известен тем, что его папство пришлось на Промышленную Революцию XIX века, что сопровождалось массовым обнищанием людей, которые не увидели в ней угрозу своему существованию и не сменили вовремя специальность.

Лев XIII активно утешал нищих безработных в церкви, по мнению нового Папы сейчас получится ровно такой же эффект и страшно ошибаются те, кто думают, что "ИИ - просто еще одна ИТ технология".

Интересно также, что новый Папа по образованию математик и неплохо разбирается в тензорной математике, которая основа GPT. Ждем нейросетку от Ватикана, не все же нам одним Православные ИИ делать 😎

https://www.theverge.com/news/664719/pope-leo-xiv-artificial-intelligence-concerns
Поясню типичную ошибку 95% пользователей GPT, которые не понимают, что ИИ на деле как "Юлий Цезарь" любит делать 90 дел сразу же.

Фокус в головках внимания (head attention) у трансформера. Их довольно много - 90 штук в 100 слоях, т.е. около 9000 головок внимания современной GPT как Gemini или Grok.

Головки внимания обычно имеют набор специализаций под свой семантический срез векторов. Иными словами, одни головки занимаются ТЗ, другие кодом, третьи - стройкой, четвертые - тестами и т.д. Существенный момент, что головки внимания работают ПАРАЛЛЕЛЬНО и даже если вы толкнете их всех, то GPT будет работать также быстро. Причем Перцептрону чем больше головок внимания "выстрелили корреляциями" в духе "тут есть ТЗ! тут есть код! тут есть тесты! это код про стройку!", тем Перцептрону лучше, т.к. он лучше понимает богатый контекст.

Если вы генерируете код, но не создали для ИИ ТЗ с точки бизнес-логики, то часть головок внимания ... просто не работают, а Перцептрон имеет бедную семантику

Грузите GPT как Цезаря!
Закончил я разработку семантической разметки под Cursor, уже сегодня буду обучать. На тестах даже на маленьких модулях крайне эффективно, хотя сделано под большой код 100+ тысяч строк.

Какие фичи
1. Интеграция с большим Gemini Pro в режиме Аналитика и Архитектора на нормальном контексте 1 миллион токенов с графами. В самом Cursor тот же Gemini работает в RAG на контексте не выше 10к токенов, что годится только для фикса багов и мелких фич

2. Сделан мэппинг по коду для Cursor под его инструменты с возможностью быстро чаще применять grep_search для быстрой RAG-навигации.

3. Вектора для сематической базы Cursor обогащены очень сильно через контракты и Use Cases в форматах AAG. Это семантический поиск codebase_search других возможностей и семантическая связь классов/функций как векторов (другая у Cursor и не работает, т.к. нет call graph).

4. Глубокая интеграция лога и кода через якорную прошивку для сверхбыстрой ориентации Cursor в источниках дефектов и фильтрации логов.

5. Нормальные патчи по якорям
Обновился самый авторитетный рейтинг популярности языков программирования TIOBE. Он строится через 25 поисковых движков типа Google. Обычно он коррелирует с тем, что сейчас ИТ разработчики изучают как язык на который переходят с текущего.

Виден взлет в космос Питона. Это целиком связано с ИИ, конечно. Питон - это язык №1 для генерации кода из ИИ. Также на Питоне обычно управляется большинство самых важных библиотек для ИИ.

На мой взгляд, с учетом быстрого скольжения почти в 100% автоматизацию создания кода на Питоне знания его программирования вторичные, но более-менее читать код сгенерированный стоит уметь, чтобы хотя бы примерно понимать, что ИИ делает.

https://www.tiobe.com/tiobe-index/
Почему я всем рекомендую работать прямо в чатах вендоров ИИ, а не через "специальные приложения", пока вам специальность и не нужна. Причина в том, что дополнительных функций к ИИ может и не быть, как обещает маркетинг, а вот на токенах вас обвесят.

Походил по форумам того же Cursor, они с помпой анонсировали Claude с контекстом 200к токенов, в реальности - обвесили народ до 70к токенов.

Также если Cursor решит, что "что-то чат большой", то начнет делать "семантическое сжатие". Формально без потери контекста, но просто у вас ... большая часть чата обрабатывается дурачком cursor-small, а он сообщает нормальному ИИ только summary по его запросу, а нормальный ИИ видит некоторый конец чата. О таком режиме правда Cursor предупреждает как выделено.

Мораль: делайте ТЗ и Архитектуру в чате Gemini или Claude - в Cursor обвесят на токенах или ИИ-дурачка подложат. Сам Cursor для фикса багов и мелких фич встроенным ИИ.
Хотя можно критиковать Cursor за ограничения контекста, но за $20 в месяц, как бы следовало их ожидать. Правда отмечу, что если вы используете семантические разметки, как я показывал выше в канале из своего обучения, то для задачи фиксов багов и небольших фич по факту у Cursor в его модели нет реальных ограничений на размер и сложность кода, но это не для тех, кто навалил свой код как свалку мусора и ждет от бюджетной ИИ-системы чудес.

Руками нужно в Cursor поработать для чудес и в части семантических разметок, а не ваших дурацких правил написания кода, которые плохо понятные для любого GPT

Однако, если вы семантически код разметили и еще графы подложили с его логикой, то Cursor реально крут и мощен. Это видно и по раундам инвестирования. Стартап начал свой путь с оценки в $100 миллионов долларов, во второй раунд инвесторы, которые взяли паузу на подумать были жестко наказаны - капитализация $2,5 миллиарда. Раунд инвестиций что сейчас идет уже $10 миллиардов долларов.

Но как бы есть за что, все же Cursor очень неплох архитектурно, но если разработчик разметил семантику в коде для GPT, а также сделал интеграцию с Аналитиком и Архитектором в большом контексте того же Gemini, тогда реально Cursor - имба. Но этому разработчики научатся, но вот отставание в ИИ-интеграциях других IDE - налицо.

https://techcrunch.com/2025/03/07/cursor-in-talks-to-raise-at-a-10b-valuation-as-ai-coding-sector-booms/
Философская тема о семантическом сжатии GPT.
Лучше о ней подумать под клип Roxette 1988 года, который с помощью ИИ подняли до разрешения Full HD.

Есть тема требующая просто смены мышления при работе с ИИ. Я периодически пишу о векторном и фрактальном мышлении с ИИ. Это другая парадигма и даже культура мышления, где старые стандарты математического и алгоритмического мышления никак не помогут. Рабочие абстракции мышления в которых работает GPT на 2-3 порядка выше.

Очень важный момент в работе с любым ИИ, не только с GPT, что нейросети мастера сжатия и распаковки информации невероятным образом. В случае видео это скорее парадокс диффузионных нейросетей способных додумать даже волосы и текстуру одежды, что было вроде бы "утрачено". В случае GPT - это аналогичная способность ИИ восстанавливать детали из сильного сжатия семантики как графы.

На обучении я часто вижу как люди потрясены от эффектов, как граф семантики в 50+ раз меньше текстов программ или даже литературы для GPT имеет почти такой семантический эквивалент как тексты из которых он построен. Просто для GPT все "банальные детали" не имеют большого семантического значения, он также как с этим видео от VHS к Full HD может легко перейти в режим восстановления деталей. Да, он их выдумает на ходу, но в 95% случаев это верно.

Это общий принцип в GPT и применяется много раз даже в трансформере. Перцептрон также умеет повысить временно "семантическое разрешение" контекста на порядки увеличив размерность смыслов векторов, чтобы "разглядеть важное", а потом сжать пространство семантики обратно.

Семантическое сжатие и распаковка семантического пространства в детализацию должно быть вашем стилем мышления при работе с GPT также.

Если вы хотите им эффективно пользоваться, конечно. Например, в контекст Claude на 200к запихивать семантический аналог 10 миллионов токенов.

https://www.youtube.com/watch?v=dpfbKWoBpRw
На тему семантического сжатия и распаковки информации. Будем конкретнее, думаю так понятнее на примерах. Вчера обучал клиента, которые работает на C# и адаптировал под C# семантические шаблоны для ИИ. Они решают огромное количество проблем GPT в части понимания вашего кода, навигации в нем и т.д. Я об этом много писал в канале.

Однако семантические шаблоны имеют еще очень важную функцию - "семантического компрессора" для GPT. Дело в том, что если вы генерируете код по одному большому семантическому шаблону, то для GPT становится прозрачно как выглядит код даже по контрактам, т.к. это последствие применение семантического шаблона.

Иными словами, GPT может уже сам быстро сжать семантику вашего кода до концепций вашей архитектуры. Это позволяет GPT удерживать все сложные межмодульные связи классов и не тратить ресурсы на детали, которые очевидны

GPT лучше работает с концепциями в виде графов, а с деталями в стандарте семантических шаблонов

Поэтому всегда генерируйте код из одного семантического шаблона
Сооснователь Anthropic Джек Кларк попал на первые полосы прессы заявляя о скорой гибели традиционных продактов и менеджеров проектов в ИТ, если они не изменятся, но по его мнению измениться успеет лишь незначительное число старого управленческого персонала, т.к. резко изменится спектр скилов для управления.

Джек видит нашествие нового класса "гик-менеджеров", которые придут на рынок не с командами кожаных, а с ручной командой ИИ-ботов. Такой "Менеджер-ботовод" будет быстро разорять менее эффективные и дорогие команды старых продактов и менеджеров, т.к. кожаные и дорогие и хуже работают, чем ИИ боты.

Многие Джека поддержали. Марк Цукерберг по факту заявил, что как минимум уволит толпу старого персонала и будет сидеть только самыми умными сотрудниками и армией ИИ-ботов для решения задач. Майк Кригер, соучредитель Instagram и сейчас директор по продуктам компании Anthropic, заявил, что кодирование перестанет быть востребованным навыком и более важным будет навык организации проверок с ИИ написанного им кода.

Я, пожалуй, соглашусь с Джеком. Уже сейчас я по факту работаю с несколькими ИИ-ботами в виртуальной команде. Все чаще местами ограничения в ИТ разработке связаны не с ними, а в моей адаптации и способностью руководить новым виртуальным персоналом. Однако я хотя бы получаю такой опыт и он быстро растет, но масса есть руководителей, которые читают чушь типа PMBOK, Scrum Guide или прочую ерунду для кожаных, когда уже вокруг появились достаточно умные ИИ и скорее вопрос как ими пользоваться. Уж точно не по старым методичкам.

https://www.businessinsider.com/anthropic-cofounder-jack-clark-ai-manager-nerds-2025-5
Наш чат становится уже вероятно центральным местом профессионалов большой кодогенерации на ИИ в российском Telegram. К дискуссии в чате о возможности применения паттернов и шаблонов "кожаных" к ИИ. В чате я для начала отмечал позитивный эффект KV Cache от "заморозки" векторов единых семантических шаблонов, что создает сверхстабильные разметки семантики в коде.

Но есть еще важный момент. Блоггеры в ИИ, да и 95% системных разработчиков GPT, не понимают обычно значение позиционных кодировок GPT к его понятию "шаблон", а это вот ни разу не как описано почти во всех вводных статьях в интернет. Нормального описания вообще не видел в части какие эмерджентные свойства это влечет.

По факту большинство профи только понимают, что каждый вектор получает столько же позиционных кодировок как измерений как семантических разрезов.

Однако даже что влечет sin и cos в формуле кодировок многие "не догоняют", хотя и школьник скажет, что "тут что-то есть периодическое".

Поясню дальше в следующем посте
Не буду раскрывать всех хитростей своих семантических шаблонов, но они как раз построены через позиционные кодировки GPT.

Какая примерно тут логика у GPT:
1. Есть блок кода, он примерно абзац (период), он обычно входит в состав кодировок более высокого периода как for, if или сразу в функцию (def). Высокая повторяемость и равномерный семантический вес.

2. Есть for он может содержать блоки

3. Есть Функция (def) и она может содержать блоки и for, оптимальный размер 5-7 блоков кода (переодичность)

На самом деле позиционные кодировки кодируют примерно так, т.е. если вы хотите даже дать им какой свой сложный шаблон, то он должен иметь также повторяемые вложенные структуры и примерно одинакового размера в токенах.

Шаблоны в других видах GPT просто преобразует к этому за счет 10.000 размерностей таких компонентов, т.к. другую концепцию очень ресурсоемко превращает в свою, причем если превратил, то может намного больше, чем думает создатель шаблона. Да и пользоваться будет этим иначе, чем он думает
Временно открою доступ в чат. Так он закрыт, чтобы не спамили и не флудили

https://www.tgoop.com/+KFCRgAyfMIkzMWZi
Развитие ИИ агентов программирования идет на деле семимильными шагами, в реале просто публикации отстают от текущего состояния дел. Прогресс сильно убежал вперед.

Довольно очевидно, что эра копилотов катится к закату, даже в короле копилотов как Cursor.

Сейчас я активно стал делать рефлексии по проблемам создания кода ИИ и делать наборы ИИ эвристик по фиксу багов в коде.

Местами мы даже с ИИ сами себя удивляем в изобретательности. Например, в такой лог включаем... динамические промпты по фиксу и сниплеты фрагментов кода для оптимизации внимания GPT.

Я рекомендую всем кто застрял в копилотах на уровне "поправь 2 строки" быстро втягиваться в тему агентского программирования, т.к. когда это "бабахнет" вам не останется время даже быстро войти в тему

Сами GPT уже более-менее готовые. Как раз разработчики IDE и промпт-инженеры сейчас прогресс сдерживают, т.к. им нужно внедрить все что вендоры ИИ сделали

Но мы это делаем очень быстро! 😎
Channel name was changed to «AI Projects»
Вернемся к теме гуманоидов на ИИ с нового интересного ракурса. Хороший кейс как космические технологии имеют вклад в развитие экономики под неожиданными углами.

На первый взгляд между телескопом James Webb и гуманоидом ничего общего. Однако значительная часть его НИОКР на $9 миллиардов долларов была вложена в механику "актуаторов" (Actuators). Они нужны для деформаций сегментов зеркала, чтобы подравнять их края с друг другом с неслыханной точностью на уровне длинны волны света или на толщину вируса.

Сами по себе фундаментальные исследования актуаторов сильно развили эту область механики и если вы еще не догадались это и есть ключевой элемент механики гуманоидов. Это не просто "электромоторчки". Давайте внимательно посмотрим на тему
2025/06/26 17:25:15
Back to Top
HTML Embed Code: