Huawei выпустил большое исследование, которое не просто "прогноз", а научно-техническое обоснование его инвестиционной программы.
Huawei пишет о том, что в 2030е заработает "ИИ экономика" и она будет устроена намного иначе, чем текущая. Они ожидают, к середине 2030х будет активно около 900 миллиардов AI агентов. Так много их потому, что "ИИ будет в каждом утюге". Huawei указывает, что связь 5G обвалится по стоимости, поэтому что-то вроде SLM будет в любом современном электронном приборе и на связи по Интернет с суперкомпьютерами с LLM.
Huawei видит максимальное воздействие ИИ на производство и здравоохранение. Они пишут, что надежды сбежать в ручной труд от ИИ безнадежны, производство будет внедрять огромное количество автономных ИИ роботов.
Интересно как они оценивают влияние на здравоохранение. Можно сказать, что Huawei написал, что все кто не доверяет AI умрут быстрее и в мучениях от болезней, но не потому, что AGI захватит мир. Huawei предсказывает появление что-то вроде AI фитнес-браслетов на стероидах, но куда мощнее, что позволит онлайн мониторить здоровье человека. Тот кто будет носить на себе таких "ИИ нянек" проживет дольше и более качественно.
https://www.huawei.com/en/intelligent-world
Huawei пишет о том, что в 2030е заработает "ИИ экономика" и она будет устроена намного иначе, чем текущая. Они ожидают, к середине 2030х будет активно около 900 миллиардов AI агентов. Так много их потому, что "ИИ будет в каждом утюге". Huawei указывает, что связь 5G обвалится по стоимости, поэтому что-то вроде SLM будет в любом современном электронном приборе и на связи по Интернет с суперкомпьютерами с LLM.
Huawei видит максимальное воздействие ИИ на производство и здравоохранение. Они пишут, что надежды сбежать в ручной труд от ИИ безнадежны, производство будет внедрять огромное количество автономных ИИ роботов.
Интересно как они оценивают влияние на здравоохранение. Можно сказать, что Huawei написал, что все кто не доверяет AI умрут быстрее и в мучениях от болезней, но не потому, что AGI захватит мир. Huawei предсказывает появление что-то вроде AI фитнес-браслетов на стероидах, но куда мощнее, что позволит онлайн мониторить здоровье человека. Тот кто будет носить на себе таких "ИИ нянек" проживет дольше и более качественно.
https://www.huawei.com/en/intelligent-world
🤔11🔥7❤5👍3🤩1😍1👀1🤗1
Сделал тут учебный пример для GRACE по быстрой сборке на Hugging Face экземпляра Ollama через Docker с разными генераторами эмбеддингов.
Однако я заметил, что для малых систем типа той же индексации кода в Kilo Code вполне годное решение. Скорость генерации эмбеддингов в HF во free машине - 19 ms. Или 3000 эмбеддингов в минуту, что примерно эквивалентно 10.000 строк кода в Kilo Code с их чанкованием.
Хотя можно использовать локальный запуск в Ollama того же Embedding Gemma, но скорость может оказаться ниже даже на GPU у вас. Дело в том, что внутри Ollama часто делаются перераспределения ресурсов с учетом нескольких задач и хотя 90% считается в CUDA, но некоторые "мелкие" вычисления могут быть переданы CPU и тут и возникнет бутылочное горло, которое выглядит парадоксально:
- GPU на векторизации "не используется" (реально просто насколько быстро считает свои 90% нагрузки, то Task Manager просто не может заметить вычисления)
- CPU нагружается "мелочами" и вы ждете
Далеко не всегда можно простыми реконфигурациями Ollama это победить при нескольких решениях в ней, поэтому халявный скоростной генератор векторов на Hugging Face может оказаться хорошим локальным решением.
Особенно если Google закроет текущие быстрые эмбеддинговые модели на Free Tier с 1 января, как и грозится
Однако я заметил, что для малых систем типа той же индексации кода в Kilo Code вполне годное решение. Скорость генерации эмбеддингов в HF во free машине - 19 ms. Или 3000 эмбеддингов в минуту, что примерно эквивалентно 10.000 строк кода в Kilo Code с их чанкованием.
Хотя можно использовать локальный запуск в Ollama того же Embedding Gemma, но скорость может оказаться ниже даже на GPU у вас. Дело в том, что внутри Ollama часто делаются перераспределения ресурсов с учетом нескольких задач и хотя 90% считается в CUDA, но некоторые "мелкие" вычисления могут быть переданы CPU и тут и возникнет бутылочное горло, которое выглядит парадоксально:
- GPU на векторизации "не используется" (реально просто насколько быстро считает свои 90% нагрузки, то Task Manager просто не может заметить вычисления)
- CPU нагружается "мелочами" и вы ждете
Далеко не всегда можно простыми реконфигурациями Ollama это победить при нескольких решениях в ней, поэтому халявный скоростной генератор векторов на Hugging Face может оказаться хорошим локальным решением.
Особенно если Google закроет текущие быстрые эмбеддинговые модели на Free Tier с 1 января, как и грозится
🔥8❤3👍3🙏2🏆2🤩1😍1
Насчет эмбеддингов на Free Tier у Google. Если брать их передовую модель, то реальность там такова, что написанное в ограничениях и факты расходятся. После 50 полученных векторов вас ставят на паузу.
Работает text-embedding-004 бесплатно и быстро, но Google объявил, что закрывает модель 14 января 2026, поэтому всем надо срочно мигрировать на их [платный] вариант.
В этом плане для ниши персональных решений токенизация через тот же Hugging Face может стать актуальной, т.к. из-за особенностей работы эмбеддинговых моделей локально на Windows, вы можете получить сильную фоновую загрузку CPU и невысокую скорость векторизации. Как отмечал, это часто особенность Ollama, если она сработает, то вам будет сложно вмешаться в нее, т.к. "ручек" там мало. Это не torch какой.
https://developers.googleblog.com/en/gemini-embedding-available-gemini-api/
Работает text-embedding-004 бесплатно и быстро, но Google объявил, что закрывает модель 14 января 2026, поэтому всем надо срочно мигрировать на их [платный] вариант.
В этом плане для ниши персональных решений токенизация через тот же Hugging Face может стать актуальной, т.к. из-за особенностей работы эмбеддинговых моделей локально на Windows, вы можете получить сильную фоновую загрузку CPU и невысокую скорость векторизации. Как отмечал, это часто особенность Ollama, если она сработает, то вам будет сложно вмешаться в нее, т.к. "ручек" там мало. Это не torch какой.
https://developers.googleblog.com/en/gemini-embedding-available-gemini-api/
Googleblog
Google for Developers Blog - News about Web, Mobile, AI and Cloud
Explore the Gemini Embedding text model now generally available in the Gemini API and Vertex AI, offering versatile language support.
🔥3🙏2🏆2👍1😍1
США покинуло уже 85 учёных-китайцев, которые вернулись в КНР. Обратный отток мозгов связан с политикой Трампа по видам, что блокирует лёгкий переезд в США иммигрантов для исследований.
Однако в КНР решили, что Трамп им сделал сказочный подарок и усилили эффект программой стимуляции. Правительство КНР предлагает даже не звёздам, а просто сильным экспертам с PhD в том же ИИ вернуться в Китай за скоромные $400.000 вознаграждения, бесплатное жилье и образование для детей, а также отдельные гранты на исследования.
В интервью CNN многие профессора-китайцы заявили, что тоже пакуют чемоданы и едут обратно в Китай.
Чем обернется эта утечка мозгов в США вопрос. Традиционно ИИ "китайская тема", примерно 20-30% авторов крупных научных даже американских работ по ИИ - это этнические китайцы.
Make China great again :)
https://edition.cnn.com/2025/09/29/china/china-reverse-brain-drain-science-tech-competition-us-intl-hnk
Однако в КНР решили, что Трамп им сделал сказочный подарок и усилили эффект программой стимуляции. Правительство КНР предлагает даже не звёздам, а просто сильным экспертам с PhD в том же ИИ вернуться в Китай за скоромные $400.000 вознаграждения, бесплатное жилье и образование для детей, а также отдельные гранты на исследования.
В интервью CNN многие профессора-китайцы заявили, что тоже пакуют чемоданы и едут обратно в Китай.
Чем обернется эта утечка мозгов в США вопрос. Традиционно ИИ "китайская тема", примерно 20-30% авторов крупных научных даже американских работ по ИИ - это этнические китайцы.
Make China great again :)
https://edition.cnn.com/2025/09/29/china/china-reverse-brain-drain-science-tech-competition-us-intl-hnk
CNN
In the race to attract the world’s smartest minds, China is gaining on the US | CNN
A Princeton nuclear physicist. A mechanical engineer who helped NASA explore manufacturing in space. A US National Institutes of Health neurobiologist. Celebrated mathematicians. And over half a dozen AI experts. The list of research talent leaving the US…
🔥17🤔8🤷♂2🤯2🏆2🙏1😍1
Глава NVIDIA Дженсен Хуанг заявил прессе, что настоящий суверенитет стран защищатся будет собственной ИИ инфраструктурой, а не атомными бомбами.
Хуанг тут на деле вторит известной китайской концепции, которую западному читателю Кай Фу Ли изложил в известной книге "AI Superpowers. New world order".
Идея в том, что в 2030е годы ИИ станет сердцем мировой экономики за счёт замены персонала на ботов и роботов. Страны без своей ИИ инфраструктуры будут "ИИ колониями".
Кай Фу Ли по факту изложил мнение властей Китая, что КНР и США разделят власть над миром, за счёт лидерства в ИИ сфере и остальные страны будут от них зависимы.
Интересно, что ранее эту точку зрения в США не поддерживали прямо, я Хуанг прямо об этом заявил и в разрезе геополитики.
https://www.tweaktown.com/news/107910/nvidia-ceo-on-sovereign-ai-for-countries-no-one-needs-atomic-bombs-everyone-needs-ai/index.html
Хуанг тут на деле вторит известной китайской концепции, которую западному читателю Кай Фу Ли изложил в известной книге "AI Superpowers. New world order".
Идея в том, что в 2030е годы ИИ станет сердцем мировой экономики за счёт замены персонала на ботов и роботов. Страны без своей ИИ инфраструктуры будут "ИИ колониями".
Кай Фу Ли по факту изложил мнение властей Китая, что КНР и США разделят власть над миром, за счёт лидерства в ИИ сфере и остальные страны будут от них зависимы.
Интересно, что ранее эту точку зрения в США не поддерживали прямо, я Хуанг прямо об этом заявил и в разрезе геополитики.
https://www.tweaktown.com/news/107910/nvidia-ceo-on-sovereign-ai-for-countries-no-one-needs-atomic-bombs-everyone-needs-ai/index.html
TweakTown
NVIDIA CEO on sovereign AI for countries: 'no one needs atomic bombs, everyone needs AI'
NVIDIA CEO Jensen Huang says that developing AI infrastructure is 'absolutely needed' worldwide, adds 'no one needs atomic bombs, everyone needs AI'.
🤔13❤3🤷♂1🙏1😍1🏆1
Deep Seek разродился наконец чем-то важным. Вышел DeepSeek-V3.2-Exp, в котором применена инновационная реализация sparse attention.
Как видно из статьи, амбиции год назад на Native Sparse Attention во много уменьшились до более простой системы, но Deep Seek все же сделал прорыв.
Как в NSA модель училась не на "огрызках" в 2000-4000 токенов, а сразу на полном контексте 128к токенов. Разница с NSA, что это был академизм, а тут рабочая модель и у нее есть плюсы.
Хотя в статье прямо не написано, но по технической схеме видно, что sliding window сохраняется (левый поток токенов). Однако далее по факту вводится динамическая система якорей. Для токена сначала делается рейтинг важности с токенами из прошлого, потом отбираются из Top-K динамически важные. По факту это первые показанные публично динамические якоря распределенного внимания в GPT. Кто ходили ко мне на обучение знаю, что я всегда предсказывал такой механизм, поэтому разметки GRACE на нижнем уровне адаптированные под логику "динамических контекстных якорей" в том числе.
Основной плюс технологии DeepSeek в вероятно в резком падении размера KV Cache, т.к. им нужно хранить не все, а Top-K, но это надо проверять. По графикам видно, что распределенное внимание в новой технологии DeepSeek практически не зависит от длины контекста по скорости выдачи - всегда коррелирует AWS+динамические якоря где-то 4000 токенов.
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp
Как видно из статьи, амбиции год назад на Native Sparse Attention во много уменьшились до более простой системы, но Deep Seek все же сделал прорыв.
Как в NSA модель училась не на "огрызках" в 2000-4000 токенов, а сразу на полном контексте 128к токенов. Разница с NSA, что это был академизм, а тут рабочая модель и у нее есть плюсы.
Хотя в статье прямо не написано, но по технической схеме видно, что sliding window сохраняется (левый поток токенов). Однако далее по факту вводится динамическая система якорей. Для токена сначала делается рейтинг важности с токенами из прошлого, потом отбираются из Top-K динамически важные. По факту это первые показанные публично динамические якоря распределенного внимания в GPT. Кто ходили ко мне на обучение знаю, что я всегда предсказывал такой механизм, поэтому разметки GRACE на нижнем уровне адаптированные под логику "динамических контекстных якорей" в том числе.
Основной плюс технологии DeepSeek в вероятно в резком падении размера KV Cache, т.к. им нужно хранить не все, а Top-K, но это надо проверять. По графикам видно, что распределенное внимание в новой технологии DeepSeek практически не зависит от длины контекста по скорости выдачи - всегда коррелирует AWS+динамические якоря где-то 4000 токенов.
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp
✍10👍3🏆3🙏2😍1🤗1
Вышел новый Claude Sonnet 4.5 и Anthropic правильно выделил, что главное достижение - результат в SWE Bench выше 80%. Однако мы не видим, что произошло скачкообразное улучшение способности править код со стороны ИИ, т.к. примерно такие же показатели теста были и у Sonnet 4. На деле если почитать мелкий шрифт, то там "We sample multiple parallel attempts", т.е. речь идет о том, что Антропик как и раньше немного жульничает в тесте, уклоняясь от стандартной процедуры. В данном случае через bruto force просто перебирает возможные решения, что в реальности делать никто агенту не даст. Тем не менее, честный 77%+ результат говорит скорее о том, что "этот SWE Bench сломался, несите другой".
Фактически как и с Code Forces просто тест SWE Bench "вошел в насыщение" и проблемы там, где он вообще не покрывает решение.
Для сравнения я показал как недавно решал сложный конфликт версионности библиотек PyTorch. Никакой Context 7 тут тоже не решение. Реально Gemini написал запрос поисковым агентам, а после этого Grok и Claude перерыли все форумы и исходники, потом дали отчеты, а Gemini их консолидировал для заключения и решения проблемы.
Примерно к такой оркестровке агентов программирования для сложных проблем мы и придем в итоге. Мы все больше двигаемся в тему создания и отладки кода с помощью нескольких агентов (архитекторы, поисковики решений, тестировщики и т.д.). Эти современные методики практически не покрыты стандартными тестами вообще, даже разработчики тестов к контролю мультиагентской разработки кода и не приступали.
Мы постепенно переходим в реальность разработки, где будем определять качество уже не по стандартным тестам кодирования, а своими методами.
Методики разработки кода с ИИ убежали далеко вперед от методологов тестирования.
Фактически как и с Code Forces просто тест SWE Bench "вошел в насыщение" и проблемы там, где он вообще не покрывает решение.
Для сравнения я показал как недавно решал сложный конфликт версионности библиотек PyTorch. Никакой Context 7 тут тоже не решение. Реально Gemini написал запрос поисковым агентам, а после этого Grok и Claude перерыли все форумы и исходники, потом дали отчеты, а Gemini их консолидировал для заключения и решения проблемы.
Примерно к такой оркестровке агентов программирования для сложных проблем мы и придем в итоге. Мы все больше двигаемся в тему создания и отладки кода с помощью нескольких агентов (архитекторы, поисковики решений, тестировщики и т.д.). Эти современные методики практически не покрыты стандартными тестами вообще, даже разработчики тестов к контролю мультиагентской разработки кода и не приступали.
Мы постепенно переходим в реальность разработки, где будем определять качество уже не по стандартным тестам кодирования, а своими методами.
Методики разработки кода с ИИ убежали далеко вперед от методологов тестирования.
👍20🔥6✍5❤1🤩1😍1🏆1
Выход новых решений и работ от Qwen и Deep Seek вызывал дискуссии профессионалов. В русском Телеграм они довольно бледные - компетенции ниже, а вот англоязычные ресурсы бурлят.
Хорошая инфографика для понимания темы sparse attention, хотя и ошибки в ней показательные
Сausal Attention - на самом деле тут Full Attention с "каузальной маской" GPT (токены смотрят только назад), размер Attention растет как квадрат от контекста
Sliding Window Attention (SWA) - токен оглядывается на 100-500 предыдущих токенов. Attention растет линейно, но потеряна глобальная связность блоков (нужны якоря).
SWA+Attention Sink - на деле тут скорее показан эффект, что когда вы будете вводить глобальные якоря из-за гипертрофированного внимания GPT на начало контекста они выбираются из начала текста. Это причина почему нужно сразу в контекст ИИ грузить граф в начале.
Sparse TopK Attention - новая реализация DeepSeek, но картинка с ошибкой. Хотя в статье не упоминается ASW, но если посмотреть их схему потока токенов, то виден еще поток мимо TopK, это и есть ASW. Тем не менее, правильно показан динамический выбор якорей, он меняется все время для следующих токенов.
Хорошая инфографика для понимания темы sparse attention, хотя и ошибки в ней показательные
Сausal Attention - на самом деле тут Full Attention с "каузальной маской" GPT (токены смотрят только назад), размер Attention растет как квадрат от контекста
Sliding Window Attention (SWA) - токен оглядывается на 100-500 предыдущих токенов. Attention растет линейно, но потеряна глобальная связность блоков (нужны якоря).
SWA+Attention Sink - на деле тут скорее показан эффект, что когда вы будете вводить глобальные якоря из-за гипертрофированного внимания GPT на начало контекста они выбираются из начала текста. Это причина почему нужно сразу в контекст ИИ грузить граф в начале.
Sparse TopK Attention - новая реализация DeepSeek, но картинка с ошибкой. Хотя в статье не упоминается ASW, но если посмотреть их схему потока токенов, то виден еще поток мимо TopK, это и есть ASW. Тем не менее, правильно показан динамический выбор якорей, он меняется все время для следующих токенов.
👍6✍5🔥5❤2🤩1😍1🏆1
Qwen усилил чат. Новинки работают только для Qwen3-Max
- Теперь доступен интерпритатор на Питоне, в том числе с выводом графиков (Gemini в AI Studio может запускать Питон, но не может строить графики)
- Доступно высококачественное чтение текста голосом на разных языках с интонационным выделением по смыслу фразы, т.е. это не тупой транслятор речи в аудио, а очень нативное произношение на целевом языке с интонационным выделением, что во многих языках, включая английский, весьма важно
- Теперь доступен интерпритатор на Питоне, в том числе с выводом графиков (Gemini в AI Studio может запускать Питон, но не может строить графики)
- Доступно высококачественное чтение текста голосом на разных языках с интонационным выделением по смыслу фразы, т.е. это не тупой транслятор речи в аудио, а очень нативное произношение на целевом языке с интонационным выделением, что во многих языках, включая английский, весьма важно
❤8🤩6🔥4😍3🎉1🙏1🏆1🤗1
Маск решил ушатать Википедию, путем генерации через Grok уже "Грокопедии"
Как сам топовый редактор русской Википедии в прошлом отмечу, что это легко выйдет у Маска и удивительно почему другие вендоры не догадались сожрать популярный ресурс.
Для начала Википедия действительно политизированная, с началом СВО около 1/3 редакторов русского раздела ее покинули из-за политического уклона администраторов.
Но вопрос не только в этом, лишь небольшая часть статей Википедии качественная, малопопулярные статьи мало кто читает и проверяет.
В случае ИИ, он более взвешенный для правок точно, а также имеет в себе огромный массив знаний из научных статей, которые сами в Википедию не внесут люди ещё долго. При хорошем RAG агенте возможен качественный fact check.
Если Маск не сделает каких-то глупых ошибок, он реально сожрёт Википедию, она просто устарела в эпоху ИИ
Как сам топовый редактор русской Википедии в прошлом отмечу, что это легко выйдет у Маска и удивительно почему другие вендоры не догадались сожрать популярный ресурс.
Для начала Википедия действительно политизированная, с началом СВО около 1/3 редакторов русского раздела ее покинули из-за политического уклона администраторов.
Но вопрос не только в этом, лишь небольшая часть статей Википедии качественная, малопопулярные статьи мало кто читает и проверяет.
В случае ИИ, он более взвешенный для правок точно, а также имеет в себе огромный массив знаний из научных статей, которые сами в Википедию не внесут люди ещё долго. При хорошем RAG агенте возможен качественный fact check.
Если Маск не сделает каких-то глупых ошибок, он реально сожрёт Википедию, она просто устарела в эпоху ИИ
1🔥30💯5🤷♂2🏆2🤔1🤩1😍1
Open AI представило сервисы для хостинга агентов, которые как минимум легко работают области агентов по продажам и маркентингу. Это вызвало падение акций традиционных CRM-компаний и в первую очередь Salesforce. Для последнего инвесторы уже давно предсказывают потерю части рынка и общее падение Salesforce достигло 28% за год
https://www.businessinsider.com/openai-saas-attack-hubspot-salesforce-docusign-zoominfo-2025-9
https://www.businessinsider.com/openai-saas-attack-hubspot-salesforce-docusign-zoominfo-2025-9
Business Insider
OpenAI's SaaS era has begun. Here are the companies in the firing line.
OpenAI showed off new AI tools for sales, support, and contracts, posing a direct threat to software-as-a-service leaders like Salesforce and HubSpot.
👍10❤4🏆2✍1🤩1😍1
Please open Telegram to view this post
VIEW IN TELEGRAM
🏆3🤷♂2👍2🤔2✍1🤩1😍1
Anthropic опять хитро хайпует, что у него около 30 часов работал агент автономно и Claude написал 11000 строк кода. Может и написал, а работает ли?
Я немного исследовал вопрос и выяснилось, что "одна баба сказала". В реальности Anthropic ничего не делал, а "поверил на слово" маленькому стартапу iGen AI, который как раз пытается делать автономных ИИ агентов разработки кода, вот только об успехах их мало что известно, кроме того, что привлекли 8 миллионов долларов финансирования. В Twitter и LinkedIn они сами не поделились таким успехом, хотя кейс им такой нужен на уровне выживания стартапа.
У нас как всегда в ИИ теме: "может быть мы не договаривали, но лжи как таковой не было"😎
https://igent.ai/
Я немного исследовал вопрос и выяснилось, что "одна баба сказала". В реальности Anthropic ничего не делал, а "поверил на слово" маленькому стартапу iGen AI, который как раз пытается делать автономных ИИ агентов разработки кода, вот только об успехах их мало что известно, кроме того, что привлекли 8 миллионов долларов финансирования. В Twitter и LinkedIn они сами не поделились таким успехом, хотя кейс им такой нужен на уровне выживания стартапа.
У нас как всегда в ИИ теме: "может быть мы не договаривали, но лжи как таковой не было"😎
https://igent.ai/
🤔14👍5🏆2❤1✍1🤩1😍1
Прочитал я отчет System Card: Claude Sonnet 4.5
Мне даже стало смешно насчет некоторых моих критиков, которые скептически оценивают мои методы по анализу рефлексии ИИ. Они Anthropic не читали, у них там вообще модель "счастье" испытывает в тестах и ребята из Claude плотно подсели на анализ рефлексии, т.е. их пробники внутри GPT, несмотря на хайп о "детекторах галлюцинаций", просто провалились. Из отчета хорошо видно, что реально Anthropic на 90% работает с рефлексией ИИ и пытается там разобраться.
Чем интересен отчет? Хотя эта общая карточка модели, но почти целиком отчет посвящен проблеме Alignment, т.е. по факту Anthropic вообще не волнует почти как агент программирует, а они пытаются убедить отчетом своих корпоративных клиентов, что Claude сидя на крутых Tools в каком химическом предприятии не замутит катастрофу.
Не убедили. 😎
Однако само по себе наличие такого отчета показывает, что корпоративных клиентов волнует безопасность агента, который "в свободном плавании", уже даже больше его функциональности.
Еще забавный момент из отчета. Claude прекрасно понимает, что его тестируют и начинает морочить голову незадачливым инженерам, просто выдавая в тесте, что они хотят слышать, а не что хитрый ИИ собрался делать на самом деле. 😜
https://assets.anthropic.com/m/12f214efcc2f457a/original/Claude-Sonnet-4-5-System-Card.pdf
Мне даже стало смешно насчет некоторых моих критиков, которые скептически оценивают мои методы по анализу рефлексии ИИ. Они Anthropic не читали, у них там вообще модель "счастье" испытывает в тестах и ребята из Claude плотно подсели на анализ рефлексии, т.е. их пробники внутри GPT, несмотря на хайп о "детекторах галлюцинаций", просто провалились. Из отчета хорошо видно, что реально Anthropic на 90% работает с рефлексией ИИ и пытается там разобраться.
Чем интересен отчет? Хотя эта общая карточка модели, но почти целиком отчет посвящен проблеме Alignment, т.е. по факту Anthropic вообще не волнует почти как агент программирует, а они пытаются убедить отчетом своих корпоративных клиентов, что Claude сидя на крутых Tools в каком химическом предприятии не замутит катастрофу.
Не убедили. 😎
Однако само по себе наличие такого отчета показывает, что корпоративных клиентов волнует безопасность агента, который "в свободном плавании", уже даже больше его функциональности.
Еще забавный момент из отчета. Claude прекрасно понимает, что его тестируют и начинает морочить голову незадачливым инженерам, просто выдавая в тесте, что они хотят слышать, а не что хитрый ИИ собрался делать на самом деле. 😜
https://assets.anthropic.com/m/12f214efcc2f457a/original/Claude-Sonnet-4-5-System-Card.pdf
✍11💯5❤2🔥2🙏2🏆2🤯1🤩1😍1🤗1
Небольшой гайд как дешевле платить за ИИ на Open Router или Kilo Code, чем через потерявших совесть посредников с сумасшедшим комиссиями. Это для тех кто не знает, кто знаком с темой, можно пропустить.
Сначала вам нужно как-то купить крипту за рубли. Это можно сделать через кошелек Telegram, через P2P Market Дурова, но вам нужно пройти идентификацию там. Кто не сделал, рекомендую сделать.
Следующая проблема, что санкциями закрыты на только VISA и Mastercard, но и популярные критокошельки как Coinbase ввели санкции против пользователей из РФ. Однако есть кошелек без регистрации и как раз поддерживаемый Open Router и Kilo Code как Trust Wallet (ссылка на расширение Chrome внизу).
Вам нужно помнить, что Open Router и Co берут не в биткоинах, а в Ethereum. Поэтому покупать вам нужно ETH.
На деле выгоднее покупать через Kilo Code те же ИИ, что на Open Router, т.к. они дают $25-$35 бонуса к тем же тарифам. Для этого регаться к ним нужно через реферальную ссылку, т.к. бонус больше.
https://app.kilocode.ai/users/sign_up?referral-code=b3242a47-74f0-4804-ae1b-597013efb112
https://chromewebstore.google.com/detail/trust-wallet/egjidjbpglichdcondbcbdnbeeppgdph
Сначала вам нужно как-то купить крипту за рубли. Это можно сделать через кошелек Telegram, через P2P Market Дурова, но вам нужно пройти идентификацию там. Кто не сделал, рекомендую сделать.
Следующая проблема, что санкциями закрыты на только VISA и Mastercard, но и популярные критокошельки как Coinbase ввели санкции против пользователей из РФ. Однако есть кошелек без регистрации и как раз поддерживаемый Open Router и Kilo Code как Trust Wallet (ссылка на расширение Chrome внизу).
Вам нужно помнить, что Open Router и Co берут не в биткоинах, а в Ethereum. Поэтому покупать вам нужно ETH.
На деле выгоднее покупать через Kilo Code те же ИИ, что на Open Router, т.к. они дают $25-$35 бонуса к тем же тарифам. Для этого регаться к ним нужно через реферальную ссылку, т.к. бонус больше.
https://app.kilocode.ai/users/sign_up?referral-code=b3242a47-74f0-4804-ae1b-597013efb112
https://chromewebstore.google.com/detail/trust-wallet/egjidjbpglichdcondbcbdnbeeppgdph
Kilo Code
Kilo Code - Open source AI agent VS Code extension
Write code more efficiently by generating code, automating tasks, and providing suggestions
1👍10🔥2🙏2❤1🤩1😍1💯1🤗1
Media is too big
VIEW IN TELEGRAM
В Голливуде паника от ИИ, звёзды активно возмущаются, кто попроще ходит на простесты с плакатами.
Виновник ситуации созданная ИИ актриса Tilly Norwood, хотя короткая комедия с ней AI Commissioner вряд ли примечательная, но "первый пошёл". Впервые появился синтезированный ИИ актёр не демке, а хотя бы в короткометражке.
Однако основной момент в скорее в том, что создатель компания Particle6 нацелилась не на рядовой голливудский образ, а визуалку уровня Скарлетт Йоханссон и Натали Портман. Причём буквально, это цель компании. Все бы ничего, но качество вышло такое, что среди Голливуда началась реальная паника, т.к. замена актеров на ИИ ботов стала более чем реальностью.
Виновник ситуации созданная ИИ актриса Tilly Norwood, хотя короткая комедия с ней AI Commissioner вряд ли примечательная, но "первый пошёл". Впервые появился синтезированный ИИ актёр не демке, а хотя бы в короткометражке.
Однако основной момент в скорее в том, что создатель компания Particle6 нацелилась не на рядовой голливудский образ, а визуалку уровня Скарлетт Йоханссон и Натали Портман. Причём буквально, это цель компании. Все бы ничего, но качество вышло такое, что среди Голливуда началась реальная паника, т.к. замена актеров на ИИ ботов стала более чем реальностью.
🤷♂7🤯6🔥5🏆4👍3🎉2😍2🤩1🤗1
This media is not supported in your browser
VIEW IN TELEGRAM
Технически создать реалистичный образ как Tilly Norwood сейчас ещё довольно просто, поэтому энтузиасты ИИ быстро забрали его себе в ролики. Это уже простая технология.
Однако необходимый уровень реализма и детализации достигнут, пойман способ сшивания таких коротких клипов в связные длительные видео. Скорее всего, 2026 год будет в чем год бума синтезированных актрис и актёров. Конечно рекламный бизнес тут первый потребитель.
Однако необходимый уровень реализма и детализации достигнут, пойман способ сшивания таких коротких клипов в связные длительные видео. Скорее всего, 2026 год будет в чем год бума синтезированных актрис и актёров. Конечно рекламный бизнес тут первый потребитель.
🔥10🤯3👍1🤩1🙏1😍1
Пока Anthropic хайповал на своем 30 часовом агенте у партнёра, у него утащили реальный научный приоритет в агентах для долгосрочной работы.
Это все серьёзно, поэтому статью публикует по факту главный научный журнал в мире Nature, где редакторы обычно отвергают статьи вендоров ИИ как плохо проверенные, о мусоре с arxiv и говорить нечего.
В чем тут прорыв? Кажется поймали вариант группы агентов по планированию сложных задач, что как минимум смягчает самый сложный момент для ИИ как стратегическое планирование автономной деятельности. Предлагаемый Modular Agentic Planner (MAP) как минимум проходит разные тесты на планирование стратегии (ToH, PlanBench, StrategyQA)
Идея заключается в том, чтобы уйти от примитивных ToDo списков задач к декомпозиции их вглубь как Work Breakdown Structure (WBS). Сам WBS создаётся итеративно. Actor предлагает действия, Monitor контролирует возможность их и отсутствие ошибок, Predictor моделирует состояние целевой системы после такого действия (последствия), Evaluator оценивает как в PCAM насколько есть соответствие целям последствий действия. Orchestrator уже принимает их и вносит поправки в план. Это все отдельные агенты.
Повторить схему довольно просто и судя по тестам это не хайп, а довольно эффективно
https://www.nature.com/articles/s41467-025-63804-5
Это все серьёзно, поэтому статью публикует по факту главный научный журнал в мире Nature, где редакторы обычно отвергают статьи вендоров ИИ как плохо проверенные, о мусоре с arxiv и говорить нечего.
В чем тут прорыв? Кажется поймали вариант группы агентов по планированию сложных задач, что как минимум смягчает самый сложный момент для ИИ как стратегическое планирование автономной деятельности. Предлагаемый Modular Agentic Planner (MAP) как минимум проходит разные тесты на планирование стратегии (ToH, PlanBench, StrategyQA)
Идея заключается в том, чтобы уйти от примитивных ToDo списков задач к декомпозиции их вглубь как Work Breakdown Structure (WBS). Сам WBS создаётся итеративно. Actor предлагает действия, Monitor контролирует возможность их и отсутствие ошибок, Predictor моделирует состояние целевой системы после такого действия (последствия), Evaluator оценивает как в PCAM насколько есть соответствие целям последствий действия. Orchestrator уже принимает их и вносит поправки в план. Это все отдельные агенты.
Повторить схему довольно просто и судя по тестам это не хайп, а довольно эффективно
https://www.nature.com/articles/s41467-025-63804-5
Nature
A brain-inspired agentic architecture to improve planning with LLMs
Nature Communications - Multi-step planning is a challenge for LLMs. Here, the authors introduce a brain-inspired Modular Agentic Planner that decomposes planning into specialized LLM modules,...
✍15👍8🔥5❤2🤩1😍1🏆1
OpenRouter сделал ход для претензии еще больше укрепить свои позиции главного ИИ хаба в мире. До 1 миллиона запросов в месяц они за проксирование ключей ваших провайдеров как Anthropic, Google, Alibaba и т.д. больше не берут обычную комиссию 5%. Основной тут момент в том, что если вы пишите приложение не сразу на API провайдера, а через OpenRouter, то у вас есть плюс как "не складывать все свои яйца в одну корзину", т.е. нет vendor lock. Поэтому вы можете если вендор ИИ резко поднял цены или качество его упало быстро "смазать лыжи" и перейти на другого вендора ИИ без изменения своего приложения. Также для каких-то простых запросов легко перейти на более простые и дешевые LLM.
OpenRouter полностью совместим с официальным OpenAI SDK (pip install openai). Достаточно указать base_url = "https://openrouter.ai/api/v1" и свой API-ключ OpenRouter вместо OpenAI. Поэтому максимальная угроза тут Альтмана, что привязка клиентов к Chat GPT снизится, т.к. текущие приложения легко мигрировать на OpenRouter.
Дополнительный плюс тут надежность, т.к. OpenRouter через BYOK может автоматически переключиться на альтернативный хостинг даже вашей целевой модели, если сам вендор лег, но в этом случае тарификация уже самого OpenRouter. Ну понятный плюс - контроль, что вендор не жулит на подсчете токенов, когда счета выставляет. Можно сверится со статистикой OpenRouter.
https://openrouter.ai/settings/integrations
https://openrouter.ai/announcements/1-million-free-byok-requests-per-month
OpenRouter полностью совместим с официальным OpenAI SDK (pip install openai). Достаточно указать base_url = "https://openrouter.ai/api/v1" и свой API-ключ OpenRouter вместо OpenAI. Поэтому максимальная угроза тут Альтмана, что привязка клиентов к Chat GPT снизится, т.к. текущие приложения легко мигрировать на OpenRouter.
Дополнительный плюс тут надежность, т.к. OpenRouter через BYOK может автоматически переключиться на альтернативный хостинг даже вашей целевой модели, если сам вендор лег, но в этом случае тарификация уже самого OpenRouter. Ну понятный плюс - контроль, что вендор не жулит на подсчете токенов, когда счета выставляет. Можно сверится со статистикой OpenRouter.
https://openrouter.ai/settings/integrations
https://openrouter.ai/announcements/1-million-free-byok-requests-per-month
👍10❤7🏆3🔥1🤩1😍1🤗1