Forwarded from Machinelearning
ZeroSearch — фреймворк на базе RL от Alibaba, который учит языковые модели искать данные, вообще не подключаясь к реальным поисковым системам.
Пайплайн ZeroSearch начинается с тонкой настройки (SFT): модель учат генерировать документы, похожие на вывод реального поисковика. Через промпты вида «создай пять полезных/мусорных документов» LLM осваивает 2 режима: релевантные ответы с правильными фактами и «мусор» с случайной информацией.
Дальше в дело вступает RL. Модель-агент взаимодействует с этим «виртуальным поисковиком»: сначала рассуждает в тегах <think>, затем генерирует поисковые запросы через <search>, а получив смоделированные документы, формирует окончательный ответ в <answer>.
Сквозь весь процесс происходит поэтапное усложнение. В начале тренировки 90% документов чистые, чтобы агент освоил базовую логику. С каждым шагом доля шума растет по специальной формуле: через 200 итераций вероятность получить бесполезный документ увеличивается вчетверо.
Это заставляет модель учиться фильтровать информацию даже в условиях хаоса. Чтобы избежать «смешивания» собственных выводов агента и сгенерированных документов, в градиентах маскируются токены чужих ответов — так фокус остается на улучшении стратегии поиска, а не на подгонке под шум.
На выходе получается автономный агент, который не просто ищет, но и учится когда искать, как формулировать запросы и что игнорировать. И все это без единого реального API, только симуляция и математика.
Итоги экспериментальных тестов выглядят позитивными. На датасете NQ ZeroSearch с моделью Qwen-2.5-7B-Instruct показала 43.24% точности (EM), оставляя позади Search-R1 с его 41.46%, хотя последний использует реальный Google. Для многосложных вопросов в HotpotQA разрыв еще заметнее: 29.21% против 34.55% у конкурента.
Но главное, 14B-версия модели превосходит живой поисковик по среднему показателю на 33.97% против 32.47% у Google. Интересно еще и то, как масштаб влияет на результат: 3B модель дает 33.97% точности, 7B — 38.61%, а 14B — уже 40.54%.
⚠️ В промпте к этим моделям необходимо добавить метки
[useful]
или [noisy]
. В инференсе модель возвращает 5 документов заданного типа.@ai_machinelearning_big_data
#AI #ML #LLM #ZeroSearch #Alibaba
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Bittensor — децентрализованный рынок машинного интеллекта. Этот необычный проект объединяет блокчейн и ИИ, создавая конкурентную среду для разработчиков ML-моделей.
Участники сети получают токены TAO за создание лучших моделей в различных категориях — от предсказания рынков до фолдинга белков. Проект имеет необычную архитектуру: основная цепь координирует работу независимых подсетей, где валидаторы оценивают качество моделей, а майнеры соревнуются в их создании.
🤖 GitHub
@machinelearning_ru
Участники сети получают токены TAO за создание лучших моделей в различных категориях — от предсказания рынков до фолдинга белков. Проект имеет необычную архитектуру: основная цепь координирует работу независимых подсетей, где валидаторы оценивают качество моделей, а майнеры соревнуются в их создании.
🤖 GitHub
@machinelearning_ru
NVIDIA’s New AI: Impossible Video Game Animations!
https://www.youtube.com/watch?v=7EA5JM1DI9Y
@machinelearning_ru
https://www.youtube.com/watch?v=7EA5JM1DI9Y
@machinelearning_ru
YouTube
NVIDIA’s New AI: Impossible Video Game Animations!
❤️ Check out Lambda here and sign up for their GPU Cloud: https://lambda.ai/papers
Guide for using DeepSeek on Lambda:
https://docs.lambdalabs.com/education/large-language-models/deepseek-r1-ollama/?utm_source=two-minute-papers&utm_campaign=relevant-vid…
Guide for using DeepSeek on Lambda:
https://docs.lambdalabs.com/education/large-language-models/deepseek-r1-ollama/?utm_source=two-minute-papers&utm_campaign=relevant-vid…
🔍 Vespa — поисковая платформа для работы с векторами и ML-моделями в реальном времени.
Проект предлагает нестандартный подход к обработке данных: он объединяет полнотекстовый поиск, векторные операции и ML-инференс в едином конвейере.
Платформа развертывается как в облаке, так и on-premise, а её архитектура оптимизирована для задач рекомендательных систем и персонализации. Хотя проект существует с 2003 года, он активно развивается — новые сборки выходят четыре раза в неделю.
🤖 GitHub
@machinelearning_ru
Проект предлагает нестандартный подход к обработке данных: он объединяет полнотекстовый поиск, векторные операции и ML-инференс в едином конвейере.
Платформа развертывается как в облаке, так и on-premise, а её архитектура оптимизирована для задач рекомендательных систем и персонализации. Хотя проект существует с 2003 года, он активно развивается — новые сборки выходят четыре раза в неделю.
🤖 GitHub
@machinelearning_ru
Introduction to Large Language Models (Google Cloud)
Онлайн-курс об архитектуре LLM, их применении и тонкой настройке.
🔗 https://www.cloudskillsboost.google/course_templates/276
ChatGPT Prompt Engineering for Developers (DeepLearning.AI & OpenAI)
Мини-курс по эффективному созданию промптов и использованию ChatGPT API.
🔗 https://learn.deeplearning.ai/chatgpt-prompt-eng
Learn Prompting (Open-Source Course)
Один из лучших бесплатных курсов по промпт-инжинирингу.
🔗 https://learnprompting.org/
Hugging Face Course
Базовый и средний уровень: трансформеры, токенизаторы, Datasets и Hub.
🔗 https://huggingface.co/course
Full Stack LLM Bootcamp (Fullstack Deep Learning)
Производственный уровень: инженерия запросов, LangChain, LLMOps.
🔗 https://fullstackdeeplearning.com/llm-bootcamp/spring-2023/
Stanford CS224N – Natural Language Processing with Deep Learning
Флагманский курс Стэнфорда по NLP с глубоким обучением.
🔗 https://cs224n.stanford.edu/
CS231n – Convolutional Neural Networks for Visual Recognition
Классический курс по компьютерному зрению.
🔗 http://cs231n.stanford.edu/
CS229 – Machine Learning (Stanford)
Продвинутый курс по ML с математическим уклоном.
🔗 https://cs229.stanford.edu/
AI for Everyone (Andrew Ng)
Обзорный курс по искусственному интеллекту для широкой аудитории.
🔗 https://www.deeplearning.ai/short-courses/ai-for-everyone/
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Google Cloud Skills Boost
Learn and earn with Google Cloud Skills Boost, a platform that provides free training and certifications for Google Cloud partners and beginners. Explore now.
This media is not supported in your browser
VIEW IN TELEGRAM
Задача под звездочкой.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Что умеет Wan2.1-VACE:
💡 Эти возможности можно свободно комбинировать, выполняя сложные креативные задачи.
🔍 Ключевые особенности:
▪ SOTA-производительность: Wan2.1 стабильно превосходит существующие open-source модели и даже коммерческие решения уровня state-of-the-art в ряде бенчмарков.
▪ Работает на обычных видеокартах: Модель T2V-1.3B требует всего 8.19 ГБ видеопамяти, что делает её совместимой почти со всеми пользовательскими GPU. Например, на RTX 4090 она генерирует 5-секундное видео 480P примерно за 4 минуты (без оптимизаций, таких как квантизация). Её производительность сопоставима с некоторыми закрытыми моделями.
▪ Мультизадачность: Wan2.1 демонстрирует хорошие результаты в задачах текст-в-видео, изображение-в-видео, видеомонтаж, текст-в-изображение и видео-в-аудио, продвигая границы генерации видео..
▪ Модель способна выдавать 1080P в теории любой длины, при этом сохраняя временную структуру.
- Размер модели: 1.3B и 14B
- Лицензия: Apache-2.
@ai_machinelearning_big_data
#Alibaba #wan #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
👾 MNN — глубокое обучение на мобильных устройствах от Alibaba. Фреймворк, разработанный инженерами Alibaba, стремительно набирает популярность как эффективное решение для запуска нейросетей на мобильных и embedded-устройствах.
MNN уже интегрирован в 30+ сервисов Alibaba, где обрабатывает 70+ сценариев — от рекомендательных систем до компьютерного зрения. Его ключевая особенность в кроссплатформенности: фреймворк работает даже на IoT-устройствах с минимальными ресурсами. Особый интерес представляет встроенный модуль для локального запуска языковых моделей на смартфонах и ПК.
🔗 Ссылка - *клик*
@machinelearning_ru
MNN уже интегрирован в 30+ сервисов Alibaba, где обрабатывает 70+ сценариев — от рекомендательных систем до компьютерного зрения. Его ключевая особенность в кроссплатформенности: фреймворк работает даже на IoT-устройствах с минимальными ресурсами. Особый интерес представляет встроенный модуль для локального запуска языковых моделей на смартфонах и ПК.
🔗 Ссылка - *клик*
@machinelearning_ru
В ElevenLabs запустили бесплатные пробные периоды для популярных инструментов — от озвучки текста до генерации картинок.
Что вы получите:
– Доступ в ElevenLabs на 3 месяца;
– Freepik с кредитами на $50;
– Mistral AI с кредитами на $25;
– Notion AI на полгода.
Получаем доступ по ссылке.
Что вы получите:
– Доступ в ElevenLabs на 3 месяца;
– Freepik с кредитами на $50;
– Mistral AI с кредитами на $25;
– Notion AI на полгода.
Получаем доступ по ссылке.
Media is too big
VIEW IN TELEGRAM
На COMPUTEX 2025 Дженсен Хуанг (CEO NVIDIA) представил обновлённую версию модели NVIDIA — Isaac GR00T N1.5, а также проект GR00T-Dreams.
🔹 Isaac GR00T N1.5 — это первое обновление открытой, универсальной и полностью настраиваемой базовой модели NVIDIA, предназначенной для обучения навыкам и логике поведения человекоподобных роботов.
🔹 По словам Дженсена, "обучение на у людей не масштабируется — нас ограничивает количество часов в сутках". Новый проект GR00T-Dreams позволяет генерировать огромное количество синтетических движений на основе одного изображения, ускоряя обучение роботов с помощью сжатых токенов действий.
🔹 Благодаря GR00T-Dreams удалось обучить модель GR00T N1.5 всего за 36 часов — процесс, который без этого подхода занял бы почти три месяца.
🔹 Обновление значительно повысило эффективность модели при выполнении стандартных задач в логистике и производстве. GR00T N1.5 можно будет запускать на новом устройстве Jetson Thor, релиз которого ожидается в этом году.
🔹 Isaac GR00T N1.5 — это первое обновление открытой, универсальной и полностью настраиваемой базовой модели NVIDIA, предназначенной для обучения навыкам и логике поведения человекоподобных роботов.
🔹 По словам Дженсена, "обучение на у людей не масштабируется — нас ограничивает количество часов в сутках". Новый проект GR00T-Dreams позволяет генерировать огромное количество синтетических движений на основе одного изображения, ускоряя обучение роботов с помощью сжатых токенов действий.
🔹 Благодаря GR00T-Dreams удалось обучить модель GR00T N1.5 всего за 36 часов — процесс, который без этого подхода занял бы почти три месяца.
🔹 Обновление значительно повысило эффективность модели при выполнении стандартных задач в логистике и производстве. GR00T N1.5 можно будет запускать на новом устройстве Jetson Thor, релиз которого ожидается в этом году.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Главным событием стал запуск Gemini Ultra — подписки за $249,99 в месяц, включающей доступ к Veo 3 (генератор видео со звуком), Imagen 4 (создание изображений) и Flow (редактор видео на базе ИИ). Для разработчиков анонсирован Stitch — инструмент, генерирующий код и UI по текстовому описанию или изображению.
Project Mariner, ИИ-агент для автоматизации веб-задач, теперь выполняет до 10 действий одновременно. В Gemini добавлены Live-режим с трансляцией экрана и интеграция с Google сервисами. Project Astra, мультимодальный ИИ с почти нулевой задержкой, будет использоваться в умных очках от Gentle Monster и Warby Parker.
В Поиске появится AI Mode для сложных запросов, а Beam (бывший Starline) предлагает 3D-телеконференции с переводом речи в реальном времени. В Workspace появятся умные ответы в Gmail и новые функции для Google Meet.
techcrunch.com
Apple анонсировала WWDC 2025: ключевое выступление пройдёт 9 июня в 10:00 PT, а трансляция будет доступна через Apple TV и на YouTube. Главной новостью станет выпуск SDK и фреймворков, позволяющих сторонним разработчикам внедрять ИИ-модели компании в свои приложения. Упор сделан на компактные локальные модели, работающие непосредственно на устройствах, — это отличает подход Apple от облачных решений конкурентов.
apple.com
Red Hat анонсировала обновления для RHEL, усилив интеграцию ИИ и контейнерных технологий. Теперь Red Hat Insights предлагает ИИ-рекомендации по выбору пакетов и планированию обновлений, упрощая подготовку систем под задачи ИИ-разработки. Сервис анализирует потребности инфраструктуры, помогает оптимизировать сборку образов и снижает риски при переходе на новые версии RHEL и AppStream.
Для изолированных сред в Red Hat Satellite 6.17 появился Insights advisor в виде контейнера — правила и исправления будут храниться локально и обновляться без интернета.
Satellite теперь поддерживает image mode, объединяя управление контейнерами и традиционными пакетами в единый рабочий процесс. Не осталась без внимания и безопасность: Insights proxy позволяет подключаться к аналитике RHEL через прокси, минуя прямое соединение с интернетом.
Обновления уже доступны через Hybrid Cloud Console для подписчиков RHEL.
businesswire.com
На мероприятии SAP Sapphire представлена Joule — ИИ-платформа для трансформации бизнес-процессов. Решение интегрируется с S4/Hana, Ariba, ServiceNow, Gmail и LinkedIn, используя ИИ для оптимизации CRM и финансовых операций. Уже сейчас платформа поддерживает 1600 навыков и 230 готовых ИИ-сценариев, а к концу 2025 года их число вырастет до 400.
Особый акцент был сделан на партнерстве с Perplexity: их поисковый движок станет основой для Joule. Гендиректор Perplexity подчеркнул преимущества технологии — широкий охват веба и скорость, опережающие Google и OpenAI.
community.sap.com
Tencent опубликовала техотчет Hunyuan-TurboS — гибридной LLM, сочетающей архитектуры Transformer и Mamba2. Ее ключевая фишка — адаптивный CoT, который автоматически переключается между быстрыми ответами для простых задач и глубоким анализом для сложных. Это экономит ресурсы: модель тратит на 47% меньше токенов при генерации, чем DeepSeek-R1.
Под капотом 128 слоев (57 Mamba2, 7 Attention, 64 FFN) с 56 млрд. активных параметров и 560 млрд. общих. Обучалась на 16 трлн. токенов, а контекстное окно расширено до 256 тыс. токенов благодаря NTK-позиционному кодированию.
В тестах LMSYS Chatbot Arena модель набрала 1356 баллов, войдя в топ-8. Она лидирует в китайском, французском и испанском сегментах, а в математике и STEM-задачах почти догоняет DeepSeek-V3. При этом скорость вывода в 1,8 раза выше, чем у чисто трансформерных аналогов.
Попробовать модель можно в демо-спейсе на HF.
Tencent-Hunyuan на Github
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
В статье собраны 50 лучших бесплатных или условно-бесплатных курсов (сертификат может быть платным), разделённых по уровням:
*Вводный (Beginner) → Промежуточный (Intermediate) → Продвинутый (Advanced).*
После каждого описания приведена полная кликабельная ссылка.
Please open Telegram to view this post
VIEW IN TELEGRAM
🧩 Scikit-Lego — неофициальное расширение для Scikit-learn с экспериментальными фичами.
Этот проект является коллекцией нестандартных трансформеров, моделей и метрик, которые часто приходилось писать вручную при работе с Scikit-learn. Здесь собрано все то, что не вошло в официальную библиотеку, но может пригодиться в реальных задачах.
Проект строго соблюдает API Scikit-learn, что позволяет легко встраивать компоненты в существующие пайплайны. При этом разработчики подчеркивают, что их детище это именно дополнение, а не замена классического Scikit-learn.
🤖 GitHub
@machinelearning_ru
Этот проект является коллекцией нестандартных трансформеров, моделей и метрик, которые часто приходилось писать вручную при работе с Scikit-learn. Здесь собрано все то, что не вошло в официальную библиотеку, но может пригодиться в реальных задачах.
Проект строго соблюдает API Scikit-learn, что позволяет легко встраивать компоненты в существующие пайплайны. При этом разработчики подчеркивают, что их детище это именно дополнение, а не замена классического Scikit-learn.
🤖 GitHub
@machinelearning_ru
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Intel представила 3 новых процессора серии Xeon 6, оптимизированных для управления GPU в ИИ-задачах. Модели на базе P-ядер используют технологии PCT и SST-TF и отличаются повышенной пропускной способностью памяти (на 30% быстрее аналогов) и на 20% большим числом PCIe-линий.
Intel заверяет, что надежность решений гарантирована — встроенные механизмы RAS-функций минимизируют простои. Сотрудничество с NVIDIA стало ключевым моментом: Xeon 6776P уже работает в системе NVIDIA DGX B300, которая позиционируется как одна из самых мощных ИИ-платформ на рынке.
Процессоры доступны для заказа. Intel ожидает роста спроса со стороны корпоративного сектора.
intel.com
Главное новшество — новая "Tab"модель, которая ускоряет навигацию и редактирование: теперь она предлагает изменения не только в текущем файле, но и нескольких файлах проекта, позволяя буквально «пролететь» через правки с помощью табов.
Режим Max Mode стал доступен для всех моделей: он расширяет контекстное окно и снимает лимиты на вызовы инструментов. Встроенный редактор (Command-K) тоже прокачали — теперь им можно править целые файлы, а не только фрагменты.
Для больших проектов добавили мульти-рутовые рабочие пространства и тегирование папок, чтобы подключать к контексту целые кодовые базы. Еще одна фишка — фоновые агенты: они выполняют задачи параллельно, помогая с дебагом, стилями или подготовкой PR. В ближайших планах — интеграция агентов с issue-трекерами, чтобы автоматизировать рутину.
Cursor в сети X (ex-Twitter)
Vercel открыла бета-доступ к своей ИИ-модели V0-1.0-md, заточенной под задачи фронтенда и фулл-стек разработки. Модель доступна через API и принимает текстовые или графические промпты и умеет исправлять в автоматическом режиме типовые баги, интегрируясь с инструментами, поддерживающими формат OpenAI.
Модель обучена на популярных фреймворках и обрабатывает до 128 тыс. токенов за раз (около 750 тыс. слов). Правда, тестировать новинку смогут только те, кто подключит премиум-план V0 ($20/мес.) или корпоративную подписку ($30 за пользователя/mec).
techcrunch.com
NVIDIA Research представила DreamGen — четырехэтапную систему генерации "нейронных траекторий» с помощью специальных видео-моделей для обучения роботов без предварительных демонстраций.
Сначала модель адаптируют под конкретного робота, затем генерируют видео с новыми сценариями по текстовым инструкциям. Из этих роликов извлекают псевдо-действия с помощью обратной динамики или латентных моделей, из которых формируют политики.
Эксперименты показали: чем больше синтетических данных, тем выше эффективность. При этом DreamGen работает на разных платформах — от дорогих манипуляторов до бюджетных моделей. Технология уже тестируется в реальных сценариях: от складов до домашних задач.
research.nvidia.com
SkyWork AI представила своего «супер-агента», который сразу занял первое место в GAIA Benchmark — ключевом тесте для ИИ-агентов. Система обошла конкурентов в первых двух уровнях сложности, а на третьем сравнялась с Manus.
Главный козырь: поддержка 5 форматов (Word, PPT, Excel, веб-кодинг, подкасты) с возможностью редактирования и отслеживания источников. Платформа максимально проста: вместо сложных промптов — выбор сценария и готовый результат.
Skywork Super Agents доступен как онлайн сервис (стоимость от $20/мес., есть пробный период), а для разработчиков открыли исходники фреймворка DeepResearch и API для вызова агентов по выбору.
globenewswire.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🏔️ DiffDock — ИИ для молекулярного докинга через диффузионные модели. Этот open-source проект использует диффузионные модели для предсказания, как маленькие молекулы будут связываться с белками. Точность превосходит традиционные методы на 20-30%, что подтверждено тестами на PDBBind и других бенчмарках.
Инструмент имеет трёхэтапный процесс: сначала предсказывается позиция лиганда, затем его ориентация, и наконец — конформационные изменения. В 2024 году вышла улучшенная версия DiffDock-L с поддержкой ESMFold для предсказания структуры белка по последовательности.
🤖 GitHub
@machinelearning_ru
Инструмент имеет трёхэтапный процесс: сначала предсказывается позиция лиганда, затем его ориентация, и наконец — конформационные изменения. В 2024 году вышла улучшенная версия DiffDock-L с поддержкой ESMFold для предсказания структуры белка по последовательности.
🤖 GitHub
@machinelearning_ru
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
OpenAI объявила об открытии первого офиса в Сеуле, реагируя на стремительный рост спроса на ChatGPT в Южной Корее. Страна занимает 2 место по числу платных подписчиков сервиса после США. Уже начат набор команды для укрепления местных партнерств, а детали проектов обещают раскрыть в ближайшие месяцы.
«От чипов до софта и от студентов до старшего поколения — корейская экосистема идеальна для внедрения ИИ», — отметил Джейсон Квон, директор по стратегии OpenAI. Ранее компания анонсировала сотрудничество с Kakao, разработчиком популярного мессенджера, для создания новых продуктов на базе ИИ.
bloomberg.com
С 27 мая техно-гигант начнет использовать публикации пользователей из Европы в своих соцсетях для обучения собственных ИИ-моделей. Пользователи могут попытаться ограничить доступ к своим данным, отправив запрос, но компания не гарантирует удовлетворение таких обращений — заявки будут рассматриваться «в соответствии с законами о защите данных».
Регуляторы Бельгии, Франции и Нидерландов уже выразили обеспокоенность таким подходом на фоне глобальных споров о сборе онлайн-данных для ИИ. Создатели моделей ИИ, в свою очередь, настаивают, что весь открытый контент пригоден для обучения, однако это инициирует судебные иски из-за нарушений авторских прав и приватности.
euronews.com
Модель o3 от OpenAI помогла выявить критическую уязвимость в модуле ksmbd ядра Linux, реализующем протокол SMB3. Речь идёт о CVE-2025-37899 — use-after-free в обработчике команды logoff, где освобождённый объект остаётся доступным для других потоков из-за отсутствия подсчета ссылок.
Автор исследования, ранее находивший подобные баги вручную, использовал o3 для анализа ~12 тыс. строк кода, что в итоге привело к обнаружению проблемы, требующей понимания параллельных подключений.
Хотя o3 выдает ложные срабатывания, ее способность анализировать код уже близка к человеческой.
sean.heelan.io
Команда SpeechLab (Alibaba Group) анонсировала CosyVoice 3 — новое поколение моделей для генерации речи, которое получило поддержку русского языка и улучшенную по сравнению с CosyVoice 2 передачу интонаций и эмоций.
Согласно препринту техотчета, в семействе 2 модели, на 0.5 и 1.5 млрд параметров с новым токенизатором MinMo. Модели обучались методом оптимизации наград DiffRO
на 1 млн. часов аудио с имитацией более 100 различных интонаций и эмоций.
По тестам CosyVoice 3 снизил частоту ошибок (CER/WER) на 44% для китайского и 51% для английского по сравнению с CosyVoice 2, и обошел F5-TTS, Spark-TTS в кросс-языковых задачах. Кода и весов моделей пока нет.
funaudiollm.github.io
Всего через несколько дней после запуска, Google расширил доступ к Veo 3, добавив 71 новую страну. Как сообщил вице-президент Gemini Джош Вудворд в сети Х, подписчики Gemini Pro получат пробный пакет из 10 генераций. А вот обладатели Ultra-подписки за $250 в месяц смогут создавать неограниченное количество роликов с ежедневным обновлением квот.
Но есть нюансы: Veo 3 работает исключительно в веб-версии Gemini Pro, поддерживает только английскую аудиодорожку, а в Flow mode нельзя добавить голос поверх загруженных изображений.
Похоже, Google повторяет успех NotebookLM, но теперь — на уровне визуального контента. Техническое комьюнити ждtт, когда модель научится мультиязычности и расширит функционал.
Josh Woodward в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM