📄 Nanonets-OCR2-3B - новая модель для интеллектуального OCR
Модель от Nanonets на базе Qwen2.5-VL-3B умеет не просто распознавать текст, а превращать изображение документа в структурированный Markdown: с таблицами, формулами, подписями и даже схемами.
🔍 Что умеет
- Распознаёт формулы и преобразует их в LaTeX
- Понимает таблицы и сохраняет структуру в Markdown или HTML
- Выделяет чекбоксы и радиокнопки (☐ / ☑ / ☒)
- Распознаёт подписи, водяные знаки, изображения
- Может описать картинки внутри документа с помощью <img>
-Поддерживает рукописные тексты и разные языки
- Для схем и блок-схем генерирует Mermaid-код
- Умеет отвечать на вопросы по документу (Visual QA)
👉 huggingface.co/nanonets/Nanonets-OCR2-3B
Модель от Nanonets на базе Qwen2.5-VL-3B умеет не просто распознавать текст, а превращать изображение документа в структурированный Markdown: с таблицами, формулами, подписями и даже схемами.
🔍 Что умеет
- Распознаёт формулы и преобразует их в LaTeX
- Понимает таблицы и сохраняет структуру в Markdown или HTML
- Выделяет чекбоксы и радиокнопки (☐ / ☑ / ☒)
- Распознаёт подписи, водяные знаки, изображения
- Может описать картинки внутри документа с помощью <img>
-Поддерживает рукописные тексты и разные языки
- Для схем и блок-схем генерирует Mermaid-код
- Умеет отвечать на вопросы по документу (Visual QA)
👉 huggingface.co/nanonets/Nanonets-OCR2-3B
👍7❤5
🧠 Могут ли мультимодальные модели действительно понимать инструменты?
Новая работа проверяет, способны ли модели действительно понимать физические инструменты, а не просто узнавать их по картинке.
📷 В задаче модели показывают фото и просят выбрать нужный инструмент с номером.
Датасет включает 1 000 пар изображение + текст и три уровня сложности:
1. Базовое распознавание инструмента;
2. Понимание ограничений (например, работает ли он, цел ли);
3. Конструирование инструмента из других предметов.
🧩 Условия:
- Можно использовать только предметы на фото;
- Ответ - номер инструмента или None.
👨🔬 Результаты:
- Люди: ~90 %
- Топ-модели: ~63 %
- Внутренние бэкенды Vision-Language-Action моделей — < 15 %.
Типичные ошибки:
- Считают сломанный инструмент рабочим;
- Путают похожие кабели и порты.
🔧 Немного помогает масштаб — примерно с 10 B параметров появляется базовое “чувство инструмента”.
Метод chain-of-thought даёт небольшой прирост,
а vision-centric пайплайн (распознавание объектов + рассуждение по вырезкам) улучшает самые трудные случаи.
💡 Главное открытие: современные мультимодальные модели знают названия предметов,
но не понимают, как инструменты работают.
Этот бенчмарк даёт чёткий ориентир, где они пока “проваливаются”.
📘 Cтатья: https://arxiv.org/abs/2510.09507
Новая работа проверяет, способны ли модели действительно понимать физические инструменты, а не просто узнавать их по картинке.
📷 В задаче модели показывают фото и просят выбрать нужный инструмент с номером.
Датасет включает 1 000 пар изображение + текст и три уровня сложности:
1. Базовое распознавание инструмента;
2. Понимание ограничений (например, работает ли он, цел ли);
3. Конструирование инструмента из других предметов.
🧩 Условия:
- Можно использовать только предметы на фото;
- Ответ - номер инструмента или None.
👨🔬 Результаты:
- Люди: ~90 %
- Топ-модели: ~63 %
- Внутренние бэкенды Vision-Language-Action моделей — < 15 %.
Типичные ошибки:
- Считают сломанный инструмент рабочим;
- Путают похожие кабели и порты.
🔧 Немного помогает масштаб — примерно с 10 B параметров появляется базовое “чувство инструмента”.
Метод chain-of-thought даёт небольшой прирост,
а vision-centric пайплайн (распознавание объектов + рассуждение по вырезкам) улучшает самые трудные случаи.
💡 Главное открытие: современные мультимодальные модели знают названия предметов,
но не понимают, как инструменты работают.
Этот бенчмарк даёт чёткий ориентир, где они пока “проваливаются”.
📘 Cтатья: https://arxiv.org/abs/2510.09507
🔥5❤4👏3
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
❤11🔥5👍3🥰1
Залетай в новый поток курса «Практическая ML-инженерия: MLOps и разработка проектов» от AI Talent Hub, ИТМО если хочешь:
1️⃣ Освоить стек MLOps: DVC, Airflow, MLflow, ClearML, W&B, FastAPI, PyTest, Docker, GitLab CI — ключевые инструменты для выведения ML-модели в продакшен.
2️⃣ Вырасти в грейде: обновить скилсет и перейти в практический ML
3️⃣ Пройти весь путь создания ML-продукта от идеи до релиза с поддержкой практиков из AI Talent Hub
4️⃣ Получить диплом ДПО ИТМО
Продолжительность: 5 месяцев
Формат: онлайн
Цена: 150 000 ₽.
➡️ Изучи программу и успей зарегистрироваться до 31 октября!
AI Talent Hub — лучший просветительский проект в GenAI по версии Generation AI Awards 2025
Реклама. Университет ИТМО ИНН:7813045547
1️⃣ Освоить стек MLOps: DVC, Airflow, MLflow, ClearML, W&B, FastAPI, PyTest, Docker, GitLab CI — ключевые инструменты для выведения ML-модели в продакшен.
2️⃣ Вырасти в грейде: обновить скилсет и перейти в практический ML
3️⃣ Пройти весь путь создания ML-продукта от идеи до релиза с поддержкой практиков из AI Talent Hub
4️⃣ Получить диплом ДПО ИТМО
Продолжительность: 5 месяцев
Формат: онлайн
Цена: 150 000 ₽.
➡️ Изучи программу и успей зарегистрироваться до 31 октября!
AI Talent Hub — лучший просветительский проект в GenAI по версии Generation AI Awards 2025
Реклама. Университет ИТМО ИНН:7813045547
🔥1🥴1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Теперь он создаёт не только исследовательские отчёты, но и готовые веб-страницы и подкасты по вашим ресерчам.
Работаем связка Qwen3-Coder, Qwen-Image и Qwen3-TTS.
@ai_machinelearning_big_data
#Qwen #AI #DeepResearch #Qwen3 #AItools
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Forwarded from Machinelearning
🔥 GOOGLE AI опубликовали пост о настоящем прорыве в области QUANTUM AI
Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».
Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.
Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.
🟠 Что это значит простыми словами
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.
Проще говоря:
1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.
2) Затем применяют обратные операции, как будто “перематывают” процесс назад.
3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.
4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.
Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.
Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.
«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.
*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.
🟢 Статья: https://www.nature.com/articles/s41586-025-09526-6
@ai_machinelearning_big_data
#QuantumComputing #Google #AI #Nature #Physics
Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».
Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.
Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.
Проще говоря:
1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.
2) Затем применяют обратные операции, как будто “перематывают” процесс назад.
3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.
4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.
Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.
Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.
«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.
*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.
@ai_machinelearning_big_data
#QuantumComputing #Google #AI #Nature #Physics
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3❤2