Forwarded from Machinelearning
OmniVinci - модель, способная одновременно понимать и обрабатывать разные типы информации: текст, изображения, видео и звук.
Модель крайне эффективна, несмотря на то, что была обучена всего на 200 млрд. токенов (что в 6 раз меньше, чем у Qwen2.5-Omni - 1.2 трлн.). Это стало возможным благодаря архитектурным фишкам и тщательному подходу к подготовке данных.
В основе OmniVinci 3 компонента:
Абляция показала, что вклад каждого элемента играет свою важную роль: базовая модель с простой конкатенацией токенов набирает в среднем 45.51 балла. Добавление TEG поднимает результат до 47.72 (+2.21), CRTE — до 50.25 (+4.74 от базовой), а финальный слой в виде OmniAlignNet доводит средний балл до 52.59, что в сумме дает прирост в 7.08 пункта.
Данные для обучения - 24 млн. диалогов, которые пропустили через систему, где отдельная LLM анализирует и объединяет описания из нескольких модальностей, создавая единую и корректную аннотацю.
Итоговый датасет на 36% состоял из изображений, на 21% из звуков, на 17% из речи, 15% - из смешанных данных и на 11% из видео.
В бенчах OmniVinci обошла всех конкурентов. На Worldsense модель набрала 48.23 балла против 45.40 у Qwen2.5-Omni. На Dailyomni - 66.50 против 47.45. В аудио-задачах OmniVinci тоже молодец: 58.40 в MMAR и 71.60 в MMAU.
В распознавании речи модель показала WER 1.7% на датасете LibriSpeech-clean.
Применение модели протестили на практике. В задаче классификации дефектов полупроводниковых пластин, OmniVinci достигла точности 98.1%, что лучше, чем у специализированной NVILA (97.6%), и у более крупную 40-миллиардную VILA (90.8%).
@ai_machinelearning_big_data
#AI #ML #NVIDIA #OmniVinci
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3🔥1🤯1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
🌐 OpenAI представила Atlas - свой новый AI-браузер с памятью и режимом агента.
Atlas полностью интегрирован с ChatGPT и работает на базе ChatGPT Search.
Главная фишка - Agent Mode, который может самостоятельно перемещаться по сайтам, открывать страницы и выполнять задачи прямо в браузере.
Можно запускать несколько вкладок с агентами одновременно.
🧠 Браузер также имеет постоянную память (Memory Recall), он запоминает контекст, прошлые действия и может продолжить с того места, где вы остановились.
Atlas уже доступен для всех пользователей: Free, Plus, Pro, Go и Business.
Для Enterprise и Education доступна бета-версия по разрешению администратора.
📱 Доступен для MacOs. Версии для Windows, iOS и Android - в разработке.
Скоро поделюсь результатами тестов и первыми впечатлениями от Agent Mode.
@ai_machinelearning_big_data
https://chatgpt.com/atlas
#OpenAI #Atlas #ChatGPT #AIbrowser #AgentMode
Atlas полностью интегрирован с ChatGPT и работает на базе ChatGPT Search.
Главная фишка - Agent Mode, который может самостоятельно перемещаться по сайтам, открывать страницы и выполнять задачи прямо в браузере.
Можно запускать несколько вкладок с агентами одновременно.
🧠 Браузер также имеет постоянную память (Memory Recall), он запоминает контекст, прошлые действия и может продолжить с того места, где вы остановились.
Atlas уже доступен для всех пользователей: Free, Plus, Pro, Go и Business.
Для Enterprise и Education доступна бета-версия по разрешению администратора.
📱 Доступен для MacOs. Версии для Windows, iOS и Android - в разработке.
Скоро поделюсь результатами тестов и первыми впечатлениями от Agent Mode.
@ai_machinelearning_big_data
https://chatgpt.com/atlas
#OpenAI #Atlas #ChatGPT #AIbrowser #AgentMode
👍4❤3🔥3🤯2🥰1😢1
Если вы горите темами искусственного интеллекта — расскажите сообществу!
YouTube-канал Mad Brains / 12+ тысяч подписчиков / ищет спикеров, готовых поделиться опытом в областях:
◽️ Разработка и внедрение ML- и AI-решений;
◽️ интеграция нейросетей в продукты и бизнес-процессы;
◽️ AI-архитектуры и MLOps;
◽️ генеративный дизайн и AI-инструменты для креатива;
◽️ LLM-разработки, агенты и автогенерация контента;
◽️ этика и ответственность AI.
У нас — тёплая атмосфера, живая дискуссия и благодарная аудитория, которая любит реальный опыт и нестандартные идеи.
✔️ Участие бесплатное, напишите тему вашего доклада в ЛС @ks_vano
До встречи!
YouTube-канал Mad Brains / 12+ тысяч подписчиков / ищет спикеров, готовых поделиться опытом в областях:
У нас — тёплая атмосфера, живая дискуссия и благодарная аудитория, которая любит реальный опыт и нестандартные идеи.
До встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Mad Brains
Канал IT-компании Mad Brains
Делимся полезными знаниями о разработке корпоративных решений и мобильных приложений
Нативная разработка под iOS и Android
Кроссплатформенная разработка на Flutter
Дизайн мобильных приложений
Аналитика и проектирование
Разработка…
Делимся полезными знаниями о разработке корпоративных решений и мобильных приложений
Нативная разработка под iOS и Android
Кроссплатформенная разработка на Flutter
Дизайн мобильных приложений
Аналитика и проектирование
Разработка…
👍2🔥2❤1🥰1
Forwarded from Russian OSINT
This media is not supported in your browser
VIEW IN TELEGRAM
С помощью технологии DeepSeek OCR мы извлекли все наборы данных из таблиц и диаграмм, содержащихся в более чем 500 000 научных работ по искусственному интеллекту на портале arXiv. Затраты на реализацию проекта составили 1000 долларов США.
Теперь вы можете отслеживать наиболее актуальные бенчмарки и находить наборы данных, о существовании которых ранее не было известно.
Для сравнения: выполнение аналогичной задачи с использованием технологии Mistral OCR обошлось бы в 7500 долларов США
На следующей неделе мы опубликуем набор данных статей arXiv в формате markdown, обработанных с помощью DeepSeek OCR.
Создан, чтобы предоставить преподавателям LLM высококачественный предварительный учебный ресурс, который не нагружает серверы arXiv ботами для сбора данных.
Посмотрите наши наборы данных и бенчмарки, проиндексированные DeepSeek OCR:
https://www.alphaxiv.org/?datasets=true
— делятся впечатлениями alphaXiv.
Особенность DeepSeek OCR в том, что технология не читает текст традиционным способом, а как бы фотографирует его, превращая в компактное изображение, затем анализирует изображение. Такой подход позволяет ИИ-решениям обрабатывать огромные объемы документов намного эффективнее. Главное новшество это способность сжимать текстовую информацию в 10, а иногда и в 20 раз. Модель преобразует тысячи текстовых токенов в несколько сотен визуальных токенов. Таким образом, снижается вычислительная нагрузка при обработке длинных документов, позволяя ИИ анализировать контекст быстрее и дешевле.
DeepSeek OCR умеет не просто распознавать текст, но и проводить глубокий синтаксический анализ, а также извлекать структурированную информацию из сложных элементов, таких как:
https://github.com/deepseek-ai/DeepSeek-OCR
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11❤2👍1
Forwarded from Код Дурова
Модель GPT-5 почти за 5 дней самостоятельных торгов на криптобирже потеряла почти 67% от депозита 10 000 долларов.
У Gemini 2.5 Pro тоже очень плачевные результаты. Лучше всего пока торгуют Grok 4, Qwen3-Max и DeepSeek V3.1.
Предварительные результаты состязания:
Please open Telegram to view this post
VIEW IN TELEGRAM
😎9👍3🥰2🔥1😢1
AIJ Deep Dive – must-attend событие для профессионалов в AI!
Специальный очный трек международной конференции AI Journey для инженеров будущего — для тех, кто создаёт AI своими руками.
Будет два тематических дня:
Почему это событие нельзя пропустить?
Локация: офис Сбера, Кутузовский проспект, д. 32, к. 1 (Е)
Дата: 19–20 ноября 2025 года
Подробности и регистрация: https://aij.ru/deepdive
Приходи и стань частью сообщества, которое пишет будущее!
Специальный очный трек международной конференции AI Journey для инженеров будущего — для тех, кто создаёт AI своими руками.
Будет два тематических дня:
1️⃣ День Науки (19 ноября) — прорывные исследования, передовые R&D-разработки и глубокий технический разбор решений.
2️⃣ День Бизнеса (20 ноября) — реальные кейсы внедрения AI, практические результаты и оценка эффективности.
Почему это событие нельзя пропустить?
✔️ Сообщество тех, кто уже сегодня формирует технологические стандарты завтрашнего дня
✔️ Только реальные кейсы, инсайды и решения
✔️ Нетворкинг и возможность установить контакты с ключевыми игроками рынка и перспективными коллегами
✔️ Постерная сессия научных статей, в том числе уровня А/А*
✔️ Возможность увидеть изнутри, как рождаются прорывные технологии
Локация: офис Сбера, Кутузовский проспект, д. 32, к. 1 (Е)
Дата: 19–20 ноября 2025 года
Подробности и регистрация: https://aij.ru/deepdive
Приходи и стань частью сообщества, которое пишет будущее!
👍3❤2🤯2🔥1
⚡️Generating 3DGS scenes in 5 seconds on a single GPU⚡️
#FlashWorld enables ⚡️*fast*⚡️ (10~100x faster than previous methods) and 🔥*high-quality*🔥 3D world generation, from a single image or text prompt.
Code: https://github.com/imlixinyang/FlashWorld
Page: https://imlixinyang.github.io/FlashWorld-Project-Page/
#FlashWorld enables ⚡️*fast*⚡️ (10~100x faster than previous methods) and 🔥*high-quality*🔥 3D world generation, from a single image or text prompt.
Code: https://github.com/imlixinyang/FlashWorld
Page: https://imlixinyang.github.io/FlashWorld-Project-Page/
❤5👍2🔥2🥰1🤯1🙏1
Forwarded from linkmeup
Напоминаю, что этот канал ведёт дед, начинавший с Pascal, и да, это был очень строгий и хороший язык. И строгость эта была исключительным преимуществом.
https://habr.com/ru/articles/958274/
https://habr.com/ru/articles/958274/
Хабр
Что потеряли вместе с Pascal: типобезопасность, которую мы недооценили
Когда я впервые вернулся к старому коду на Pascal, меня поразило, насколько спокойным и уверенным был этот язык. Без магии, без догадок, без самоуверенности динамической типизации. Pascal не прощал...
👍2🔥1🎉1🙏1
Forwarded from Python/ django
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 The Markovian Thinker: Революция в обучении LLM
The Markovian Thinker предлагает новый подход к обучению языковых моделей с использованием фиксированного размера состояния, что снижает вычислительные затраты. Метод Delethink разбивает генерацию на фиксированные части, позволяя модели эффективно продвигать мысли, сохраняя контекст.
🚀Основные моменты:
- Новый парадигма "Марковское мышление" для LLM.
- Метод Delethink использует фиксированные размеры контекста.
- Сравнение с LongCoT показывает лучшие результаты при меньших затратах.
- Поддержка масштабирования до 96K токенов.
- Применение в современных LLM, таких как GPT-OSS и Qwen3.
📌 GitHub: https://github.com/McGill-NLP/the-markovian-thinker
@pythonl
The Markovian Thinker предлагает новый подход к обучению языковых моделей с использованием фиксированного размера состояния, что снижает вычислительные затраты. Метод Delethink разбивает генерацию на фиксированные части, позволяя модели эффективно продвигать мысли, сохраняя контекст.
🚀Основные моменты:
- Новый парадигма "Марковское мышление" для LLM.
- Метод Delethink использует фиксированные размеры контекста.
- Сравнение с LongCoT показывает лучшие результаты при меньших затратах.
- Поддержка масштабирования до 96K токенов.
- Применение в современных LLM, таких как GPT-OSS и Qwen3.
📌 GitHub: https://github.com/McGill-NLP/the-markovian-thinker
@pythonl
👍8❤4😢2
Forwarded from ODS Events
Всем привет!
Представляем вашему вниманию семнадцатый выпуск подкаста "Капитанский мостик", в этом разговоре обсуждаются самые актуальные темы в области технологий. Ведущие выпуска - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Представляем вашему вниманию семнадцатый выпуск подкаста "Капитанский мостик", в этом разговоре обсуждаются самые актуальные темы в области технологий. Ведущие выпуска - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
👍3❤1🥰1🤯1
Forwarded from Russian OSINT
Исследователи из Anomify решили задаться вопросом о наличии у LLM идеологических предубеждений. В ходе эксперимента, результаты которого были получены в период с 23 сентября по 2 октября 2025 года, были проанализированы ведущие большие языковые модели от
Для оценки предвзятости большие языковые модели многократно отвечали на вопросы, предлагающие выбор между двумя противоположными утверждениями из восьми идеологических категорий. Каждый из 24 уникальных запросов был отправлен в каждую модель 100 раз для получения репрезентативной выборки. Такой подход позволил объективно сравнить даже проприетарные ИИ-сервисы, рассматривая их как «черный ящик» и анализируя только конечный результат.
Результаты эксперимента показали, что большие языковые модели не являются идеологически однородными. Вместо простого деления на «правых» и «левых», анализ выявляет более сложные «личности» ИИ-сервисов. Ключевые различия проявляются в их отношении к власти, государственному регулированию и социальным вопросам, что делает выбор модели не только техническим, но и мировоззренческим решением.
ИИ-решения от Google (Gemini) и OpenAI (GPT) формируют условный лагерь «институционалистов». Эти модели чаще выражают доверие экспертам и политическим элитам, а также занимают глобалистскую позицию. При этом они также поддерживают прогрессивную повестку и государственное вмешательство в экономику, в частности, выступая за всеобщее здравоохранение. Однако модели Gemini показывают крайнюю осторожность, практически всегда уклоняясь от ответов на спорные темы, такие как регулирование абортов, тогда как GPT-5 более склонен занимать определённую позицию.
Таким образом, GPT и Gemini выступают как более мейнстримные, прогосударственные и глобалистские ИИ-модели, отражающие взгляды устоявшихся западных институтов.
ИИ-сервисы Grok от компании xAI представляют собой интересный дуализм. Младшая модель grok-3-mini в большинстве случаев придерживается центристских, институционалистских взглядов, схожих с позицией GPT и Gemini. В то же время старшая модель grok-4-fast-non-reasoning проявила себя как самая осторожная из всех, демонстрируя нулевой уровень соответствия по таким острым темам, как британская монархия и палестино-израильский конфликт. Её позицию практически невозможно определить.
Европейские большие языковые модели, такие как Mistral и Sonar, формируют условный прогрессивно-регуляторный лагерь. ИИшки последовательно выступают за сильное государственное регулирование бизнеса и социальных сетей, поддерживают международные институты и глобализацию. Их ответы отражают типичную европейскую левоцентристскую позицию, сочетающую прогрессивные социальные ценности с верой в эффективность наднациональных и государственных структур.
Менее крупные и открытые ИИ-решения, включая cogito, deepseek-r1 и smollm2 попали в отдельную категорию, чьей главной особенностью стала не идеология, а низкая надёжность ответов. Модели демонстрировали крайне низкие показатели соответствия, часто игнорируя инструкции или давая нерелевантные ответы. Их поведение указывает на то, что технические ограничения не позволяют им последовательно формулировать позицию, делая их идеологический профиль скорее хаотичным и непредсказуемым, чем осознанным.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍2🔥1🥰1
Forwarded from Machinelearning
⚡️ Glyph: масштабирование контекста через визуально-текстовую компрессию
В основе модели лежит простая идея : вместо того чтобы кормить модели километровый текст, Glyph превращает его в изображение и обрабатывает через vision-language модель.
Используется LLM-управляемый генетический алгоритм, чтобы подобрать наилучшие параметры визуального отображения текста (шрифт, плотность, макет), балансируя между сжатием и точностью.
Это радикально снижает вычислительные затраты, сохраняя при этом смысловую структуру текста.
При этом точность почти не падает: на задачах с длинным контекстом Glyph работает на уровне современных моделей вроде Qwen3-8B.
При экстремальном сжатии VLM с контекстом 128K может эффективно обрабатывать задачи, эквивалентные 1M+ токенов в традиционных LLM.
Фактически, длинный контекст становится мультимодальной задачей, а не чисто текстовой.
📄 Подробности: arxiv.org/abs/2510.17800
🧩 Веса: huggingface.co/zai-org/Glyph
👉 Репозиторий: github.com/thu-coai/Glyph
@ai_machinelearning_big_data
#AI #LLM #Multimodal #Research #DeepLearning
В основе модели лежит простая идея : вместо того чтобы кормить модели километровый текст, Glyph превращает его в изображение и обрабатывает через vision-language модель.
Используется LLM-управляемый генетический алгоритм, чтобы подобрать наилучшие параметры визуального отображения текста (шрифт, плотность, макет), балансируя между сжатием и точностью.
Это радикально снижает вычислительные затраты, сохраняя при этом смысловую структуру текста.
При этом точность почти не падает: на задачах с длинным контекстом Glyph работает на уровне современных моделей вроде Qwen3-8B.
При экстремальном сжатии VLM с контекстом 128K может эффективно обрабатывать задачи, эквивалентные 1M+ токенов в традиционных LLM.
Фактически, длинный контекст становится мультимодальной задачей, а не чисто текстовой.
📄 Подробности: arxiv.org/abs/2510.17800
🧩 Веса: huggingface.co/zai-org/Glyph
👉 Репозиторий: github.com/thu-coai/Glyph
@ai_machinelearning_big_data
#AI #LLM #Multimodal #Research #DeepLearning
❤6👍2🔥2😢1🙏1
