Telegram Web
🌌 Математический мем в стиле «Звёздных войн»

Внизу — маленький Энакин:
зовая основная теорема анализа — интеграл от производной равен приращению функции.

А тень — Дарт Вейдер, то есть «взрослая форма»:

Это обобщённая теорема Стокса, которая объединяет под собой все классические результаты: Ньютона–Лейбница, Грина, Остроградского–Гаусса и Стокса.

⚡️ Смысл мема: основная теорема анализа — лишь маленький частный случай великой теоремы Стокса.
18🔥5👍2👎1
📚 Mathos (ранее MathGPT Pro) — ИИ-репетитор по математике

Mathos — это умная платформа на базе искусственного интеллекта, которая помогает решать задачи по математике: от алгебры до высшей математики. Подходит и школьникам, и студентам, и преподавателям.

Возможности:
- На 20% точнее GPT-4o при решении задач по математике и STEM
- Поддерживает ввод с фото, PDF, голосом, текстом или рисунком
- Пошаговые объяснения + интерактивные графики и аннотации
- Доверие более 1 млн студентов в 200+ странах
- Стартап из акселератора Y Combinator (Winter 2024), офис в Калифорнии

Идеально для самоподготовки, помощи с домашкой, подготовки к экзаменам и для учебных занятий.

http://mathgptpro.com/

#AI #EdTech #Math #Образование
6👍6👎1🔥1🙏1
✔️ NVIDIA и Университет Эссекса провели крупнейшую в истории симуляцию в статистической физике.

Инженеры из Университет Эссекса при поддержке NVIDIA установили новый мировой рекорд в компьютерном моделировании. Эксперимент позволил впервые на практике наблюдать термодинамический предел — ключевое понятие, объясняющее, как свойства материи проявляются в макроскопических системах.

Для симуляции использовалась стоечная архитектура NVIDIA GB200 NVL72, которая позволила смоделировать поведение до 70 триллионов взаимодействующих частиц. Система достигла рекордной производительности почти в 115 000 обновлений решетки в наносекунду.

Результаты исследования, опубликованные в Physical Review Research, могут ускорить разработку новых дисплеев, магнитных материалов и дать более глубокое понимание фундаментальных свойств материи.
essex.ac.uk
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥95👍1
🚨 Новый отчёт от Epoch AI: GPT-5 значительно превосходит GPT-4

Хотя запуск GPT-5 прошёл тише, чем громкий дебют GPT-4, цифры показывают обратное — это снова огромный скачок, как когда-то между GPT-3 и GPT-4.

📊 Рост по ключевым бенчмаркам:
🧠 +67% на HumanEval
📚 +80% на Mock AIME
📈 +75% на продвинутой математике (Level 5 MATH)

Итог: GPT-5 подтверждает тренд — каждое поколение приносит качественный прорыв в возможностях моделей.

https://epoch.ai/data-insights/gpt-capabilities-progress
🔥7💩51🥰1
🔥 Успех в IT = скорость + знания + окружение

Здесь ты найдёшь всё это — коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!

AI: www.tgoop.com/ai_machinelearning_big_data
Python: www.tgoop.com/pythonl
Linux: www.tgoop.com/linuxacademiya
Собеседования DS: www.tgoop.com/machinelearning_interview
C++ www.tgoop.com/cpluspluc
Docker: www.tgoop.com/DevopsDocker
Хакинг: www.tgoop.com/linuxkalii
Devops: www.tgoop.com/DevOPSitsec
Data Science: www.tgoop.com/data_analysis_ml
Javascript: www.tgoop.com/javascriptv
C#: www.tgoop.com/csharp_1001_notes
Java: www.tgoop.com/java_library
Базы данных: www.tgoop.com/sqlhub
Python собеседования: www.tgoop.com/python_job_interview
Мобильная разработка: www.tgoop.com/mobdevelop
Golang: www.tgoop.com/Golang_google
React: www.tgoop.com/react_tg
Rust: www.tgoop.com/rust_code
ИИ: www.tgoop.com/vistehno
PHP: www.tgoop.com/phpshka
Android: www.tgoop.com/android_its
Frontend: www.tgoop.com/front
Big Data: www.tgoop.com/bigdatai
МАТЕМАТИКА: www.tgoop.com/data_math
Kubernets: www.tgoop.com/kubernetc
Разработка игр: https://www.tgoop.com/gamedev
Haskell: www.tgoop.com/haskell_tg
Физика: www.tgoop.com/fizmat

💼 Папка с вакансиями: www.tgoop.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.tgoop.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.tgoop.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.tgoop.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.tgoop.com/addlist/mzMMG3RPZhY2M2Iy

😆ИТ-Мемы: www.tgoop.com/memes_prog
🇬🇧Английский: www.tgoop.com/english_forprogrammers
🧠ИИ: www.tgoop.com/vistehno

🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.tgoop.com/addlist/BkskQciUW_FhNjEy

Подпишись, если хочешь быть в числе тех, кого зовут в топовые проекты!
👍32
🔢 Качество математических данных — ключ к развитию reasoning-моделей.

Но тут есть проблема: лучшие данные скрыты в старых научных статьях, а OCR математики — это настоящий кошмар: куча исключений, форматы, языки.

👉 Даже GPT-5 при распознавании путает F с τ (маленькая правка в символе, но огромная смысловая разница) и ломает форматирование.

Исследования (*deepseek-math, NVIDIA Nemotron*) подтверждают: предобучение на математике критично для улучшения рассуждений LLM. Работа HuggingFace над *smollm* показала, что фильтрация токенов с 34B → 10B только по качеству повысила результативность.

⚠️ Для хорошего математического корпуса OCR должен быть почти 100% точным, справляться с разными языками и макетами страниц.

💡 Обычно используют MathPix — он неплох, но дорогой, медленный и закрытый.
Хорошие новости: за последние месяцы open-source модели обошли MathPix.

Marker уже показывает SoTA на бенчмарке *olmocr* по математике.
Внутренние тесты в tier-1 AI-лаборатории: лучше MathPix.
Минимальные ошибки даже на китайских статьях, где GPT-5 «сдавался».

📌 Репозитории:
- Marker → https://github.com/datalab-to/marker
- Surya → https://github.com/datalab-to/surya

Персонализация и on-prem кастомизация тоже доступны — разработчики открыты к диалогу.

Открытые решения для математического OCR двигаются быстрее, чем кажется.
👍65🔥2
💡 Новая физика: “тёмный свет”

Учёные предложили квантовую теорию, которая утверждает: даже в темноте есть свет.

📌 Раньше считалось, что «тёмные зоны» возникают, когда световые волны гасят друг друга и там пусто.
🔬 Теперь же физики говорят: фотоны остаются, но переходят в «тёмное квантовое состояние» — они существуют, но их невозможно увидеть.

Как это работает:
- Свет — это смесь «ярких» и «тёмных» состояний.
- В ярком состоянии фотоны взаимодействуют с детекторами и становятся видимыми.
- В тёмном — остаются скрытыми, хотя никуда не исчезают.
- Сам акт наблюдения переводит фотон из тёмного в яркое состояние — и именно тогда возникает видимый результат.

⚡️ Это переосмысление может объяснить старые парадоксы квантовой механики и открыть путь к технологиям, которые будут уметь обнаруживать и управлять скрытыми состояниями света.

📌 Источник: https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.134.133603
5😁3👍2👎2🤔2
🔥Авито открыл набор на стажировку для тех, кто хочет прокачаться в ML и работать в одной из самых технологичных DS-команд!

Развивайте уникальные продукты и получите шанс продолжить свой путь в Авито по результатам программы — подробнее в карточках.


Отправляйте заявку до 15 сентября: https://u.to/FpdXIg
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
💩5👎21🔥1😁1
Forwarded from Machinelearning
Speculative Cascades — как ускорить работу LLM

Google Research придумали новый способ сделать большие языковые модели быстрее и дешевле.

Что это такое:
🔹 Каскады
Сначала отвечает маленькая модель. Если задача слишком сложная - подключается большая. Так экономятся ресурсы, но качество может прыгать.

🔹 Спекулятивная декодировка
Маленькая модель угадывает сразу несколько слов вперёд. Большая быстро проверяет данные и подтверждает. Скорость выше, но большая модель всё равно тратит много ресурсов.

🟢 Speculative Cascades
Это комбинация: маленькая модель иногда отвечает полностью сама, а иногда используется как ускоритель для большой. В итоге получаем меньше затрат, больше скорости и то же качество.

🔥Что показали тесты (тестили на Gemma, T5):
- быстрее, чем обычная спекулятивная декодировка
- дешевле и качественнее, чем каскады
- удобнее настраивать баланс «скорость качество»

При том же уровне качества, что и у спекулятивной декодировки, новый метод работает быстрее (генерирует больше токенов за один вызов большой модели).

А в задачах математических рассуждений получен явный апгрейд по скорости при сохранении или даже улучшении качества.

LLM всё чаще используются в поиске, чатах, ассистентах. Чтобы они реально были полезными, их нужно ускорять и удешевлять. *Speculative cascades* помогают это сделать без потери качества.

🔗 Подробнее: https://research.google/blog/speculative-cascades-a-hybrid-approach-for-smarter-faster-llm-inference/

@ai_machinelearning_big_data


#AI #LLM #Inference #SpeculativeDecoding #Cascades #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3💩1💔1
Почему нужно подать заявку на Студкемп по математике в ИИ от Яндекс Образования в СПбГУ по этой ссылке? 🤔

Потому что это:
1️⃣ Возможность пообщаться с экспертами из ШАД, СПбГУ и Яндекс Образования
2️⃣ Перспектива подключиться к научным исследованиям по математике и ИИ
3️⃣ Потенциал получить глубокий математический взгляд на ML
4️⃣ Обработка теоретических и практических профессиональных знаний
5️⃣ Можно продолжать до бесконечности…

И это точно нельзя упускать! Ведь даже проезд и проживание оплатит Яндекс Образование 💙
Приём заявок открыт до 21 сентября — не теряем время.
🔥32
🌟 Lumina-DiMOO

Lumina-DiMOO — это передовая модель, использующая дискретную диффузию для обработки мультимодальных задач, таких как генерация изображений и их редактирование.

Она демонстрирует высокую эффективность и превосходит существующие решения по множеству показателей.

🚀Основные моменты:
- Унифицированная архитектура для различных модальностей.
- Поддержка текстово-изображенческой генерации и понимания.
- Увеличенная скорость выборки с помощью кэширования.
- Достижение состояния искусства в нескольких бенчмарках.

📌 GitHub: https://github.com/Alpha-VLLM/Lumina-DiMOO

#python
💩1
Как выучить вышмат за 1 вечер? 😨

Никак. Ведь в первую очередь важно научиться понимать математику. Это позволит не только быстро восстанавливать известные факты, но и адаптировать их под свои задачи и цели!

И поможет вам в этом единственный канал в телеграме о высшей математике. Его автор - выпускник СПБГУ, а ныне — аспирант РАН, преподаватель теории вероятностей и математического анализа.

На простом языке разбирает сложные вещи, даёт шпаргалки и проводит регулярные консультации по высшей математике 📈

Находка для студентов и тех, кому нужен вышмат по работе. От полезных материалов и книг до ответов на вопросы и уроков по подготовке к олимпиадам, собеседованиям, вступительным испытаниям.
Посмотрите сами 👉 @lav_math
🤡156🔥2🎉1
2025/10/18 06:24:35
Back to Top
HTML Embed Code: