Неделя будет жаркой! Погода, надеюсь, тоже не подкачает!
Сэм Альтман упомянул в Твиттере, что готовят много классных “штук” к релизу на этой неделе.
О новых моделях мы уже знаем, но вдруг покажут что-то еще интересное!
ИИволюция
Сэм Альтман упомянул в Твиттере, что готовят много классных “штук” к релизу на этой неделе.
О новых моделях мы уже знаем, но вдруг покажут что-то еще интересное!
ИИволюция
Ну вот и оно! 10% людей на планете используют ChatGPT.
800 000 000 пользователей!
Ключевой milestone для OpenAI. Красиво 😍
ИИволюция
800 000 000 пользователей!
Ключевой milestone для OpenAI. Красиво 😍
ИИволюция
OpenAI захлопывает двери запускает верификацию организаций для доступа к продвинутым моделям в API (видимо, чтобы китайские компании не пользовались)
Теперь, чтобы использовать новые топовые модели OpenAI через API, нужно пройти верификацию организации. Это займёт всего пару минут (так заявляют) — потребуется только удостоверение личности (ID), выданное в одной из поддерживаемых стран. Поддерживают свыше 200 стран для верификации.
Что даёт верификация:
— Доступ к новым и продвинутым моделям.
— Новые фичи и возможности.
Что важно знать:
— На один документ нельзя верифицировать более 1 организации чаще чем в 90 дней.
— Не все организации пока могут пройти верификацию (нужно проверить в личном кабинете, есть ли кнопка Verify).
— Без верификации можно продолжать использовать текущие модели, но доступ к новым может быть ограничен.
Проверить статус и пройти верификацию можно в настройках организации на platform.openai.com
Больше деталей: в блоге openai
ИИволюция
Теперь, чтобы использовать новые топовые модели OpenAI через API, нужно пройти верификацию организации. Это займёт всего пару минут (так заявляют) — потребуется только удостоверение личности (ID), выданное в одной из поддерживаемых стран. Поддерживают свыше 200 стран для верификации.
Что даёт верификация:
— Доступ к новым и продвинутым моделям.
— Новые фичи и возможности.
Что важно знать:
— На один документ нельзя верифицировать более 1 организации чаще чем в 90 дней.
— Не все организации пока могут пройти верификацию (нужно проверить в личном кабинете, есть ли кнопка Verify).
— Без верификации можно продолжать использовать текущие модели, но доступ к новым может быть ограничен.
Проверить статус и пройти верификацию можно в настройках организации на platform.openai.com
Больше деталей: в блоге openai
ИИволюция
Media is too big
VIEW IN TELEGRAM
Ян Лекун:
“Меня больше не интересуют LLM’ки. Это уже история про продуктовых ребят в индустрии — выжимают максимум на краях: больше данных, больше вычислений, синтетика. А настоящие вопросы — совсем в другом.”
И вот, что по его мнению, действительно важно:
— Как научить ИИ понимать физический мир
— Как реализовать постоянную память (не то, что сейчас у LLM)
— Как заставить машины по-настоящему рассуждать и планировать
Он считает, что подход к reasoning у LLM сейчас — слишком примитивный.
Реально интересные вещи пока пылятся в академических статьях, о которых вспомнят только через пять лет.
Пока индустрия гонится за масштабом и хайпом, он — за качественным сдвигом.
ИИволюция
“Меня больше не интересуют LLM’ки. Это уже история про продуктовых ребят в индустрии — выжимают максимум на краях: больше данных, больше вычислений, синтетика. А настоящие вопросы — совсем в другом.”
И вот, что по его мнению, действительно важно:
— Как научить ИИ понимать физический мир
— Как реализовать постоянную память (не то, что сейчас у LLM)
— Как заставить машины по-настоящему рассуждать и планировать
Он считает, что подход к reasoning у LLM сейчас — слишком примитивный.
Реально интересные вещи пока пылятся в академических статьях, о которых вспомнят только через пять лет.
Пока индустрия гонится за масштабом и хайпом, он — за качественным сдвигом.
ИИволюция
Сегодня будет жара!
Судя по намёкам, недавно объявившаяся (в начале апреля) модель Quasar Alpha на Openrouter увидит свет? Между прочим, модель с 1 млн контекстом!
ИИволюция
Судя по намёкам, недавно объявившаяся (в начале апреля) модель Quasar Alpha на Openrouter увидит свет? Между прочим, модель с 1 млн контекстом!
ИИволюция
Трансляция OpenAI вот-вот начнется.
Судя по обложке, GPT-4.1 в API (но видимо для тех, кто пройдет верификацию😂 ).
Ссылка на трансляцию https://www.youtube.com/live/kA-P9ood-cE?si=fqMAP-qw1LZQO3HT
ИИволюция
Судя по обложке, GPT-4.1 в API (но видимо для тех, кто пройдет верификацию
Ссылка на трансляцию https://www.youtube.com/live/kA-P9ood-cE?si=fqMAP-qw1LZQO3HT
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
GPT 4.1 in the API
Join Michelle Pokrass, Ishaan Singal, and Kevin Weil as they introduce and demo our new family of GPT-4.1 models in the API
Media is too big
VIEW IN TELEGRAM
OpenAI представила GPT-4.1
– 3 новые модели: GPT-4.1, GPT-4.1 Mini, GPT-4.1 Nano.
– Контекст расширен до 1 млн токенов (раньше было 128K).
– Удвоили output с 16К до 32К (размер ответа).
– Знания актуальны на 1 июля 2024.
Следование инструкциям: Модель стала лучше понимать и выполнять сложные инструкции, снижая необходимость в повторных уточнениях. Под это даже выпустили отдельный гайд по написания правильных промптов.
Улучшенная работа с кодом: GPT-4.1 показывает 54,6% на бенчмарке SWE-bench, что на 21% выше GPT-4o и на 27% выше GPT-4.5. Это тест, где модель должна как настоящий разработчик: понять задачу, разобраться в баге и выдать рабочий код.
Модели GPT-4.1 доступны только через API и не планируются для интеграции в ChatGPT. Явно будет куча вопросов: “Мы же платим подписку, а кто-то даже Pro за $200 и даже нам не завезут?”.
Цены (4.1 дешевле на 25% чем 4o):
– GPT-4.1: $2.00 за 1M токенов (ввод), $8.00 за 1M токенов (вывод).
– GPT-4.1 Mini: $0.40 за 1M токенов (ввод), $1.60 за 1M токенов (вывод).
– GPT-4.1 Nano: $0.10 за 1M токенов (ввод), $0.40 за 1M токенов (вывод).
OpenAI также объявила о прекращении поддержки GPT-4.5 в API с 14 июля 2025 года (дорого, богато, не выгодно).
Новые модели уже появились в API, и даже доступны бесплатно для теста в Widsurf и Cursor (вайб-разработчики ликуют👨💻 ).
Кстати, в API доступно несколько альясов (названий) для каждой модели. Для полноценной 4.1 доступны: gpt-4.1, gpt-4.1-2025-04-14, gpt-4.1-long-context. И у меня вопрос к альясу gpt-4.1-long-context – длинный контекст доступен не во всех альясах модели в API?
GPT-5… всё ещё в пути. Ждём! А нейминг, конечно, получился весёлый: сначала была модель 4.5, теперь 4.1. Кажется, они делают это специально, чтобы мы больше обсуждали релизы OpenAI. Других объяснений у меня этому феномену нет🎩
Ждем релиза o4-mini, o4-mini-high и o3 (вероятно, тоже на этой неделе), информация о них тоже уже утекала в сеть.
Новость в блоге OpenAI: https://openai.com/index/gpt-4-1/
ИИволюция
– 3 новые модели: GPT-4.1, GPT-4.1 Mini, GPT-4.1 Nano.
– Контекст расширен до 1 млн токенов (раньше было 128K).
– Удвоили output с 16К до 32К (размер ответа).
– Знания актуальны на 1 июля 2024.
Следование инструкциям: Модель стала лучше понимать и выполнять сложные инструкции, снижая необходимость в повторных уточнениях. Под это даже выпустили отдельный гайд по написания правильных промптов.
Улучшенная работа с кодом: GPT-4.1 показывает 54,6% на бенчмарке SWE-bench, что на 21% выше GPT-4o и на 27% выше GPT-4.5. Это тест, где модель должна как настоящий разработчик: понять задачу, разобраться в баге и выдать рабочий код.
Модели GPT-4.1 доступны только через API и не планируются для интеграции в ChatGPT. Явно будет куча вопросов: “Мы же платим подписку, а кто-то даже Pro за $200 и даже нам не завезут?”.
Цены (4.1 дешевле на 25% чем 4o):
– GPT-4.1: $2.00 за 1M токенов (ввод), $8.00 за 1M токенов (вывод).
– GPT-4.1 Mini: $0.40 за 1M токенов (ввод), $1.60 за 1M токенов (вывод).
– GPT-4.1 Nano: $0.10 за 1M токенов (ввод), $0.40 за 1M токенов (вывод).
OpenAI также объявила о прекращении поддержки GPT-4.5 в API с 14 июля 2025 года (дорого, богато, не выгодно).
Новые модели уже появились в API, и даже доступны бесплатно для теста в Widsurf и Cursor (вайб-разработчики ликуют
Кстати, в API доступно несколько альясов (названий) для каждой модели. Для полноценной 4.1 доступны: gpt-4.1, gpt-4.1-2025-04-14, gpt-4.1-long-context. И у меня вопрос к альясу gpt-4.1-long-context – длинный контекст доступен не во всех альясах модели в API?
GPT-5… всё ещё в пути. Ждём! А нейминг, конечно, получился весёлый: сначала была модель 4.5, теперь 4.1. Кажется, они делают это специально, чтобы мы больше обсуждали релизы OpenAI. Других объяснений у меня этому феномену нет
Ждем релиза o4-mini, o4-mini-high и o3 (вероятно, тоже на этой неделе), информация о них тоже уже утекала в сеть.
Новость в блоге OpenAI: https://openai.com/index/gpt-4-1/
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Судя по всему, GPT-5 увидим летом, видимо в июле-августе.
А пока развлекаемся с текущим зоопарком моделей😬
ИИволюция
А пока развлекаемся с текущим зоопарком моделей
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
В Grok завезли Workspaces
Это своего рода Project в ChatGPT: позволяют объединять чаты одной темы в группу, составлять кастомные инструкции для такой группы, подгружать базу знаний в виде файлов.
В общем, все примерно делают одни и те же фичи и пока прорывных инноваций не видать (упёрлись в стену? Клепаем просто фичи!)
ИИволюция
Это своего рода Project в ChatGPT: позволяют объединять чаты одной темы в группу, составлять кастомные инструкции для такой группы, подгружать базу знаний в виде файлов.
В общем, все примерно делают одни и те же фичи и пока прорывных инноваций не видать (упёрлись в стену? Клепаем просто фичи!)
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI, видимо, маловато просто делать нейросети — теперь ещё и соцсеть пилят.
Внутри ChatGPT уже тестируют ленту, где можно делиться сгенерёнными картинками.
Проект пока на ранней стадии, но Сэм Альтман лично показывает прототип знакомым и собирает фидбэк. То ли отдельное приложение будет, то ли встроят прямо в ChatGPT — пока непонятно.
Если запустят, у OpenAI появится свой поток пользовательского контента — как у X и Фб. Плюс ещё один способ удерживать внимание: генерируешь картинку → сразу постишь → ждёшь реакции.
ИИ сам всё придумает, нарисует и лайки соберёт. Осталось только не забыть включить уведомления.
🙂
ИИволюция
Внутри ChatGPT уже тестируют ленту, где можно делиться сгенерёнными картинками.
Проект пока на ранней стадии, но Сэм Альтман лично показывает прототип знакомым и собирает фидбэк. То ли отдельное приложение будет, то ли встроят прямо в ChatGPT — пока непонятно.
Если запустят, у OpenAI появится свой поток пользовательского контента — как у X и Фб. Плюс ещё один способ удерживать внимание: генерируешь картинку → сразу постишь → ждёшь реакции.
ИИ сам всё придумает, нарисует и лайки соберёт. Осталось только не забыть включить уведомления.
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Ну и главное на сегодня!
В ChatGPT появился раздел Library со всеми вашими сгенерированными картинками.
Давно ждал! Каеф!
ИИволюция
В ChatGPT появился раздел Library со всеми вашими сгенерированными картинками.
Давно ждал! Каеф!
ИИволюция
Media is too big
VIEW IN TELEGRAM
Воооу, вот это мега крутой эксперимент!
Исследователи поместили 1000 AI агентов на сервер Minecraft и те создали собственную цивилизацию с правительством, культурой и экономикой.
А теперь представьте что будет, когда эти AI агенты будут “жить” автономно в нашем реальном мире и как они будут влиять на жизнь людей!
ИИволюция
Исследователи поместили 1000 AI агентов на сервер Minecraft и те создали собственную цивилизацию с правительством, культурой и экономикой.
А теперь представьте что будет, когда эти AI агенты будут “жить” автономно в нашем реальном мире и как они будут влиять на жизнь людей!
ИИволюция
Forwarded from Data Secrets
В LinkedIn найдено еще одно подтверждение того, что все пути в IT ведут на ферму
Классический роадмап ML-щика
Классический роадмап ML-щика
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI представила новые модели o3 и o4-mini!
Сегодня вышли o3 и o4-mini — самые умные модели OpenAI на данный момент. Их главное отличие: они обучены агентно использовать ВСЕ инструменты ChatGPT — веб-поиск, код на Python, работу с файлами и графикой, создание изображений и даже мультимодальное мышление через картинки. Теперь модель сама решает, какой инструмент ей нужен для решения задачи, и делает это за считанные секунды.
Что умеет o3?
– Новый лидер в кодинге, математике, науке и визуальных задачах.
– Установил рекорды на бенчмарках Codeforces, SWE-bench, MMMU без специальных костылей.
– Модель анализирует изображения, графики и диаграммы лучше всех предшественников.
– Делает на 20% меньше крупных ошибок, чем o1, особенно в сложных реальных задачах (программирование, консалтинг, креатив).
– При этом стала куда разговорчивее и естественнее в диалогах — ощущение, будто общаешься с реальным человеком.
Что умеет o4-mini?
– Компактная, быстрая и дешёвая альтернатива для сложных задач.
– Рвёт все рекорды на AIME 2024/2025 по математике.
– Идеальна для массовых запросов: высокая пропускная способность + разумная стоимость.
– И да, она доступна даже бесплатным пользователям ChatGPT!
Тесты и бенчмарки:
– o3 и o4-mini обошли даже топовые версии Gemini 2.5 Pro Experimental.
– На задачах типа GPQA (PhD-уровень) и CharXiv (научные графики) — огромный прирост точности.
– Особенно впечатляет мультиформатная работа: модели понимают фото с доски, чертежи, даже если они размыты или плохо сняты. И могут на лету их обрабатывать и исправлять. 🖼️
Цены в API:
– o3 — $10/$40 за миллион токенов (на треть дешевле o1).
– o4-mini — $1.1/$4.4 за миллион (заменит собой o3-mini).
o1 и o3-mini скоро уберут из выбора — они полностью уступили новым моделям в эффективности и цене.
Модели уже доступны в ChatGPT для Plus, Pro и Team пользователей. Для Enterprise и Edu — через неделю.
В бесплатной версии можно будет попробовать o4-mini через режим «Think».
В ближайшие недели обещают выпустить ещё более продвинутую версию — o3-pro с поддержкой всех инструментов.
И новости из зоопарка: пообещали позже в этом году навести порядок в зоопарке моделей и объединить GPT и o-модели в одно, более мощное семейство моделей. GPT-5?
Официальная новость: в блоге OpenAI
ИИволюция
Сегодня вышли o3 и o4-mini — самые умные модели OpenAI на данный момент. Их главное отличие: они обучены агентно использовать ВСЕ инструменты ChatGPT — веб-поиск, код на Python, работу с файлами и графикой, создание изображений и даже мультимодальное мышление через картинки. Теперь модель сама решает, какой инструмент ей нужен для решения задачи, и делает это за считанные секунды.
Что умеет o3?
– Новый лидер в кодинге, математике, науке и визуальных задачах.
– Установил рекорды на бенчмарках Codeforces, SWE-bench, MMMU без специальных костылей.
– Модель анализирует изображения, графики и диаграммы лучше всех предшественников.
– Делает на 20% меньше крупных ошибок, чем o1, особенно в сложных реальных задачах (программирование, консалтинг, креатив).
– При этом стала куда разговорчивее и естественнее в диалогах — ощущение, будто общаешься с реальным человеком.
Что умеет o4-mini?
– Компактная, быстрая и дешёвая альтернатива для сложных задач.
– Рвёт все рекорды на AIME 2024/2025 по математике.
– Идеальна для массовых запросов: высокая пропускная способность + разумная стоимость.
– И да, она доступна даже бесплатным пользователям ChatGPT!
Тесты и бенчмарки:
– o3 и o4-mini обошли даже топовые версии Gemini 2.5 Pro Experimental.
– На задачах типа GPQA (PhD-уровень) и CharXiv (научные графики) — огромный прирост точности.
– Особенно впечатляет мультиформатная работа: модели понимают фото с доски, чертежи, даже если они размыты или плохо сняты. И могут на лету их обрабатывать и исправлять. 🖼️
Цены в API:
– o3 — $10/$40 за миллион токенов (на треть дешевле o1).
– o4-mini — $1.1/$4.4 за миллион (заменит собой o3-mini).
o1 и o3-mini скоро уберут из выбора — они полностью уступили новым моделям в эффективности и цене.
Модели уже доступны в ChatGPT для Plus, Pro и Team пользователей. Для Enterprise и Edu — через неделю.
В бесплатной версии можно будет попробовать o4-mini через режим «Think».
В ближайшие недели обещают выпустить ещё более продвинутую версию — o3-pro с поддержкой всех инструментов.
И новости из зоопарка: пообещали позже в этом году навести порядок в зоопарке моделей и объединить GPT и o-модели в одно, более мощное семейство моделей. GPT-5?
Официальная новость: в блоге OpenAI
ИИволюция
Не без ложки дёгтя для OpenAI в свежем тесте Aider polyglot coding benchmark:
– o3 дал 79,6% правильных ответов — выше, чем Gemini 2.5 Pro (72,9%), но стоит в 17 раз дороже — $111 против $6.32.
– o4-mini набрал 72%, то есть чуть хуже Gemini 2.5 Pro, и при этом оказался в 3 раза дороже — $19.64 против $6.32.
Выводы: по балансу цена/качество Gemini 2.5 Pro по-прежнему выглядит сильнее и интереснее для разработчиков, несмотря на крутость новых моделей OpenAI.
При этом Google вроде как готовит новую модель заточенную на разработку - Night Whisper и думаю, вполне могут прыгнуть выше по качеству сохранив при этом доступные цены.
ИИволюция
– o3 дал 79,6% правильных ответов — выше, чем Gemini 2.5 Pro (72,9%), но стоит в 17 раз дороже — $111 против $6.32.
– o4-mini набрал 72%, то есть чуть хуже Gemini 2.5 Pro, и при этом оказался в 3 раза дороже — $19.64 против $6.32.
Выводы: по балансу цена/качество Gemini 2.5 Pro по-прежнему выглядит сильнее и интереснее для разработчиков, несмотря на крутость новых моделей OpenAI.
При этом Google вроде как готовит новую модель заточенную на разработку - Night Whisper и думаю, вполне могут прыгнуть выше по качеству сохранив при этом доступные цены.
ИИволюция
⚡OpenAI собирается купить Windsurf за $3 млрд!
Если сделка состоится, она станет самая крупная для OpenAI. И еще прикол в том, что OpenAI уже инвестировали в Cursor через свой фонд OpenAI Startup Fund.
Windsurf - AI редактор для разработки (скачать тут).
Конкуренция обретает новые краски и новый размах!🍿
ИИволюция
Если сделка состоится, она станет самая крупная для OpenAI. И еще прикол в том, что OpenAI уже инвестировали в Cursor через свой фонд OpenAI Startup Fund.
Windsurf - AI редактор для разработки (скачать тут).
Конкуренция обретает новые краски и новый размах!
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM