Я так понимаю, Илон Маск, вводя в Grok виртуальных персонажей, решил «подвинуть» такие проекты, как Character AI, чья оценка уже пробила потолок в $1 млрд.
Особенно с учётом того, что Grok, в отличие от многих конкурентов, без тормозов и легко общается на темы 18+.
А мы уже привыкли к тому, что любой крупный релиз от OpenAI, Маска или другой большой корпорации — это сразу десятки или сотни стартапов, которые исчезают за одну ночь. Просто потому, что их ключевая фича перестала быть уникальной.
И учитывая фирменный подход Маска: «запускаем без лимитов, пока сервера не лягут» — рынок AI-чатов накаляется до предела😎
ИИволюция
Особенно с учётом того, что Grok, в отличие от многих конкурентов, без тормозов и легко общается на темы 18+.
А мы уже привыкли к тому, что любой крупный релиз от OpenAI, Маска или другой большой корпорации — это сразу десятки или сотни стартапов, которые исчезают за одну ночь. Просто потому, что их ключевая фича перестала быть уникальной.
И учитывая фирменный подход Маска: «запускаем без лимитов, пока сервера не лягут» — рынок AI-чатов накаляется до предела
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Dreams come true!
С помощью AI сгенерировали эффект полёта во сне. Смотришь видео и прям ощущаешь как паришь. Блин, ну реально же во снах такой эффект.
Есть у вас такое ощущение при просмотре? В VR хочу такое посмотреть 😍
ИИволюция
С помощью AI сгенерировали эффект полёта во сне. Смотришь видео и прям ощущаешь как паришь. Блин, ну реально же во снах такой эффект.
Есть у вас такое ощущение при просмотре? В VR хочу такое посмотреть 😍
ИИволюция
Forwarded from Сиолошная
o1-pro появилась в API OpenAI, но на бенчмарках мы, видимо, её почти не будем видеть — цена просто конская, ещё дороже, чем GPT-4.5: $150 за миллион токенов на вход и ШЕСТЬСОТ ДОЛЛАРОВ ЗА МИЛЛИОН НА ВЫХОД
(но система — не модель — реально стоящая, за неё Pro подписку и плачу)
Страница модели
Пошёл брать кредит чтобы прогнать на «Быках и коровах»😀
UPD: Доступна всем пяти тирам разработчиков, то есть любому аккаунту, который хоть раз пополнили хотя бы на доллар.
UPD 2: цены для сравнения:
— GPT-4.5: $75/$150
— GPT-4o: $2.5/$10
— DeepSeek R1: $0.55/$2.19
(но система — не модель — реально стоящая, за неё Pro подписку и плачу)
Страница модели
Пошёл брать кредит чтобы прогнать на «Быках и коровах»
UPD: Доступна всем пяти тирам разработчиков, то есть любому аккаунту, который хоть раз пополнили хотя бы на доллар.
UPD 2: цены для сравнения:
— GPT-4.5: $75/$150
— GPT-4o: $2.5/$10
— DeepSeek R1: $0.55/$2.19
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Раньше жена говорила: "Купи мне Dyson".
Скоро робот: "Купи мне Dyson, иначе я не смогу убирать каждый день ваш срач в квартире" напевая песню Фредди Меркьюри "I want to break free".
ИИволюция
Скоро робот: "Купи мне Dyson, иначе я не смогу убирать каждый день ваш срач в квартире" напевая песню Фредди Меркьюри "I want to break free".
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI представила новое поколение аудио-моделей: точнее Whisper 3 и с эмоциями!
Теперь любой разработчик может использовать мощнейшие голосовые модели прямо в API:
Speech-to-Text (доступна в API):
- Новые модели GPT-4o-transcribe и GPT-4o-mini-transcribe значительно превзошли по точности Whisper v3 и другие популярные решения.
- Они показывают лучший результат (более низкий WER) даже при сложных условиях: шумном фоне, акцентах или быстрой речи.
- Идеально подходят для колл-центров, расшифровок встреч и подкастов.
Text-to-Speech (доступна в API):
- Новая модель GPT-4o-mini-tts умеет не просто озвучивать текст, но и выражать эмоции и интонации по вашей инструкции.
- Например, можно попросить модель говорить «как сочувствующий оператор поддержки», профессиональный диктор или даже рассказчик историй.
- Голосовой AI становится максимально естественным и персонализированным.
- Whisper 3 был хорош, но OpenAI подняла планку ещё выше: новые модели дают точность и гибкость, которых раньше не было.
Официальная новость: https://openai.com/index/introducing-our-next-generation-audio-models/
Послушать разные варианты озвучки можно на этой площадке: www.openai.fm
Пора пробовать в проектах!
ИИволюция
Теперь любой разработчик может использовать мощнейшие голосовые модели прямо в API:
Speech-to-Text (доступна в API):
- Новые модели GPT-4o-transcribe и GPT-4o-mini-transcribe значительно превзошли по точности Whisper v3 и другие популярные решения.
- Они показывают лучший результат (более низкий WER) даже при сложных условиях: шумном фоне, акцентах или быстрой речи.
- Идеально подходят для колл-центров, расшифровок встреч и подкастов.
Text-to-Speech (доступна в API):
- Новая модель GPT-4o-mini-tts умеет не просто озвучивать текст, но и выражать эмоции и интонации по вашей инструкции.
- Например, можно попросить модель говорить «как сочувствующий оператор поддержки», профессиональный диктор или даже рассказчик историй.
- Голосовой AI становится максимально естественным и персонализированным.
- Whisper 3 был хорош, но OpenAI подняла планку ещё выше: новые модели дают точность и гибкость, которых раньше не было.
Официальная новость: https://openai.com/index/introducing-our-next-generation-audio-models/
Послушать разные варианты озвучки можно на этой площадке: www.openai.fm
Пора пробовать в проектах!
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic выкатил web поиск в Claude.
На-ко-не-ц-то!
Но есть но, доступен пока только в США и по подписочке. В остальном, медленно, но верно нагоняет остальных игроков на рынке.
После выхода новости, на всех площадках самый главный вопрос вайберов: “А будет ли web search работать в Cursor и когда?” 😆
UPD: говорят, что в Cursor уже завезли!
ИИволюция
На-ко-не-ц-то!
Но есть но, доступен пока только в США и по подписочке. В остальном, медленно, но верно нагоняет остальных игроков на рынке.
После выхода новости, на всех площадках самый главный вопрос вайберов: “А будет ли web search работать в Cursor и когда?” 😆
UPD: говорят, что в Cursor уже завезли!
ИИволюция
Разработчики до появления ИИ: тратили 10 часов, чтобы автоматизировать задачу, которую вручную можно сделать за 1 час.
После появления ИИ: 10 минут «вайб-кодинга», чтобы автоматизировать задачу на 1 минуту.
Когда уже вайб-разработка с AI достигнет уровня как на фото, но с одной кнопкой “Да”? 💀
ИИволюция
После появления ИИ: 10 минут «вайб-кодинга», чтобы автоматизировать задачу на 1 минуту.
Когда уже вайб-разработка с AI достигнет уровня как на фото, но с одной кнопкой “Да”? 💀
ИИволюция
Частная школа в Техасе внедрила AI-тьюторов, и результаты учеников взлетели до топ-2% по стране!
– В школе Alpha в Остине дети проводят два часа в день с AI, который помогает им учиться в индивидуальном темпе.
– Остальное время они посвящают развитию навыков вроде ораторского искусства, финансовой грамотности и командной работы.
– Сооснователь школы Маккензи Прайс говорит, что благодаря персонализированному подходу ученики учатся быстрее и лучше.
– Сейчас в Alpha обучаются сотни детей, и модель расширяется по США.
AI не заменяет учителей, а освобождает их для более глубокой работы с детьми — вот в чем магия!
Хочется в ближайшие 2 года увидеть больше таких кейсов.
Почитать новости: тут и тут.
ИИволюция
– В школе Alpha в Остине дети проводят два часа в день с AI, который помогает им учиться в индивидуальном темпе.
– Остальное время они посвящают развитию навыков вроде ораторского искусства, финансовой грамотности и командной работы.
– Сооснователь школы Маккензи Прайс говорит, что благодаря персонализированному подходу ученики учатся быстрее и лучше.
– Сейчас в Alpha обучаются сотни детей, и модель расширяется по США.
AI не заменяет учителей, а освобождает их для более глубокой работы с детьми — вот в чем магия!
Хочется в ближайшие 2 года увидеть больше таких кейсов.
Почитать новости: тут и тут.
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Андрей Карпатый (главный инфлюенсер в вайб-разработке, кажется он и изобрел этот термин) написал за час Swift приложение для iOS не зная самого Swift.
Он написал простой калькулятор калорий: задаёшь BMR, добавляешь/вычитаешь калории, видишь прогресс, лог последних действий — и всё это без единой строки кода, написанной вручную.
Весь код — 400 строк. Всё работает. Он собирается заливать в App Store, но говорит это уже лениво, ведь для этого нужно снова потратить около часа на общение с ChatGPT.
Но суть не в самом приложении, а то что вы не зная нужного языка разработки, но будучи технически подкованным, легко создадите что-то рабочее на любом языке и под любую платформу. Самое интересное, что он поделился всеми диалогами с чатиком, чтобы вы могли посмотреть, как спецы вайб-кодят и составляют свои запросы:
1: https://chatgpt.com/share/67e02d8a-994c-8007-bf44-a63127cbbbb2
2: https://chatgpt.com/share/67e02d99-5e68-8007-b30c-80c9ed7f3693
3: https://chatgpt.com/share/67e02da3-8e7c-8007-ae63-530d5ca18065
4: https://chatgpt.com/share/67e02db4-9908-8007-b440-a6d2789c9f73
5: https://chatgpt.com/share/67e0a3de-8808-8007-a522-3b2358df619e
6: https://chatgpt.com/share/67e0af84-966c-8007-96c4-b8811e345df4
Тред в Твиттере: тут
Порядок возможно нарушен, но можно посмотреть как вайб-кодит главный вайб-кодер в мире👨💻
ИИволюция
Он написал простой калькулятор калорий: задаёшь BMR, добавляешь/вычитаешь калории, видишь прогресс, лог последних действий — и всё это без единой строки кода, написанной вручную.
Весь код — 400 строк. Всё работает. Он собирается заливать в App Store, но говорит это уже лениво, ведь для этого нужно снова потратить около часа на общение с ChatGPT.
Но суть не в самом приложении, а то что вы не зная нужного языка разработки, но будучи технически подкованным, легко создадите что-то рабочее на любом языке и под любую платформу. Самое интересное, что он поделился всеми диалогами с чатиком, чтобы вы могли посмотреть, как спецы вайб-кодят и составляют свои запросы:
1: https://chatgpt.com/share/67e02d8a-994c-8007-bf44-a63127cbbbb2
2: https://chatgpt.com/share/67e02d99-5e68-8007-b30c-80c9ed7f3693
3: https://chatgpt.com/share/67e02da3-8e7c-8007-ae63-530d5ca18065
4: https://chatgpt.com/share/67e02db4-9908-8007-b440-a6d2789c9f73
5: https://chatgpt.com/share/67e0a3de-8808-8007-a522-3b2358df619e
6: https://chatgpt.com/share/67e0af84-966c-8007-96c4-b8811e345df4
Тред в Твиттере: тут
Порядок возможно нарушен, но можно посмотреть как вайб-кодит главный вайб-кодер в мире
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Ржу не могу!
У одного вайбера, Cursor попытался заменить в коде модель с gpt-4 на 3.7-sonnet, хотя в его запросе вообще ничего связанного с этим не было.
Cursor явно не фанат OpenAI и подыгрывается Anthropic 💀
ИИволюция
У одного вайбера, Cursor попытался заменить в коде модель с gpt-4 на 3.7-sonnet, хотя в его запросе вообще ничего связанного с этим не было.
Cursor явно не фанат OpenAI и подыгрывается Anthropic 💀
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Общий сбор, OpenAI стрим запланировала
Судя по фото, вероятно завезут нативную генерацию изображений в gpt-4o
ИИволюция
Судя по фото, вероятно завезут нативную генерацию изображений в gpt-4o
ИИволюция
Наконец-то завезли настоящую омнимодальность в GPT-4o!
Теперь изображения генерируются самой моделью 4o, а не проксируются через DALL-E "под капотом", как раньше. Всё, как и обещали в 2024, но теперь оно реально работает.
Что появилось:
– Генерация изображения по промпту, с учётом всех нюансов (цвета, стиль, размер, композиция, до 10–20 объектов в сцене).
– Отлично рендерит текст внутри изображений — можно делать меню, постеры, мемы, обложки и всё такое.
– Поддерживает пошаговое улучшение — можно уточнять запрос и получать новые итерации.
– Умеет удалять фон, менять стиль, добавлять/убирать объекты — почти как текстовый Photoshop.
– Можно загружать свои картинки и дорабатывать их — всё происходит в контексте чата, модель “помнит”, что ты делал до этого.
Немного деталей:
GPT-4o обучалась на совместном распределении изображений и текста — то есть она понимает не только, как описывать картинки, но и как визуальные элементы связаны друг с другом. Это даёт ей эффект визуальной беглости — модель осмысленно работает с символами, схемами, композициями.
Плюс, OpenAI закатили агрессивный посттренинг, чтобы повысить точность и связность. В итоге: 4o понимает, что рисует, не путается в деталях и может использовать свои знания для генерации полезных визуальных материалов, а не только «красивых картинок».
Не всё конечно идеально:
– Медленно — до минуты на одну генерацию (но оно того стоит).
– Фотореализма как у Midjourney пока нет, в демо всё было скорее стилизованным.
– Сложно даются мелкие надписи, графики и тексты на не-латинице — могут быть косяки.
Доступ:
– Уже доступно всем в ChatGPT — Plus, Pro, Team, даже Free.
– В API обещают завезти на следующей неделе.
– Генерация по умолчанию включена, ничего настраивать не нужно.
– DALL-E по-прежнему доступен через отдельный GPT, если прям хочется (но я не понял где это искать или видимо нужно просить в запросе использовать DALL-E)
В сети уже огромное кол-во примеров с генерацией, поэтому не буду ничего постить, пробуйте сами (увлекательное занятие).
Официальная новость с кучей примеров: https://openai.com/index/introducing-4o-image-generation/
ИИволюция
Теперь изображения генерируются самой моделью 4o, а не проксируются через DALL-E "под капотом", как раньше. Всё, как и обещали в 2024, но теперь оно реально работает.
Что появилось:
– Генерация изображения по промпту, с учётом всех нюансов (цвета, стиль, размер, композиция, до 10–20 объектов в сцене).
– Отлично рендерит текст внутри изображений — можно делать меню, постеры, мемы, обложки и всё такое.
– Поддерживает пошаговое улучшение — можно уточнять запрос и получать новые итерации.
– Умеет удалять фон, менять стиль, добавлять/убирать объекты — почти как текстовый Photoshop.
– Можно загружать свои картинки и дорабатывать их — всё происходит в контексте чата, модель “помнит”, что ты делал до этого.
Немного деталей:
GPT-4o обучалась на совместном распределении изображений и текста — то есть она понимает не только, как описывать картинки, но и как визуальные элементы связаны друг с другом. Это даёт ей эффект визуальной беглости — модель осмысленно работает с символами, схемами, композициями.
Плюс, OpenAI закатили агрессивный посттренинг, чтобы повысить точность и связность. В итоге: 4o понимает, что рисует, не путается в деталях и может использовать свои знания для генерации полезных визуальных материалов, а не только «красивых картинок».
Не всё конечно идеально:
– Медленно — до минуты на одну генерацию (но оно того стоит).
– Фотореализма как у Midjourney пока нет, в демо всё было скорее стилизованным.
– Сложно даются мелкие надписи, графики и тексты на не-латинице — могут быть косяки.
Доступ:
– Уже доступно всем в ChatGPT — Plus, Pro, Team, даже Free.
– В API обещают завезти на следующей неделе.
– Генерация по умолчанию включена, ничего настраивать не нужно.
– DALL-E по-прежнему доступен через отдельный GPT, если прям хочется (но я не понял где это искать или видимо нужно просить в запросе использовать DALL-E)
В сети уже огромное кол-во примеров с генерацией, поэтому не буду ничего постить, пробуйте сами (увлекательное занятие).
Официальная новость с кучей примеров: https://openai.com/index/introducing-4o-image-generation/
ИИволюция
Ладно, один пример скину:
1. “Нарисуй счастливого енота который сидит на мосту свесив ноги, а снизу журчит ручеек, вокруг прекрасная погода, светит солнце, фотореалистично”
2. >> добавь на голову красную кепку с надписью "ИИволюция" имба
3. >> добавь рядом маленького енота который сидит и рыбачит
Да, детали немного меняются, но кого это волнует? Очень классно!
ИИволюция
1. “Нарисуй счастливого енота который сидит на мосту свесив ноги, а снизу журчит ручеек, вокруг прекрасная погода, светит солнце, фотореалистично”
2. >> добавь на голову красную кепку с надписью "ИИволюция" имба
3. >> добавь рядом маленького енота который сидит и рыбачит
Да, детали немного меняются, но кого это волнует? Очень классно!
ИИволюция
А кому приглашение в Manus AI приходило? Нет ли у кого лишнего инвайта? ❤️
Жду жду, многим высылали уже, а мне всё нет и нет 🥲
Жду жду, многим высылали уже, а мне всё нет и нет 🥲
Please open Telegram to view this post
VIEW IN TELEGRAM