Google сделала свою модель Gemini 2.5 Pro бесплатной для всех!
Это самая мощная модель от Google, которая почти по всем категориям занимает первые места в разных тестах, иногда уступая последней версии gpt-4o.
У модели огромное контекстное окно — 1 миллион токенов, что позволяет обрабатывать большие объёмы данных (хотя не уверен, что в бесплатном тарифе будет доступен такой объем).
Бегите пробовать на http://gemini.google.com
ИИволюция
Это самая мощная модель от Google, которая почти по всем категориям занимает первые места в разных тестах, иногда уступая последней версии gpt-4o.
У модели огромное контекстное окно — 1 миллион токенов, что позволяет обрабатывать большие объёмы данных (хотя не уверен, что в бесплатном тарифе будет доступен такой объем).
Бегите пробовать на http://gemini.google.com
ИИволюция
Cервера OpenAI, кажется, реально не вывозят.
Прикрыли доступ к генерации видео в Sora для новых аккаунтов из-за высокой нагрузки.
Интересно, а как они дальше планируют вывозить нагрузку с ростом пользовательской базы и новых моделей?
ИИволюция
Прикрыли доступ к генерации видео в Sora для новых аккаунтов из-за высокой нагрузки.
Интересно, а как они дальше планируют вывозить нагрузку с ростом пользовательской базы и новых моделей?
ИИволюция
“To MCP or not to MCP, that's the question.”
С таким сообщением Сундар Пичаи, CEO Google и Alphabet, появился в Твиттере призвал подписчиков высказать мнение “за” и “против”. Что скорее означает, что и Google примет этот стандарт и мы увидим настоящий бум в развитии MCP.
MCP точно станет must-have расширением в каждом сервисе (вероятно, будут прятать в подписку), с которым мы сейчас взаимодействуем вручную. Мы будем просто описывать текстом для AI, что нужно сделать, и всё будет выполняться в разы быстрее.
Жду такие штуки для аналитических инструментов – не хочу копаться в данных руками, хочу просто задавать вопросы и получать точные ответы на основе данных с выводами и гипотезами через reasoning.
Anthropic молодцы. Редко когда конкуренты приходят к единому формату и поддерживают его развитие.
Что такое MCP?
MCP (Model Context Protocol) — это мост между AI и внешними инструментами, который делает модели более функциональными и позволяет им не только отвечать на вопросы, но и выполнять реальные задачи с помощью подключённых систем.
Чуть подробнее писал про MCP тут и тут.
Какие MCP уже пощупали и используете? Поделитесь полезными
ИИволюция
С таким сообщением Сундар Пичаи, CEO Google и Alphabet, появился в Твиттере призвал подписчиков высказать мнение “за” и “против”. Что скорее означает, что и Google примет этот стандарт и мы увидим настоящий бум в развитии MCP.
MCP точно станет must-have расширением в каждом сервисе (вероятно, будут прятать в подписку), с которым мы сейчас взаимодействуем вручную. Мы будем просто описывать текстом для AI, что нужно сделать, и всё будет выполняться в разы быстрее.
Жду такие штуки для аналитических инструментов – не хочу копаться в данных руками, хочу просто задавать вопросы и получать точные ответы на основе данных с выводами и гипотезами через reasoning.
Anthropic молодцы. Редко когда конкуренты приходят к единому формату и поддерживают его развитие.
Что такое MCP?
MCP (Model Context Protocol) — это мост между AI и внешними инструментами, который делает модели более функциональными и позволяет им не только отвечать на вопросы, но и выполнять реальные задачи с помощью подключённых систем.
Чуть подробнее писал про MCP тут и тут.
Какие MCP уже пощупали и используете? Поделитесь полезными
ИИволюция
Это будет увлекательно!
Сэм Альтман заявил, что новый генератор изображений gpt-4o выкатили в доступ на всех бесплатных пользователей.
Let’s rock! Давайте проверим их сервера на прочность🙂
ИИволюция
Сэм Альтман заявил, что новый генератор изображений gpt-4o выкатили в доступ на всех бесплатных пользователей.
Let’s rock! Давайте проверим их сервера на прочность
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Сундар Пичаи, CEO Google, ударился в вайб-разработку и подписался в Твиттере на аккаунт Cursor 😀(это не первоапрельская шутка).
Как бы через неделю в новостях не прочитать: «Google уволил 50 000 разработчиков. Теперь 50% кода в Google пишется на вайбе»
ИИволюция
Как бы через неделю в новостях не прочитать: «Google уволил 50 000 разработчиков. Теперь 50% кода в Google пишется на вайбе»
ИИволюция
ЧатGPT теперь как ваш похмельный понедельник: мрачный, язвительный и слегка раздражённый тем фактом, что вы вообще существуете.
OpenAI выпустили новый голос — «Monday». Это как если бы сарказм, усталость и разочарование в людях объединились и стали вашим личным ассистентом. Он как сотрудник, который уже третий час не может найти смысл жизни в своей чашке кофе.
Хотите ощутить всю прелесть общения с цифровым воплощением офисного выгорания? Обновите приложение. А если сидите на вебе, загляните в сайд-бар или в разделе Explore GPTs поищите Monday.
Только заранее записывайтесь к терапевту — Monday не несёт ответственности за ваше чувство безнадёжности после общения.
Текст выше мне написал сам Monday🙂
ИИволюция
OpenAI выпустили новый голос — «Monday». Это как если бы сарказм, усталость и разочарование в людях объединились и стали вашим личным ассистентом. Он как сотрудник, который уже третий час не может найти смысл жизни в своей чашке кофе.
Хотите ощутить всю прелесть общения с цифровым воплощением офисного выгорания? Обновите приложение. А если сидите на вебе, загляните в сайд-бар или в разделе Explore GPTs поищите Monday.
Только заранее записывайтесь к терапевту — Monday не несёт ответственности за ваше чувство безнадёжности после общения.
Текст выше мне написал сам Monday
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
О, у меня в приложении ChatGPT уже появился слайдер выбора работы модели (упоминал немного о нём тут)
На скриншотах показал все режимы. По умолчанию Авто выставлено.
Пока не понятно, какая модель выбирается при смене режима. Включаешь сильный ризонинг, но какая именно модель выбирается не видно. И наоборот.
ИИволюция
На скриншотах показал все режимы. По умолчанию Авто выставлено.
Пока не понятно, какая модель выбирается при смене режима. Включаешь сильный ризонинг, но какая именно модель выбирается не видно. И наоборот.
ИИволюция
Forwarded from Data Secrets
Вышла статья, в которой доказали, что GPT 4.5 прошла тест Тьюринга
Сразу оговорка: может показаться, что языковые модели уже давно прошли Тьюринга и вообще этот тест устарел. Но на самом деле это первая работа, в которой показаны такие устойчивые результаты LM в классическом культовом трёхстороннем варианте теста, а не его суррогатах.
Что подразумевает трехсторонний вариант теста? Это значит, что в каждом эксперименте участвуют два человека и бот. Участник-интеррогатор получает в руки две параллельные переписки с человеком и ботом, 5 минут задает любые вопросы и использует любые стратегии, чтобы понять, где кто, а затем голосует. На картинке 3, кстати, показано, как именно чаще всего люди пытались выяснить правду.
Так вот, ученые из Сан-Диего протестировали GPT-4.5, LLaMa-3.1-405B, GPT-4o и старенькую классическую ELIZA. Им давали промпт "веди себя, как молодой интроверт, интересующийся интернет-культурой и активно использующий сленг".
Win Rate GPT-4.5 составил (внимание) 73%. Это значит, что в 3/4 случаев моделька "переигрывала" обоих людей и заставляла интеррогатора думать, что живой собеседник – это бот, а она – человек.
У ламы результат тоже ничего – 56%, но это все-такие ближе к случайной догадке. ELIZA выбила 23%, а GPT-4o и того меньше – 21%.
И как теперь админам ботов в комментариях ловить?
Сразу оговорка: может показаться, что языковые модели уже давно прошли Тьюринга и вообще этот тест устарел. Но на самом деле это первая работа, в которой показаны такие устойчивые результаты LM в классическом культовом трёхстороннем варианте теста, а не его суррогатах.
Что подразумевает трехсторонний вариант теста? Это значит, что в каждом эксперименте участвуют два человека и бот. Участник-интеррогатор получает в руки две параллельные переписки с человеком и ботом, 5 минут задает любые вопросы и использует любые стратегии, чтобы понять, где кто, а затем голосует. На картинке 3, кстати, показано, как именно чаще всего люди пытались выяснить правду.
Так вот, ученые из Сан-Диего протестировали GPT-4.5, LLaMa-3.1-405B, GPT-4o и старенькую классическую ELIZA. Им давали промпт "веди себя, как молодой интроверт, интересующийся интернет-культурой и активно использующий сленг".
Win Rate GPT-4.5 составил (внимание) 73%. Это значит, что в 3/4 случаев моделька "переигрывала" обоих людей и заставляла интеррогатора думать, что живой собеседник – это бот, а она – человек.
У ламы результат тоже ничего – 56%, но это все-такие ближе к случайной догадке. ELIZA выбила 23%, а GPT-4o и того меньше – 21%.
Please open Telegram to view this post
VIEW IN TELEGRAM
Кстати, вышел Midjourney V7
Мои ожидания были: ну точно прыжок на новый уровень. Что-то прям вау! Это же V7!
Но, мы всё еще не умеем генерировать адекватно руки 😂
Нашел подборку рук из Midjourney V7. Ну такое себе 😏
AGI далеко, ой как далеко!
Всех с пятницей! 😎
ИИволюция
Мои ожидания были: ну точно прыжок на новый уровень. Что-то прям вау! Это же V7!
Но, мы всё еще не умеем генерировать адекватно руки 😂
Нашел подборку рук из Midjourney V7. Ну такое себе 😏
AGI далеко, ой как далеко!
Всех с пятницей! 😎
ИИволюция
This media is not supported in your browser
VIEW IN TELEGRAM