AI как главный скилл новой эпохи
CEO Zapier: «Теперь мы хантим только специалистов, которые свободно используют AI в своей работе».
А как вообще понять, что человек действительно умеет работать с AI?
Вот список простых вопросов от Роберта Скобла, которые помогут это выяснить на интервью:
1. Покажи, как ты используешь ИИ в повседневной жизни.
2. Поделись примером MCP-сервера (или аналогичного проекта), который ты сам собрал.
3. Расскажи случай, когда ты использовал многошаговый промпт, чтобы решить задачу или разобраться в новой теме.
4. Если я дам тебе новую проблему — как бы ты подошёл к её решению с помощью ИИ?
5. Покажи пост в соцсетях, где ты рассказывал, как использовал ИИ на практике.
6. Как ты понимаешь, как работает большая языковая модель (LLM)? Объясни своими словами.
7. Вспомни случай, когда ИИ тебя подвёл или оказался бесполезен.
8. А почему ты прямо сейчас не используешь AI-пин, очки или кулон — что-то, что помогло бы тебе в этом интервью? 😉
9. Какие отличия ты заметил между Claude от Anthropic, ChatGPT от OpenAI, Gemini от Google и Grok от xAI?
10. Сядь с FactoryAI (платформа для автоматизации процесса разработки, тут как один из примеров) и сделай что-то своими руками — хоть простенькое приложение. Мне важно увидеть, как ты мыслишь и подходишь к задаче.
11. Представим, мы собираем робота. Как бы ты построил его «систему», чтобы он учился и становился умнее?
12. Как ты думаешь, над чем сейчас работают Сэм Альтман и Джони Айв? А если бы ты был на их месте — чем бы занялся?
Ну что, на сколько ваш AI-скилл уже прокачан?
CEO Zapier: «Теперь мы хантим только специалистов, которые свободно используют AI в своей работе».
А как вообще понять, что человек действительно умеет работать с AI?
Вот список простых вопросов от Роберта Скобла, которые помогут это выяснить на интервью:
1. Покажи, как ты используешь ИИ в повседневной жизни.
2. Поделись примером MCP-сервера (или аналогичного проекта), который ты сам собрал.
3. Расскажи случай, когда ты использовал многошаговый промпт, чтобы решить задачу или разобраться в новой теме.
4. Если я дам тебе новую проблему — как бы ты подошёл к её решению с помощью ИИ?
5. Покажи пост в соцсетях, где ты рассказывал, как использовал ИИ на практике.
6. Как ты понимаешь, как работает большая языковая модель (LLM)? Объясни своими словами.
7. Вспомни случай, когда ИИ тебя подвёл или оказался бесполезен.
8. А почему ты прямо сейчас не используешь AI-пин, очки или кулон — что-то, что помогло бы тебе в этом интервью? 😉
9. Какие отличия ты заметил между Claude от Anthropic, ChatGPT от OpenAI, Gemini от Google и Grok от xAI?
10. Сядь с FactoryAI (платформа для автоматизации процесса разработки, тут как один из примеров) и сделай что-то своими руками — хоть простенькое приложение. Мне важно увидеть, как ты мыслишь и подходишь к задаче.
11. Представим, мы собираем робота. Как бы ты построил его «систему», чтобы он учился и становился умнее?
12. Как ты думаешь, над чем сейчас работают Сэм Альтман и Джони Айв? А если бы ты был на их месте — чем бы занялся?
Ну что, на сколько ваш AI-скилл уже прокачан?
Apple просрала проспала момент
Пока в Купертино всё ещё думают, как бы никого не задеть вопросами приватности и аккуратно показать нам пару «AI features»(уже облажались с Apple Intelligence, показали, но так и не релизнули главного) на WWDC, Samsung просто берёт и делает. И правильно делает!
Сейчас Samsung обсуждает масштабное соглашение с Perplexity: предустановка приложения Perplexity на устройства, интеграция ассистента в браузер, вероятно и в Bixby и вообще во всю экосистему Galaxy. По слухам, Samsung хочет сделать Perplexity ассистентом по умолчанию в новых Galaxy S26. И большим плюсом ко всему, по слухам, Samsung будет крупнейшим инвестором в новом раунде Perplexity на $500 млн с оценкой на $14 млрд.
И да, Apple вроде как тоже вели переговоры с Perplexity. И вроде как о замене Google Search на Perplexity, а также как альтернативу ChatGPT для Siri. Но, похоже, не впечатлились настолько, чтобы начать действовать. Денег у них много, но тратить не спешат. А жаль.
В Perplexity, кстати, мягко намекали: купи меня, Apple, купи. Уже даже голосового ассистента на iOS сделали, в разы круче Siri.
WWDC уже на носу, но по слухам нам не стоит ждать ничего интересного связанного с AI. Ни условного “Codex”, ни агентов, ни AI движухи. Не таких действий ожидаешь от компании, которая всегда задавала темп и тренд всему рынку. А жаль.
Пока в Купертино всё ещё думают, как бы никого не задеть вопросами приватности и аккуратно показать нам пару «AI features»
Сейчас Samsung обсуждает масштабное соглашение с Perplexity: предустановка приложения Perplexity на устройства, интеграция ассистента в браузер, вероятно и в Bixby и вообще во всю экосистему Galaxy. По слухам, Samsung хочет сделать Perplexity ассистентом по умолчанию в новых Galaxy S26. И большим плюсом ко всему, по слухам, Samsung будет крупнейшим инвестором в новом раунде Perplexity на $500 млн с оценкой на $14 млрд.
И да, Apple вроде как тоже вели переговоры с Perplexity. И вроде как о замене Google Search на Perplexity, а также как альтернативу ChatGPT для Siri. Но, похоже, не впечатлились настолько, чтобы начать действовать. Денег у них много, но тратить не спешат. А жаль.
В Perplexity, кстати, мягко намекали: купи меня, Apple, купи. Уже даже голосового ассистента на iOS сделали, в разы круче Siri.
WWDC уже на носу, но по слухам нам не стоит ждать ничего интересного связанного с AI. Ни условного “Codex”, ни агентов, ни AI движухи. Не таких действий ожидаешь от компании, которая всегда задавала темп и тренд всему рынку. А жаль.
o3-pro на подходе
Один из главных наших бро-инсайдеров пишет, что o3-pro вот-вот и еще чуть-чуть и будет у нас.
Потираем ручки в ожидании😈
Один из главных наших бро-инсайдеров пишет, что o3-pro вот-вот и еще чуть-чуть и будет у нас.
Потираем ручки в ожидании
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Thomas Iljic, product lead в Veo 3, высказал интересные мысли — что видео, симуляции, игры, всё это начинает сливаться в нечто единое. Не контент по раздельности, а симулированная реальность, которую можно ставить на паузу, переписывать, проживать заново. Запахло “Черным зеркалом” 😀
И вот сижу и думаю, а воображение начинает дорисовывать картинку. Мы всегда смотрели на экран тв, монитора, смартфона — как на окно: оно что-то нам показывает, а ты просто смотришь (потребляешь). В кино наблюдаешь, в игре участвуешь, но с жёсткими ограничениями и правилами.
А что если с приходом мощных 3D и видео-генераций, VR-очков и нейроимплантов, которые могут дополнить наши ощущения, это окно превратится в дверь, куда можно войти и погрузиться в атмосферу нужного момента? Ты уже не зритель, а участник.
Когда-то чудом было ч/б фото. Потом цветное. Потом видео.
И мы постепенно приходим к тому, что любое фото уже сейчас можно оживить, наложить липсинк, синтезировать голос по речи конкретного человека.
Какие-то моменты можно уже сильно иначе проживать и вспоминать из прошлого. У нас хранятся тысячи фото и видео на смартфоне, есть записанные голоса наших близких. Это можно расширить и на тонны контента в сети.
Их комбинация способна воссоздавать те самые моменты, атмосферу, эмоции, 3D-сцены.
Это уже не контент в привычном понимании. Это переживание, которое можно отмотать, как память. Перепрожить. Поменять.
Как в одной из серий «Черного зеркала» в последнем сезоне, где на основе фото или воспоминания можно создать сцену и оказаться в том самом моменте с помощью нейро-штуки, которую закрепляешь себе у виска.
Может, скоро мы будем говорить не “смотри, какую картинку я сгенерировал”, не “зацени фотку”, а “загляни в этот момент, почувствуй, раздели со мной радость, проживи его по-своему, почувствуй вайб”.
Не фото, не видео, не игра — а момент, симуляция, “набор ощущений”, которые ты просто кому-то кидаешь в чат в виде ссылки.
И вот сижу и думаю, а воображение начинает дорисовывать картинку. Мы всегда смотрели на экран тв, монитора, смартфона — как на окно: оно что-то нам показывает, а ты просто смотришь (потребляешь). В кино наблюдаешь, в игре участвуешь, но с жёсткими ограничениями и правилами.
А что если с приходом мощных 3D и видео-генераций, VR-очков и нейроимплантов, которые могут дополнить наши ощущения, это окно превратится в дверь, куда можно войти и погрузиться в атмосферу нужного момента? Ты уже не зритель, а участник.
Когда-то чудом было ч/б фото. Потом цветное. Потом видео.
И мы постепенно приходим к тому, что любое фото уже сейчас можно оживить, наложить липсинк, синтезировать голос по речи конкретного человека.
Какие-то моменты можно уже сильно иначе проживать и вспоминать из прошлого. У нас хранятся тысячи фото и видео на смартфоне, есть записанные голоса наших близких. Это можно расширить и на тонны контента в сети.
Их комбинация способна воссоздавать те самые моменты, атмосферу, эмоции, 3D-сцены.
Это уже не контент в привычном понимании. Это переживание, которое можно отмотать, как память. Перепрожить. Поменять.
Как в одной из серий «Черного зеркала» в последнем сезоне, где на основе фото или воспоминания можно создать сцену и оказаться в том самом моменте с помощью нейро-штуки, которую закрепляешь себе у виска.
Может, скоро мы будем говорить не “смотри, какую картинку я сгенерировал”, не “зацени фотку”, а “загляни в этот момент, почувствуй, раздели со мной радость, проживи его по-своему, почувствуй вайб”.
Не фото, не видео, не игра — а момент, симуляция, “набор ощущений”, которые ты просто кому-то кидаешь в чат в виде ссылки.
“Память” в ChatGPT теперь бесплатная
Вчера начали раскатывать прокаченную фичу “Память” в ChatGPT для пользователей без подписки, но важно, чтобы пользователь имел аккаунт и был авторизован (было бы странно, если бы было иначе😬 )
Память для бесплатных будет урезанной по длине контекста в отличие от Plus и Pro пользоватей, контекст памяти у которых длиннее (на сколько длиннее кстати?)
Подробнее о том, что такое “Память” в ChatGPT и как она работает, я писал в этом посте.
В Европе свои прибамбасы с активацией этой фичи, почитать можно тут
Вчера начали раскатывать прокаченную фичу “Память” в ChatGPT для пользователей без подписки, но важно, чтобы пользователь имел аккаунт и был авторизован (было бы странно, если бы было иначе
Память для бесплатных будет урезанной по длине контекста в отличие от Plus и Pro пользоватей, контекст памяти у которых длиннее (на сколько длиннее кстати?)
Подробнее о том, что такое “Память” в ChatGPT и как она работает, я писал в этом посте.
В Европе свои прибамбасы с активацией этой фичи, почитать можно тут
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Сэм Альтман говорит о будущем ИИ не как о гигантской модели, а как раз наоборот. Будущее за очень компактной моделью, которая умеет рассуждать лучше человека.
Главная идея не в том, чтобы модель знала всё на свете (это супер дорого и неэффективно), а в том, чтобы она могла быстро и точно думать, опираясь на огромный контекст (до триллиона токенов, т.е. вместить в себя всю вашу жизнь или все знания компании) и подключая любые нужные инструменты — от баз данных до физического симулятора.
По сути, это не хранилище знаний, а универсальный механизм принятия решений, который может решать любые задачи, даже если сам не содержит нужных данных. Всё, что нужно — дать доступ к информации и инструментам.
Именно к такому ИИ, по мнению Альтмана, мы сейчас и идём (вместе с OpenAI).
Сразу вспомнилась песенка: Мы в город Изумрудный, идём дорогой трудной, дорогой непростой. И Сэм в роли Гудвина 😉
Главная идея не в том, чтобы модель знала всё на свете (это супер дорого и неэффективно), а в том, чтобы она могла быстро и точно думать, опираясь на огромный контекст (до триллиона токенов, т.е. вместить в себя всю вашу жизнь или все знания компании) и подключая любые нужные инструменты — от баз данных до физического симулятора.
По сути, это не хранилище знаний, а универсальный механизм принятия решений, который может решать любые задачи, даже если сам не содержит нужных данных. Всё, что нужно — дать доступ к информации и инструментам.
Именно к такому ИИ, по мнению Альтмана, мы сейчас и идём (вместе с OpenAI).
Сразу вспомнилась песенка: Мы в город Изумрудный, идём дорогой трудной, дорогой непростой. И Сэм в роли Гудвина 😉
Forwarded from Data Secrets
OpenAI показали большое обновление ChatGPT для бизнеса: теперь в бота можно интегрировать любые базы знаний вашей компании
Подсоединить к ChatGPT можно Google Drive, Dropbox, SharePoint, Box, OneDrive и другие сервисы. По этим данным можно будет осуществлять поиск, Deep Reserch, ну или просто обрабатывать как хотите.
Это называется "коннекторы", фича раскатывается на пользователей Team и Enterprise. Говорят, что данные "будут оставаться внутри периметра компании", и у каждого юзера будет доступ только к тем файлам, к которым у него есть доступ в корпоративной структуре.
Кроме того, OpenAI анонсировали record mode: это режим записи и транскрибирования любых ваших встреч. Модель сможет автоматически получать доступ к вашим встречам из Teams, Zoom, Google Meet и так далее (+ коннектиться с календарем) и обрабатывать информацию со встречи.
Можно будет задавать по митингам вопросы, суммаризировать, превратить в документ, таблицу и прочее. Доступно, аналогично, для Enterprise. В Team завезут в ближайшее время.
Кстати, как раз сегодня OpenAI пробили три миллиона платных бизнес-пользователей🤑
Ну и, по классике, ищем на скрине со стрима пасхалки⬆️
Подсоединить к ChatGPT можно Google Drive, Dropbox, SharePoint, Box, OneDrive и другие сервисы. По этим данным можно будет осуществлять поиск, Deep Reserch, ну или просто обрабатывать как хотите.
Это называется "коннекторы", фича раскатывается на пользователей Team и Enterprise. Говорят, что данные "будут оставаться внутри периметра компании", и у каждого юзера будет доступ только к тем файлам, к которым у него есть доступ в корпоративной структуре.
Кроме того, OpenAI анонсировали record mode: это режим записи и транскрибирования любых ваших встреч. Модель сможет автоматически получать доступ к вашим встречам из Teams, Zoom, Google Meet и так далее (+ коннектиться с календарем) и обрабатывать информацию со встречи.
Можно будет задавать по митингам вопросы, суммаризировать, превратить в документ, таблицу и прочее. Доступно, аналогично, для Enterprise. В Team завезут в ближайшее время.
Кстати, как раз сегодня OpenAI пробили три миллиона платных бизнес-пользователей
Ну и, по классике, ищем на скрине со стрима пасхалки
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Полный список коннекторов, которые анонсировали в ChatGPT
Коннекторы для других сервисов будут постепенно появляться. Но вы можете подключать свои кастомные коннекторы в виде MCP.
Лимитов для коннекторов нет, они работают в рамках общего лимита для выбранной модели и вашего тарифа.
Более подробно о коннекторах тут
Коннекторы для других сервисов будут постепенно появляться. Но вы можете подключать свои кастомные коннекторы в виде MCP.
Лимитов для коннекторов нет, они работают в рамках общего лимита для выбранной модели и вашего тарифа.
Более подробно о коннекторах тут
This media is not supported in your browser
VIEW IN TELEGRAM
А вот и видео от OpenAI как подключить кастомный (свой) MCP в виде коннектора для ChatGPT Deep Search.
И немного подробностей про record mode.
Завезли режим записи разговоров только в Mac OS приложение и пока только для Team тарифа. Нажал кнопку и модель начинает слушать.
Что происходит дальше:
— Запись превращается в расшифровку и саммари.
— Из неё автоматически извлекаются ключевые решения, действия (action points), темы/задачи.
— Всё это сохраняется в отдельной “canvas” страничке внутри чата.
— И далее в любой момент можно задать вопрос типа “Что мы решили на вчерашней встрече?” и получить ответ с цитатами.
Плюс, по желанию превратить это всё в письмо, план, табличку или даже код.
Запись длится до 2 часов. Аудио удаляется сразу после транскрибации. Модель не учится на этих данных (верим?).
Работает пока лучше всего на английском. Но поддерживает и другие языки.
Теперь ждем, когда завезут в остальные тарифы. Мега крутая фича! Больше деталей тут
Завезли режим записи разговоров только в Mac OS приложение и пока только для Team тарифа. Нажал кнопку и модель начинает слушать.
Что происходит дальше:
— Запись превращается в расшифровку и саммари.
— Из неё автоматически извлекаются ключевые решения, действия (action points), темы/задачи.
— Всё это сохраняется в отдельной “canvas” страничке внутри чата.
— И далее в любой момент можно задать вопрос типа “Что мы решили на вчерашней встрече?” и получить ответ с цитатами.
Плюс, по желанию превратить это всё в письмо, план, табличку или даже код.
Запись длится до 2 часов. Аудио удаляется сразу после транскрибации. Модель не учится на этих данных (верим?).
Работает пока лучше всего на английском. Но поддерживает и другие языки.
Теперь ждем, когда завезут в остальные тарифы. Мега крутая фича! Больше деталей тут
Media is too big
VIEW IN TELEGRAM
Ура! Большой релиз Cursor версии 1.0
Редактор получил крупное обновление:
— BugBot: автоматически проверяет pull request’ы в GitHub, ищет потенциальные баги и оставляет комментарии. Один клик на “Fix in Cursor” и ты сразу в редакторе с готовым промптом для исправления.
— Memories: Cursor теперь может запоминать факты, правила и особенности кода, с которым ты работаешь. Эти «воспоминания» сохраняются на уровне проекта, и могут использоваться в будущих запросах, чтобы не объяснять одно и то же по кругу. Управляется через Settings → Rules, пока работает в бете. В будущем планируют совместные меморис для команд.
— Background Agent: теперь доступен всем. Это асинхронный агент, который может выполнять задачи в фоне, без блокировки редактора. Работает даже через Slack — просто упомяни @cursor, и он сам внесёт изменения.
— MCP-серверы: теперь ставятся в один клик, появилась поддержка OAuth. Есть каталог готовых серверов.
Весь change log доступен тут
Выглядит супер! Бегом обновляться 🤩
Редактор получил крупное обновление:
— BugBot: автоматически проверяет pull request’ы в GitHub, ищет потенциальные баги и оставляет комментарии. Один клик на “Fix in Cursor” и ты сразу в редакторе с готовым промптом для исправления.
— Memories: Cursor теперь может запоминать факты, правила и особенности кода, с которым ты работаешь. Эти «воспоминания» сохраняются на уровне проекта, и могут использоваться в будущих запросах, чтобы не объяснять одно и то же по кругу. Управляется через Settings → Rules, пока работает в бете. В будущем планируют совместные меморис для команд.
— Background Agent: теперь доступен всем. Это асинхронный агент, который может выполнять задачи в фоне, без блокировки редактора. Работает даже через Slack — просто упомяни @cursor, и он сам внесёт изменения.
— MCP-серверы: теперь ставятся в один клик, появилась поддержка OAuth. Есть каталог готовых серверов.
Весь change log доступен тут
Выглядит супер! Бегом обновляться 🤩
Forwarded from Zavtracast (Ярослав Ивус)
Nucleus представила услугу Embryo, которая позволяет узнать детальные характеристики ребёнка до рождения. Это выглядит, как выбор персонажа в игре.
Nucleus Embryo доступна только для родителей, которые собираются пройти процедуру ЭКО. В своей клинике им дают какое-то количество эмбрионов на выбор, а затем данные заливают в сервис.
Через пару часов родители могут узнать пол, цвет волос, рост, IQ, а также склонность к диабету и генетическим заболеваниям своего будущего ребёнка. Конечно же, это не гарантии, а вероятность, но Nucleus изучили 120,000 эмбрионов, чтобы создать Embryo.
Услуга обойдётся в $5,999 — это без учёта самой процедуры ЭКО и дальнейших наблюдений у врача.
@zavtracast
Nucleus Embryo доступна только для родителей, которые собираются пройти процедуру ЭКО. В своей клинике им дают какое-то количество эмбрионов на выбор, а затем данные заливают в сервис.
Через пару часов родители могут узнать пол, цвет волос, рост, IQ, а также склонность к диабету и генетическим заболеваниям своего будущего ребёнка. Конечно же, это не гарантии, а вероятность, но Nucleus изучили 120,000 эмбрионов, чтобы создать Embryo.
Услуга обойдётся в $5,999 — это без учёта самой процедуры ЭКО и дальнейших наблюдений у врача.
@zavtracast
Новый Advanced Voice mode в ChatGPT
Засветилось обновление голосового режима в чатике.
- Более живая речь со словами паразитами для естественности.
- Говорят, что поёт (наконец-то!).
Всё меньше и меньше ощущение, что говоришь с роботом.
Почему-то начало появляться в Андроид приложении 🤨
Засветилось обновление голосового режима в чатике.
- Более живая речь со словами паразитами для естественности.
- Говорят, что поёт (наконец-то!).
Всё меньше и меньше ощущение, что говоришь с роботом.
Почему-то начало появляться в Андроид приложении 🤨
Google обновила Gemini 2.5 Pro (Preview)
На бенчмарках модель заметно подросла и «поумнела» на задачах кода, логики и точных наук.
– 82.2% на задачах по программированию (Aider Polyglot)
– 86.4% на вопросах по естественным наукам (GPQA)
– 21.6% на Humanity’s Last Exam (тест на мышление и знания)
Цены в API:
— до 200K токенов: $1.25 input / $10 output
— больше 200K: $2.50 / $15 (за 1M токенов)
Доступ: AI Studio, Vertex, Gemini App.
На бенчмарках модель заметно подросла и «поумнела» на задачах кода, логики и точных наук.
– 82.2% на задачах по программированию (Aider Polyglot)
– 86.4% на вопросах по естественным наукам (GPQA)
– 21.6% на Humanity’s Last Exam (тест на мышление и знания)
Цены в API:
— до 200K токенов: $1.25 input / $10 output
— больше 200K: $2.50 / $15 (за 1M токенов)
Доступ: AI Studio, Vertex, Gemini App.
Media is too big
VIEW IN TELEGRAM
Elevenlabs выкатила text-to-speech модель Eleven v3 (alpha)
Вы только послушайте эти голоса, эмоции, смех, акценты. Вау!
В видео есть демо запись футбольного комментатора с британским акцентом! Просто восторг!
Поддерживает 70+ языков, несколько голосов в виде диалогов, аудио тэги типа смех, восторг, шепот и прочие.
Вы только послушайте эти голоса, эмоции, смех, акценты. Вау!
В видео есть демо запись футбольного комментатора с британским акцентом! Просто восторг!
Поддерживает 70+ языков, несколько голосов в виде диалогов, аудио тэги типа смех, восторг, шепот и прочие.
Media is too big
VIEW IN TELEGRAM
AGI может и не случиться
Сундар Пичаи не строит иллюзий: прогресс впечатляет, но гарантий ноль. Мы можем просто упереться в потолок.
ИИ уже умеет многое, но иногда не справляется с элементарным. Waymo всё ещё учат водить, а школьник осваивает это за пару выходных.
Так что да — всё красиво, но до настоящего интеллекта ещё, возможно, очень далеко 😬
Сундар Пичаи не строит иллюзий: прогресс впечатляет, но гарантий ноль. Мы можем просто упереться в потолок.
ИИ уже умеет многое, но иногда не справляется с элементарным. Waymo всё ещё учат водить, а школьник осваивает это за пару выходных.
Так что да — всё красиво, но до настоящего интеллекта ещё, возможно, очень далеко 😬
Наконец-то выкатили обновление Advanced Voice в ChatGPT
Теперь ассистент говорит с реалистичными паузами, интонацией, с нотками эмпатии и даже сарказма 🤨
А ещё наконец-то нормальный голосовой переводчик. Просто скажи «переводи», и ассистент будет автоматически переводить всё, что вы говорите, туда-обратно. Например, вы говорите официанту по-английски, он отвечает по-португальски и ChatGPT мгновенно переводит оба направления. И так — пока не скажете остановиться.
Кайф же! Еще больше кейсов для использования AVM.
Теперь ассистент говорит с реалистичными паузами, интонацией, с нотками эмпатии и даже сарказма 🤨
А ещё наконец-то нормальный голосовой переводчик. Просто скажи «переводи», и ассистент будет автоматически переводить всё, что вы говорите, туда-обратно. Например, вы говорите официанту по-английски, он отвечает по-португальски и ChatGPT мгновенно переводит оба направления. И так — пока не скажете остановиться.
Кайф же! Еще больше кейсов для использования AVM.