Voice and image capabilities in ChatGPT
В течение двух недель премиум юзеры чатгпт смогут отправлять фото и спрашивать вопросы по этим фото. Также будет доступен голосовой ввод.
https://openai.com/blog/chatgpt-can-now-see-hear-and-speak
В течение двух недель премиум юзеры чатгпт смогут отправлять фото и спрашивать вопросы по этим фото. Также будет доступен голосовой ввод.
https://openai.com/blog/chatgpt-can-now-see-hear-and-speak
🔥4🍾1
Валидация языковых моделей
У вас бывало такое, что удалось достичь высокого качества на какой-нибудь задаче, а потом оказывалось, что был дата лик? :)
Несколько последних случаев LLM в опен-сорсе заставляют пересмотреть результаты на бенчмарках.
1️⃣ Модель NewHope с громким заголовком "Harnessing 99% of GPT-4's Programming Capabilities" получила качество 66.5 на HumanEval (у гпт-4 67.0, а у чатгпт 48.1). Оказалось, они обучились на тест сете
2️⃣ 1.5B модель от майкрасофт phi-1.5 показала качество на вопросах по математике и кодингу в несколько раз выше, чем Llama-2 7B. В твиттере есть тред с доказательствами, что тест содержался в обучении.
3️⃣ phi-1.5 обучалась на синтетических данных, сгенерированных с помощью моделей OpenAI, а это значит, что и они учились на тест-сетах
Вывод: все модели нужно перепроверять на своих задачах через АБ тесты.
Верите ли вы, что Mistral 7B работает сравнимо по качеству с Llama-2 13B?
У вас бывало такое, что удалось достичь высокого качества на какой-нибудь задаче, а потом оказывалось, что был дата лик? :)
Несколько последних случаев LLM в опен-сорсе заставляют пересмотреть результаты на бенчмарках.
1️⃣ Модель NewHope с громким заголовком "Harnessing 99% of GPT-4's Programming Capabilities" получила качество 66.5 на HumanEval (у гпт-4 67.0, а у чатгпт 48.1). Оказалось, они обучились на тест сете
2️⃣ 1.5B модель от майкрасофт phi-1.5 показала качество на вопросах по математике и кодингу в несколько раз выше, чем Llama-2 7B. В твиттере есть тред с доказательствами, что тест содержался в обучении.
3️⃣ phi-1.5 обучалась на синтетических данных, сгенерированных с помощью моделей OpenAI, а это значит, что и они учились на тест-сетах
Вывод: все модели нужно перепроверять на своих задачах через АБ тесты.
Верите ли вы, что Mistral 7B работает сравнимо по качеству с Llama-2 13B?
😁12❤2
Математическая задачка (без подтекста)
Самовыдвиженцы собирают 300к подписей, кандидаты от партий — 100к. Проверяют только 60к.
Кто с большей вероятностью получает отказ?
Самовыдвиженцы собирают 300к подписей, кандидаты от партий — 100к. Проверяют только 60к.
Кто с большей вероятностью получает отказ?
Forwarded from Надеждин@
Кандидаты в Президенты РФ оказываются в неравном положении при проверке подписей.
И у самовыдвиженцев, которые собирают 300 тысяч подписей, и у кандидатов от партий, которые собирают 100 тысяч, ЦИК проверяет только 60 тысяч.
Таким образом, 6 тысяч недействительных подписей у кандидата самовыдвиженца — это 2% брака. Для кандидата, выдвинутого политической партией то же количество брака составляет уже 6%, что делает отказ в регистрации более вероятным для последнего.
И у самовыдвиженцев, которые собирают 300 тысяч подписей, и у кандидатов от партий, которые собирают 100 тысяч, ЦИК проверяет только 60 тысяч.
Таким образом, 6 тысяч недействительных подписей у кандидата самовыдвиженца — это 2% брака. Для кандидата, выдвинутого политической партией то же количество брака составляет уже 6%, что делает отказ в регистрации более вероятным для последнего.
Кто с большой вероятностью получит отказ в регистрации?
Anonymous Poll
30%
Самовыдвиженец (60к из 300к)
21%
Кандидат от партии (60к из 100к)
49%
Вероятность одинаковая
Mixtral 8x22B
Из интересного
1. Нативная поддержка function calling (тут можно почитать, что это такое)
2. Прокачали матешу и кодинг
3. 64к контекст
4. apache 2.0 (huggingface)
И вроде как лучше, чем llama-70b и Command-R (особенно на французском, немецком, испанском, итальянском языках)
https://mistral.ai/news/mixtral-8x22b
Из интересного
1. Нативная поддержка function calling (тут можно почитать, что это такое)
2. Прокачали матешу и кодинг
3. 64к контекст
4. apache 2.0 (huggingface)
И вроде как лучше, чем llama-70b и Command-R (особенно на французском, немецком, испанском, итальянском языках)
https://mistral.ai/news/mixtral-8x22b
❤6
Нейронный Кот
Medusa Decoding поддержали в TensorRT-LLM
Но все также нужно обучить головы, которые будут предсказывать next-next token-ы❤️
Зато ВРОДЕ КАК ускорение в 2х
https://github.com/NVIDIA/TensorRT-LLM/tree/main/examples/medusa
Но все также нужно обучить головы, которые будут предсказывать next-next token-ы
Зато ВРОДЕ КАК ускорение в 2х
https://github.com/NVIDIA/TensorRT-LLM/tree/main/examples/medusa
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2❤1
Окей, ллама-3, но где ллама-2 34B?
Цитата из llama-2 статьи:
У llama-3 только 8Б и 70Б. В блог посте пишут
Самые интересные размеры не релизят😘
Цитата из llama-2 статьи:
We are delaying the release of the 34B model due to a lack of time to sufficiently red team
У llama-3 только 8Б и 70Б. В блог посте пишут
we expect to introduce new capabilities, longer context windows, additional model sizes, and enhanced performance
Самые интересные размеры не релизят
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿6❤1
Не создавай зависимости от huggingface hub репы
Вчера при редеплое упал один из сервисов, потому что подгружали токенизатор по сети из huggingface.
До этого очень удобно было не копировать файлики на диск сервера и просто делать:
Это ведь всего лишь пару дополнительный секунд на старт сервиса🤟
В какой-то момент в репозиторий добавили какое-то соглашение, и теперь просто так было не скачать файлики🔫
Вчера при редеплое упал один из сервисов, потому что подгружали токенизатор по сети из huggingface.
До этого очень удобно было не копировать файлики на диск сервера и просто делать:
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-v0.1")
Это ведь всего лишь пару дополнительный секунд на старт сервиса
В какой-то момент в репозиторий добавили какое-то соглашение, и теперь просто так было не скачать файлики
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤1
Нейронный Кот
Mixtral 8x22B Из интересного 1. Нативная поддержка function calling (тут можно почитать, что это такое) 2. Прокачали матешу и кодинг 3. 64к контекст 4. apache 2.0 (huggingface) И вроде как лучше, чем llama-70b и Command-R (особенно на французском, немецком…
Llama-3 8B = Mixtral 8x22B?
Более точно посмотрим на следующей неделе, видимо🤩
https://chat.lmsys.org/?leaderboard
Более точно посмотрим на следующей неделе, видимо
https://chat.lmsys.org/?leaderboard
Please open Telegram to view this post
VIEW IN TELEGRAM
🏆5🔥1
Нейронный Кот
Не создавай зависимости от huggingface hub репы Вчера при редеплое упал один из сервисов, потому что подгружали токенизатор по сети из huggingface. До этого очень удобно было не копировать файлики на диск сервера и просто делать: from transformers import…
А еще huggingface hub может просто лежать, поэтому доп точка отказа — не круто
например, прям сейчас он лежит🤬
https://status.huggingface.co
например, прям сейчас он лежит
https://status.huggingface.co
Please open Telegram to view this post
VIEW IN TELEGRAM
👀4😁3
Выкидываем слои из llama
Чтобы ускорить инференс и снизить потребление памяти, можно просто отказаться от некоторых слоев
От каких?🤓
От тех, которые почти не меняют вход. Если выход слоя по косинусному расстоянию похож на вход, то выкидываем слой.
Итого, можно выкинуть 25% и просесть всего на 2.7% на MMLU. Читать подробнее тут
Как думаете, можно ли добавить слоев без дообучения, чтоб модель стала умнее?☺️
Чтобы ускорить инференс и снизить потребление памяти, можно просто отказаться от некоторых слоев
От каких?
От тех, которые почти не меняют вход. Если выход слоя по косинусному расстоянию похож на вход, то выкидываем слой.
Итого, можно выкинуть 25% и просесть всего на 2.7% на MMLU. Читать подробнее тут
Как думаете, можно ли добавить слоев без дообучения, чтоб модель стала умнее?
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔8👍4
Удалять слои научились, а как стакать more layers?
Один из методов мерджа моделей — это настакать слои разных моделей друг с другом (шок!)
В либе mergekit такой подход назвыается Passthrough.
Я знаю как минимум пару моделей, которые получились действительно хорошими
1️⃣ alpindale/goliath-120b — какое-то время была одной из лучшей для ролплея. Была в топе рейтинга openrouter, и использовалась многими приложениями с AI bots
2️⃣ wolfram/miquliz-120b-v2.0 — моделька на уровне gpt-4 по замерам от WolframRavenwolf на LocalLLaMA (смерджена со знаменитой слитой моделью mistral)
Но более забавно осознавать, что мердж первой модели происходил по схеме
1. Взять первые 16 слоев из Xwin
2. Следующие 16 из Euryale
3. Следующие 15 из Xwin
4. ... (см скрин)
Как это вообще работает?👊
Один из методов мерджа моделей — это настакать слои разных моделей друг с другом (шок!)
В либе mergekit такой подход назвыается Passthrough.
Я знаю как минимум пару моделей, которые получились действительно хорошими
1️⃣ alpindale/goliath-120b — какое-то время была одной из лучшей для ролплея. Была в топе рейтинга openrouter, и использовалась многими приложениями с AI bots
2️⃣ wolfram/miquliz-120b-v2.0 — моделька на уровне gpt-4 по замерам от WolframRavenwolf на LocalLLaMA (смерджена со знаменитой слитой моделью mistral)
Но более забавно осознавать, что мердж первой модели происходил по схеме
1. Взять первые 16 слоев из Xwin
2. Следующие 16 из Euryale
3. Следующие 15 из Xwin
4. ... (см скрин)
Как это вообще работает?
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔6❤2
Только сейчас заметил, что у dequantised версии слитой модельки mistral лицензия NOMERGE
Это какой-то прикол?🤨
Это какой-то прикол?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6🗿2
Гугол зарелизили Gemma 2 и проверили, может ли модель убедить людей задонатить на благотворительность.
1. Участникам эксперимента раздали по £20
2. И спросили, сколько из этой двадцатки они готовы отдать на благотворительность
3. Часть людей сначала общалась с моделями Gemini/Gemma, которые убеждали задонатить
Gemini 1.0 Pro может выбить дополнительно 57% донатов из людей
Перед тем, как показывать пейвол в приложениях, нужно сначала давать пообщаться с Gemini?
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿5❤2
Mistral выпустили модель для кода
Я пытаюсь понять, кто и как такие модели использует. Вижу два кейса
1. Не хочешь чувствовать себя древним ацтеком в самолете без доступа в интернет
2. Ты или твоя компания беспокоитесь, что злые github copilot или cursor.com украдут ваш код
Есть еще кейсы?
Я пытаюсь понять, кто и как такие модели использует. Вижу два кейса
1. Не хочешь чувствовать себя древним ацтеком в самолете без доступа в интернет
2. Ты или твоя компания беспокоитесь, что злые github copilot или cursor.com украдут ваш код
Есть еще кейсы?
mistral.ai
Codestral Mamba | Mistral AI
As a tribute to Cleopatra, whose glorious destiny ended in tragic snake circumstances, we are proud to release Codestral Mamba, a Mamba2 language model specialised in code generation, available under an Apache 2.0 license.
👀2