Notice: file_put_contents(): Write of 14239 bytes failed with errno=28 No space left on device in /var/www/tgoop/post.php on line 50

Warning: file_put_contents(): Only 8192 of 22431 bytes written, possibly out of free disk space in /var/www/tgoop/post.php on line 50
gonzo-обзоры ML статей@gonzo_ML P.1383
GONZO_ML Telegram 1383
[OpenAI] GPT-4 Technical Report
Статья: https://cdn.openai.com/papers/gpt-4.pdf
Пост продуктовый: https://openai.com/product/gpt-4
Пост технический: https://openai.com/research/gpt-4

Ну что, GPT-4 анонсирована. Если TL;DR, то это картиночно-языковая модель (VLM, мы как раз обсуждали эту тему недавно, https://www.tgoop.com/gonzo_ML/1364), обучена через RLHF (тоже обсуждали недавно, https://www.tgoop.com/gonzo_ML/1277). Технические детали скудны, доступ к API пока через Waitlist, но в ChatGPT Plus пробовать уже можно.

Итак, модель принимает на вход картинки и текст, и выдаёт текст. Это по-прежнему трансформер (видимо, декодер), предсказывающий следующий токен. Какого он размера и sparse ли он, неизвестно (но запросто может оказаться, что и sparse, причём не обязательно MoE). Какой механизм внимания используется для модели с большим окном в 32K тоже непонятно (но я бы поставил на какой-то оптимизированный и вероятно линейный). Обучен на публичных и каких-то отдельно лицензированных данных, дообучен через RLHF (PPO). Картинки с текстом могут произвольно чередоваться, возможно, это сделано по аналогии с Kosmos-1 (https://www.tgoop.com/gonzo_ML/1364), но это не точно. У модели cut off это сентябрь 2021, то есть более свежие данные при её обучении массово не использовались (но чуток было).

Есть вариант модели с большим окном контекста, дефолтная модель с окном 8K токенов (и ценой за $0.03 за 1K токенов в промпте, $0.06/1K в генерации), большая с окном в 32K ($0.06/1K и $0.12/1K соответственно). Для сравнения у новой gpt-3.5-turbo цена $0.002/1K (без различения промпта и продолжения), у предыдущей самой лучшей text-davinci-003 было $0.02/1K.

На этом прекрасные архитектурные подробности заканчиваются, ибо:

"Given both the competitive landscape and the safety implications of large-scale models like GPT-4, this report contains no further details about the architecture (including model size), hardware, training compute, dataset construction, training method, or similar."

Здравствуй, новый мир. Пора делать ставки, через какое время канал придётся закрывать.

Отдельным фокусом работы было создание инфраструктуры для предсказуемого скейлинга, чтобы можно было предсказывать результаты работы больших моделей из поведения маленьких (с 1k-10k меньшими затратами на обучение). Для проверки зафитили степенной лосс вида L(C) = aC^b + c на маленьких моделях и предсказали лосс финальной большой модели, получилось довольно точно.

Кроме лосса предсказывали более понятные и интерпретируемые метрики, например, pass rate на датасете HumanEval, который измеряет способность синтезировать питоновские функции разной сложности.

Что интересно, некоторые задачи демонстрировали инверсный скейлинг (качество ухудшалось с ростом масштаба), но GPT-4 развернуло этот тренд, так что видимо оно U-shaped (https://arxiv.org/abs/2211.02011), что делает тему про emergent abilities (https://www.tgoop.com/gonzo_ML/1031) ещё более интересной.

Модель много тестировали на разнообразных бенчмарках, включая симуляцию человеческих экзаменов (сюда отправлялись модели после обучения в школе RLHF, но без обучения на конкретные экзамены). Была при этом кое-какая контаминация датасета похожими вопросами (например, частью BIG-bench), но тогда репортили результат модели без учёта таких вопросов.

GPT-4 продемонстрировала human-level performance на многих из этих экзаменов. Везде использовался few-shot prompting. RLHF при этом мало что добавлял, базовые модели тоже были хороши. В среднем по всем тестам базовая модель показала 73.7%, а RLHF 74.0%, при этом местами последняя была хуже базовой.

GPT-4 при этом побила много моделей, который были SoTA (state-of-the-art, то есть лучшие на данный момент), включая специально обученные.

Это вообще интересная смена парадигмы в оценке моделей. Долгое время в ML были всякие специальные метрики и датасеты для оценки машин и получить оценку человеческого качества на них не всегда было легко. Теперь мы уходим в совсем знакомые человеческие метрики и экзамены 🙂
19👍12🔥3🤔1



tgoop.com/gonzo_ML/1383
Create:
Last Update:

[OpenAI] GPT-4 Technical Report
Статья: https://cdn.openai.com/papers/gpt-4.pdf
Пост продуктовый: https://openai.com/product/gpt-4
Пост технический: https://openai.com/research/gpt-4

Ну что, GPT-4 анонсирована. Если TL;DR, то это картиночно-языковая модель (VLM, мы как раз обсуждали эту тему недавно, https://www.tgoop.com/gonzo_ML/1364), обучена через RLHF (тоже обсуждали недавно, https://www.tgoop.com/gonzo_ML/1277). Технические детали скудны, доступ к API пока через Waitlist, но в ChatGPT Plus пробовать уже можно.

Итак, модель принимает на вход картинки и текст, и выдаёт текст. Это по-прежнему трансформер (видимо, декодер), предсказывающий следующий токен. Какого он размера и sparse ли он, неизвестно (но запросто может оказаться, что и sparse, причём не обязательно MoE). Какой механизм внимания используется для модели с большим окном в 32K тоже непонятно (но я бы поставил на какой-то оптимизированный и вероятно линейный). Обучен на публичных и каких-то отдельно лицензированных данных, дообучен через RLHF (PPO). Картинки с текстом могут произвольно чередоваться, возможно, это сделано по аналогии с Kosmos-1 (https://www.tgoop.com/gonzo_ML/1364), но это не точно. У модели cut off это сентябрь 2021, то есть более свежие данные при её обучении массово не использовались (но чуток было).

Есть вариант модели с большим окном контекста, дефолтная модель с окном 8K токенов (и ценой за $0.03 за 1K токенов в промпте, $0.06/1K в генерации), большая с окном в 32K ($0.06/1K и $0.12/1K соответственно). Для сравнения у новой gpt-3.5-turbo цена $0.002/1K (без различения промпта и продолжения), у предыдущей самой лучшей text-davinci-003 было $0.02/1K.

На этом прекрасные архитектурные подробности заканчиваются, ибо:

"Given both the competitive landscape and the safety implications of large-scale models like GPT-4, this report contains no further details about the architecture (including model size), hardware, training compute, dataset construction, training method, or similar."

Здравствуй, новый мир. Пора делать ставки, через какое время канал придётся закрывать.

Отдельным фокусом работы было создание инфраструктуры для предсказуемого скейлинга, чтобы можно было предсказывать результаты работы больших моделей из поведения маленьких (с 1k-10k меньшими затратами на обучение). Для проверки зафитили степенной лосс вида L(C) = aC^b + c на маленьких моделях и предсказали лосс финальной большой модели, получилось довольно точно.

Кроме лосса предсказывали более понятные и интерпретируемые метрики, например, pass rate на датасете HumanEval, который измеряет способность синтезировать питоновские функции разной сложности.

Что интересно, некоторые задачи демонстрировали инверсный скейлинг (качество ухудшалось с ростом масштаба), но GPT-4 развернуло этот тренд, так что видимо оно U-shaped (https://arxiv.org/abs/2211.02011), что делает тему про emergent abilities (https://www.tgoop.com/gonzo_ML/1031) ещё более интересной.

Модель много тестировали на разнообразных бенчмарках, включая симуляцию человеческих экзаменов (сюда отправлялись модели после обучения в школе RLHF, но без обучения на конкретные экзамены). Была при этом кое-какая контаминация датасета похожими вопросами (например, частью BIG-bench), но тогда репортили результат модели без учёта таких вопросов.

GPT-4 продемонстрировала human-level performance на многих из этих экзаменов. Везде использовался few-shot prompting. RLHF при этом мало что добавлял, базовые модели тоже были хороши. В среднем по всем тестам базовая модель показала 73.7%, а RLHF 74.0%, при этом местами последняя была хуже базовой.

GPT-4 при этом побила много моделей, который были SoTA (state-of-the-art, то есть лучшие на данный момент), включая специально обученные.

Это вообще интересная смена парадигмы в оценке моделей. Долгое время в ML были всякие специальные метрики и датасеты для оценки машин и получить оценку человеческого качества на них не всегда было легко. Теперь мы уходим в совсем знакомые человеческие метрики и экзамены 🙂

BY gonzo-обзоры ML статей


Share with your friend now:
tgoop.com/gonzo_ML/1383

View MORE
Open in Telegram


Telegram News

Date: |

The SUCK Channel on Telegram, with a message saying some content has been removed by the police. Photo: Telegram screenshot. “[The defendant] could not shift his criminal liability,” Hui said. The main design elements of your Telegram channel include a name, bio (brief description), and avatar. Your bio should be: Earlier, crypto enthusiasts had created a self-described “meme app” dubbed “gm” app wherein users would greet each other with “gm” or “good morning” messages. However, in September 2021, the gm app was down after a hacker reportedly gained access to the user data. "Doxxing content is forbidden on Telegram and our moderators routinely remove such content from around the world," said a spokesman for the messaging app, Remi Vaughn.
from us


Telegram gonzo-обзоры ML статей
FROM American