Notice: file_put_contents(): Write of 2260 bytes failed with errno=28 No space left on device in /var/www/tgoop/post.php on line 50

Warning: file_put_contents(): Only 16384 of 18644 bytes written, possibly out of free disk space in /var/www/tgoop/post.php on line 50
Институт AIRI@airi_research_institute P.526
AIRI_RESEARCH_INSTITUTE Telegram 526
Исследователи AIRI выяснили, что большие языковые модели гораздо линейнее, чем все думали 🔔

В новом исследовании ученые лаборатории FusionBrain AIRI вместе с коллегами из Сколтеха и Sber AI обнаружили, что преобразование эмбеддингов в большей части слоёв в трансформерах-декодерах на 99% имеет линейный характер, причём такое наблюдается во всех популярных моделях. Фактически, это значит, что множество нелинейных операций в таких слоях можно заменить на линейное преобразование без потери качества.

Исследование позволяет проанализировать внутренние представления языковых моделей, а также без потери качества избавиться от 10-15% слоёв. Научная статья уже принята на конференцию ACL (A*), а код выложен на GitHub.

🔖Подробнее о деталях исследования научный сотрудник AIRI Антон Разжигаев рассказал в новой статье на нашем Хабре.

Статья попала на первое место в Daily Papers на Hugging Face, проголосовать за нее можно по ссылке 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
94



tgoop.com/airi_research_institute/526
Create:
Last Update:

Исследователи AIRI выяснили, что большие языковые модели гораздо линейнее, чем все думали 🔔

В новом исследовании ученые лаборатории FusionBrain AIRI вместе с коллегами из Сколтеха и Sber AI обнаружили, что преобразование эмбеддингов в большей части слоёв в трансформерах-декодерах на 99% имеет линейный характер, причём такое наблюдается во всех популярных моделях. Фактически, это значит, что множество нелинейных операций в таких слоях можно заменить на линейное преобразование без потери качества.

Исследование позволяет проанализировать внутренние представления языковых моделей, а также без потери качества избавиться от 10-15% слоёв. Научная статья уже принята на конференцию ACL (A*), а код выложен на GitHub.

🔖Подробнее о деталях исследования научный сотрудник AIRI Антон Разжигаев рассказал в новой статье на нашем Хабре.

Статья попала на первое место в Daily Papers на Hugging Face, проголосовать за нее можно по ссылке 🔥

BY Институт AIRI




Share with your friend now:
tgoop.com/airi_research_institute/526

View MORE
Open in Telegram


Telegram News

Date: |

SUCK Channel Telegram With the administration mulling over limiting access to doxxing groups, a prominent Telegram doxxing group apparently went on a "revenge spree." “[The defendant] could not shift his criminal liability,” Hui said. How to Create a Private or Public Channel on Telegram? It’s easy to create a Telegram channel via desktop app or mobile app (for Android and iOS):
from us


Telegram Институт AIRI
FROM American