AI_MACHINELEARNING_BIG_DATA Telegram 7763
AI-инфраструктура Авито: практические решения для LLM и VLM

На Data Fest 2025 команда Авито показала, как устроена их внутренняя ML разработка. В основе большинства продуктовых ИИ-решений — собственная языковая модель A-Vibe (до 7 млрд параметров, обучена на 700 млрд токенов). Для нее специально сделали токенизатор под русский язык — он обрабатывает тексты на 29% эффективнее стандартных. Это позволило в два раза ускорить работу модели. A-Vibe уже работает в продакшене и заняла первое место среди моделей до 7 миллиардов параметров в бенчмарке МЕРА.

Для техподдержки сделали инструмент на базе LLM: он переписывает ответы агентов, чтобы они звучали более эмпатично и по-человечески, и саммаризует обращения при передаче между сотрудниками. Агенты довольны: 97% отметили, что стало удобнее.

Под все это в Авито построили свою ML-платформу. В ней есть хранилище признаков для моделей, система разметки с проверкой качества и решение Aqueduct — оно встраивается прямо в модель и экономит до 30% ресурсов на инференсе. Платформа уже позволяет запускать продакшен-модели без программирования, через no-code интерфейс.

Стажеры тоже работают с реальными задачами — например, обучают модели с нуля и оптимизируют пайплайны. Один такой проект помог в 10 раз сократить расходы на проверку звонков.

Отдельный блок на фестивале занял ML Cup от Авито. Участники решали задачи по рекомендациям и поиску дублей — те же, что крутятся в продакшене и обрабатывают 4 миллиарда событий в день. За два месяца подали 6500 решений, в конкурсе участвовало почти 900 человек.



tgoop.com/ai_machinelearning_big_data/7763
Create:
Last Update:

AI-инфраструктура Авито: практические решения для LLM и VLM

На Data Fest 2025 команда Авито показала, как устроена их внутренняя ML разработка. В основе большинства продуктовых ИИ-решений — собственная языковая модель A-Vibe (до 7 млрд параметров, обучена на 700 млрд токенов). Для нее специально сделали токенизатор под русский язык — он обрабатывает тексты на 29% эффективнее стандартных. Это позволило в два раза ускорить работу модели. A-Vibe уже работает в продакшене и заняла первое место среди моделей до 7 миллиардов параметров в бенчмарке МЕРА.

Для техподдержки сделали инструмент на базе LLM: он переписывает ответы агентов, чтобы они звучали более эмпатично и по-человечески, и саммаризует обращения при передаче между сотрудниками. Агенты довольны: 97% отметили, что стало удобнее.

Под все это в Авито построили свою ML-платформу. В ней есть хранилище признаков для моделей, система разметки с проверкой качества и решение Aqueduct — оно встраивается прямо в модель и экономит до 30% ресурсов на инференсе. Платформа уже позволяет запускать продакшен-модели без программирования, через no-code интерфейс.

Стажеры тоже работают с реальными задачами — например, обучают модели с нуля и оптимизируют пайплайны. Один такой проект помог в 10 раз сократить расходы на проверку звонков.

Отдельный блок на фестивале занял ML Cup от Авито. Участники решали задачи по рекомендациям и поиску дублей — те же, что крутятся в продакшене и обрабатывают 4 миллиарда событий в день. За два месяца подали 6500 решений, в конкурсе участвовало почти 900 человек.

BY Machinelearning





Share with your friend now:
tgoop.com/ai_machinelearning_big_data/7763

View MORE
Open in Telegram


Telegram News

Date: |

Ng Man-ho, a 27-year-old computer technician, was convicted last month of seven counts of incitement charges after he made use of the 100,000-member Chinese-language channel that he runs and manages to post "seditious messages," which had been shut down since August 2020. In 2018, Telegram’s audience reached 200 million people, with 500,000 new users joining the messenger every day. It was launched for iOS on 14 August 2013 and Android on 20 October 2013. Step-by-step tutorial on desktop: Matt Hussey, editorial director of NEAR Protocol (and former editor-in-chief of Decrypt) responded to the news of the Telegram group with “#meIRL.” Over 33,000 people sent out over 1,000 doxxing messages in the group. Although the administrators tried to delete all of the messages, the posting speed was far too much for them to keep up.
from us


Telegram Machinelearning
FROM American