NEURALDEEP Telegram 1297
Агенты обретут память? SMRT может решить эту задачу!

Интересная статья вышла от 22 января на arXiv и стала публикацией дня на HuggingFace - про решение проблемы памяти у многоагентных систем (SRMT: Shared Memory for Multi-agent Lifelong Pathfinding)

Главная идея: авторы придумали, как научить агентов эффективно "общаться" через общую память
Работает это так

1. Каждый агент преобразует свои наблюдения и планы в компактный вектор (mem_i)
2. Все агенты могут "читать" память друг друга через cross-attention механизм и извлекать из векторов памяти других агентов например окружение (obs_i)
3. На основе этой информации каждый агент принимает решения

По сути, агенты учатся общаться на своем "сжатом" языке:
- Умеют "упаковывать" свои намерения в векторы
- Понимают как интерпретировать векторы других агентов
- Вся эта коммуникация происходит автоматически через ResNet энкодер обучение модифицированной, GPT2-based трансформер с shared memory механизмом и cross-attention.

Технически это довольно компактная модель судя по репозиторию на Github
- hidden_size: 512
- attention heads: 8
- max_position_embeddings: 16384

Интересно увидеть, насколько эффективно это работает на практике надо покопать experiments где решались задачи bottleneck



tgoop.com/neuraldeep/1297
Create:
Last Update:

Агенты обретут память? SMRT может решить эту задачу!

Интересная статья вышла от 22 января на arXiv и стала публикацией дня на HuggingFace - про решение проблемы памяти у многоагентных систем (SRMT: Shared Memory for Multi-agent Lifelong Pathfinding)

Главная идея: авторы придумали, как научить агентов эффективно "общаться" через общую память
Работает это так

1. Каждый агент преобразует свои наблюдения и планы в компактный вектор (mem_i)
2. Все агенты могут "читать" память друг друга через cross-attention механизм и извлекать из векторов памяти других агентов например окружение (obs_i)
3. На основе этой информации каждый агент принимает решения

По сути, агенты учатся общаться на своем "сжатом" языке:
- Умеют "упаковывать" свои намерения в векторы
- Понимают как интерпретировать векторы других агентов
- Вся эта коммуникация происходит автоматически через ResNet энкодер обучение модифицированной, GPT2-based трансформер с shared memory механизмом и cross-attention.

Технически это довольно компактная модель судя по репозиторию на Github
- hidden_size: 512
- attention heads: 8
- max_position_embeddings: 16384

Интересно увидеть, насколько эффективно это работает на практике надо покопать experiments где решались задачи bottleneck

BY Neural Deep




Share with your friend now:
tgoop.com/neuraldeep/1297

View MORE
Open in Telegram


Telegram News

Date: |

For crypto enthusiasts, there was the “gm” app, a self-described “meme app” which only allowed users to greet each other with “gm,” or “good morning,” a common acronym thrown around on Crypto Twitter and Discord. But the gm app was shut down back in September after a hacker reportedly gained access to user data. Activate up to 20 bots As five out of seven counts were serious, Hui sentenced Ng to six years and six months in jail. fire bomb molotov November 18 Dylan Hollingsworth yau ma tei Select “New Channel”
from us


Telegram Neural Deep
FROM American