tgoop.com/machinelearning_books/1165
Last Update:
📚 Новая работа исследователей сравнивает два способа подключения LLM к учебным материалам, чтобы их ответы были точнее и полезнее.
Обычные LLM часто дают неверные или устаревшие факты. Решение - Retrieval Augmented Generation (RAG), где модель ищет ответы в курсах и книгах вместо «догадок».
🔹 Метод 1: vector search
- Ищет текстовые фрагменты, похожие по смыслу на вопрос.
- Быстрый, дешёвый, отлично подходит для фактов и коротких запросов.
🔹 Метод 2: graph search
- Строит сеть связанных идей из текста.
- Помогает отвечать на вопросы про широкие темы и делать подробные объяснения.
- Но работает медленнее и требует в 10–20 раз больше ресурсов.
Для эксперимента авторы создали датасет EduScopeQA (3 176 вопросов по истории, литературе, науке и компьютерным наукам). Тестировали даже на изменённых учебниках, чтобы проверить, смогут ли модели избежать устаревших знаний.
📊 Результаты:
- Vector search - лучше для коротких, фактологических вопросов.
- GraphRAG Global - лучший для общих тем и широких вопросов.
- GraphRAG Local - сильнее всего, когда учебники длинные и подробные.
Итог: исследователи собрали routing system, которая отправляет каждый вопрос к оптимальному методу. Это позволяет сохранять точность и не тратить лишние ресурсы на графовый поиск.
📝 Paper: https://arxiv.org/abs/2509.07846v1
#LLM #RAG #Education #VectorSearch #GraphSearch #AIResearch
BY Машиннное обучение | Наука о данных Библиотека

Share with your friend now:
tgoop.com/machinelearning_books/1165
