tgoop.com/ai_machinelearning_big_data/7603
Last Update:
Nvidia анонсировала технологию NVLink Fusion, открывающую доступ NVLink для сторонних разработчиков. Это позволит партнерам использовать собственные CPU и ИИ-ускорители в связке с решениями Nvidia на уровне серверной стойки. NVLink Fusion обеспечивает 14-кратное преимущество в пропускной способности по сравнению с PCIe и интегрируется через чиплеты, с ним масштабирование кластеров для решения ИИ-задач станет проще.
В экосистему вошли Marvell, MediaTek и разработчики ПО Cadence и Synopsys, предлагающие инструменты для проектирования. Fujitsu планирует соединить свои 144-ядерные процессоры Monaka с архитектурой Nvidia для создания энергоэффективных ИИ-систем.
По словам Nvidia, первые решения на базе NVLink Fusion уже доступны для внедрения.
tomshardware.com
NLWeb — открытый протокол, который позволяет внедрять чат-боты с поддержкой естественного языка на любые сайты. По словам техэксперта Microsoft, система дает разработчикам инструменты для создания персонализированных ИИ-сервисов за минуты. Вместо дорогого индексирования данных NLWeb использует RSS-фиды и векторные базы, подключая даже бюджетные LLM.
Основная цель разработки протокола — сайты получат собственные ИИ-решения без зависимости от внешних LLM-провайдеров.. Microsoft уже сотрудничает с TripAdvisor и Shopify, продвигая протокол как альтернативу индивидуальным сделкам с OpenAI.
theverge.com
На Computex 2025 Intel анонсировала линейку Arc Pro «Battlemage» на базе архитектуры Xe2 и 5 нм чипа BMG-G21. Младшая модель B50 с 16 ГБ памяти заточена под профессиональную визуализацию, а B60 с 24 ГБ — под задачи ИИ-инференса. Энергопотребление у B50 всего 70Вт, а у флагманской модели до 200Вт через 600 Вт разъем питания с 12V2x6-коннектором.
Проект Battlematrix позволяет объединить до 8 GPU с суммарным объёмом VRAM до 192 ГБ для работы с ИИ-моделями на 70+ млрд. параметров
Выпуском карт, которые поступят в продажу в 3 квартале 2025 года, займутся партнеры Intel: ASRock, Gunnir и Maxsun. По заявлениям Intel, новые решения уже прошли сертификацию в основных профессиональных приложениях.
techpowerup.com
Apple опубликовала исследование о том, что многоязычные LLM часто генерируют неестественные тексты на французском, китайском и других языках из-за доминирования английского в обучающих данных.
Для оценки проблемы разработали метрики на основе распределения лексики (Jensen-Shannon Divergence) и синтаксиса (анализ деревьев зависимостей через ядро Weisfeiler-Lehman). Тесты показали: даже топовые модели отстают от человеческих текстов, особенно в языках, далеких от английского.
Решение нашли в тонкой настройке через DPO. Используя датасеты с естественными и искусственно искажёнными ответами, модели учатся избегать англицизмов. Llama-3.1 после доработки стала реже использовать конструкции вроде «победитель был объявлен» в китайском, заменяя их на более натуральные формулировки.
machinelearning.apple.com
Index-AniSora — модель для создания аниме-контента в разных стилях: от сериалов и манги до VTuber-анимации. Система построена на диффузионных моделях с улучшенным контролем времени и пространства и позволяет точно настраивать движения персонажей, мимику и даже отдельные кадры.
В релизе 2 версии: AniSoraV1.0 (на базе CogVideoX-5B) и AniSoraV2.0 (Wan2.1-14B). Вторая версия работает стабильнее, но первую можно запустить на потребительских GPU.
Модели обучались на датасете из 10 млн. пар "видео-тект" и 30 тыс. ручных оценок по 6 параметрам.
Bilibili на Github
@ai_machinelearning_big_data
#news #ai #ml