🔍 Vespa — поисковая платформа для работы с векторами и ML-моделями в реальном времени.
Проект предлагает нестандартный подход к обработке данных: он объединяет полнотекстовый поиск, векторные операции и ML-инференс в едином конвейере.
Платформа развертывается как в облаке, так и on-premise, а её архитектура оптимизирована для задач рекомендательных систем и персонализации. Хотя проект существует с 2003 года, он активно развивается — новые сборки выходят четыре раза в неделю.
🤖 GitHub
@machinelearning_ru
Проект предлагает нестандартный подход к обработке данных: он объединяет полнотекстовый поиск, векторные операции и ML-инференс в едином конвейере.
Платформа развертывается как в облаке, так и on-premise, а её архитектура оптимизирована для задач рекомендательных систем и персонализации. Хотя проект существует с 2003 года, он активно развивается — новые сборки выходят четыре раза в неделю.
🤖 GitHub
@machinelearning_ru
Introduction to Large Language Models (Google Cloud)
Онлайн-курс об архитектуре LLM, их применении и тонкой настройке.
🔗 https://www.cloudskillsboost.google/course_templates/276
ChatGPT Prompt Engineering for Developers (DeepLearning.AI & OpenAI)
Мини-курс по эффективному созданию промптов и использованию ChatGPT API.
🔗 https://learn.deeplearning.ai/chatgpt-prompt-eng
Learn Prompting (Open-Source Course)
Один из лучших бесплатных курсов по промпт-инжинирингу.
🔗 https://learnprompting.org/
Hugging Face Course
Базовый и средний уровень: трансформеры, токенизаторы, Datasets и Hub.
🔗 https://huggingface.co/course
Full Stack LLM Bootcamp (Fullstack Deep Learning)
Производственный уровень: инженерия запросов, LangChain, LLMOps.
🔗 https://fullstackdeeplearning.com/llm-bootcamp/spring-2023/
Stanford CS224N – Natural Language Processing with Deep Learning
Флагманский курс Стэнфорда по NLP с глубоким обучением.
🔗 https://cs224n.stanford.edu/
CS231n – Convolutional Neural Networks for Visual Recognition
Классический курс по компьютерному зрению.
🔗 http://cs231n.stanford.edu/
CS229 – Machine Learning (Stanford)
Продвинутый курс по ML с математическим уклоном.
🔗 https://cs229.stanford.edu/
AI for Everyone (Andrew Ng)
Обзорный курс по искусственному интеллекту для широкой аудитории.
🔗 https://www.deeplearning.ai/short-courses/ai-for-everyone/
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Google Cloud Skills Boost
Learn and earn with Google Cloud Skills Boost, a platform that provides free training and certifications for Google Cloud partners and beginners. Explore now.
This media is not supported in your browser
VIEW IN TELEGRAM
Задача под звездочкой.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Что умеет Wan2.1-VACE:
💡 Эти возможности можно свободно комбинировать, выполняя сложные креативные задачи.
🔍 Ключевые особенности:
▪ SOTA-производительность: Wan2.1 стабильно превосходит существующие open-source модели и даже коммерческие решения уровня state-of-the-art в ряде бенчмарков.
▪ Работает на обычных видеокартах: Модель T2V-1.3B требует всего 8.19 ГБ видеопамяти, что делает её совместимой почти со всеми пользовательскими GPU. Например, на RTX 4090 она генерирует 5-секундное видео 480P примерно за 4 минуты (без оптимизаций, таких как квантизация). Её производительность сопоставима с некоторыми закрытыми моделями.
▪ Мультизадачность: Wan2.1 демонстрирует хорошие результаты в задачах текст-в-видео, изображение-в-видео, видеомонтаж, текст-в-изображение и видео-в-аудио, продвигая границы генерации видео..
▪ Модель способна выдавать 1080P в теории любой длины, при этом сохраняя временную структуру.
- Размер модели: 1.3B и 14B
- Лицензия: Apache-2.
@ai_machinelearning_big_data
#Alibaba #wan #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
👾 MNN — глубокое обучение на мобильных устройствах от Alibaba. Фреймворк, разработанный инженерами Alibaba, стремительно набирает популярность как эффективное решение для запуска нейросетей на мобильных и embedded-устройствах.
MNN уже интегрирован в 30+ сервисов Alibaba, где обрабатывает 70+ сценариев — от рекомендательных систем до компьютерного зрения. Его ключевая особенность в кроссплатформенности: фреймворк работает даже на IoT-устройствах с минимальными ресурсами. Особый интерес представляет встроенный модуль для локального запуска языковых моделей на смартфонах и ПК.
🔗 Ссылка - *клик*
@machinelearning_ru
MNN уже интегрирован в 30+ сервисов Alibaba, где обрабатывает 70+ сценариев — от рекомендательных систем до компьютерного зрения. Его ключевая особенность в кроссплатформенности: фреймворк работает даже на IoT-устройствах с минимальными ресурсами. Особый интерес представляет встроенный модуль для локального запуска языковых моделей на смартфонах и ПК.
🔗 Ссылка - *клик*
@machinelearning_ru
В ElevenLabs запустили бесплатные пробные периоды для популярных инструментов — от озвучки текста до генерации картинок.
Что вы получите:
– Доступ в ElevenLabs на 3 месяца;
– Freepik с кредитами на $50;
– Mistral AI с кредитами на $25;
– Notion AI на полгода.
Получаем доступ по ссылке.
Что вы получите:
– Доступ в ElevenLabs на 3 месяца;
– Freepik с кредитами на $50;
– Mistral AI с кредитами на $25;
– Notion AI на полгода.
Получаем доступ по ссылке.
Media is too big
VIEW IN TELEGRAM
На COMPUTEX 2025 Дженсен Хуанг (CEO NVIDIA) представил обновлённую версию модели NVIDIA — Isaac GR00T N1.5, а также проект GR00T-Dreams.
🔹 Isaac GR00T N1.5 — это первое обновление открытой, универсальной и полностью настраиваемой базовой модели NVIDIA, предназначенной для обучения навыкам и логике поведения человекоподобных роботов.
🔹 По словам Дженсена, "обучение на у людей не масштабируется — нас ограничивает количество часов в сутках". Новый проект GR00T-Dreams позволяет генерировать огромное количество синтетических движений на основе одного изображения, ускоряя обучение роботов с помощью сжатых токенов действий.
🔹 Благодаря GR00T-Dreams удалось обучить модель GR00T N1.5 всего за 36 часов — процесс, который без этого подхода занял бы почти три месяца.
🔹 Обновление значительно повысило эффективность модели при выполнении стандартных задач в логистике и производстве. GR00T N1.5 можно будет запускать на новом устройстве Jetson Thor, релиз которого ожидается в этом году.
🔹 Isaac GR00T N1.5 — это первое обновление открытой, универсальной и полностью настраиваемой базовой модели NVIDIA, предназначенной для обучения навыкам и логике поведения человекоподобных роботов.
🔹 По словам Дженсена, "обучение на у людей не масштабируется — нас ограничивает количество часов в сутках". Новый проект GR00T-Dreams позволяет генерировать огромное количество синтетических движений на основе одного изображения, ускоряя обучение роботов с помощью сжатых токенов действий.
🔹 Благодаря GR00T-Dreams удалось обучить модель GR00T N1.5 всего за 36 часов — процесс, который без этого подхода занял бы почти три месяца.
🔹 Обновление значительно повысило эффективность модели при выполнении стандартных задач в логистике и производстве. GR00T N1.5 можно будет запускать на новом устройстве Jetson Thor, релиз которого ожидается в этом году.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Главным событием стал запуск Gemini Ultra — подписки за $249,99 в месяц, включающей доступ к Veo 3 (генератор видео со звуком), Imagen 4 (создание изображений) и Flow (редактор видео на базе ИИ). Для разработчиков анонсирован Stitch — инструмент, генерирующий код и UI по текстовому описанию или изображению.
Project Mariner, ИИ-агент для автоматизации веб-задач, теперь выполняет до 10 действий одновременно. В Gemini добавлены Live-режим с трансляцией экрана и интеграция с Google сервисами. Project Astra, мультимодальный ИИ с почти нулевой задержкой, будет использоваться в умных очках от Gentle Monster и Warby Parker.
В Поиске появится AI Mode для сложных запросов, а Beam (бывший Starline) предлагает 3D-телеконференции с переводом речи в реальном времени. В Workspace появятся умные ответы в Gmail и новые функции для Google Meet.
techcrunch.com
Apple анонсировала WWDC 2025: ключевое выступление пройдёт 9 июня в 10:00 PT, а трансляция будет доступна через Apple TV и на YouTube. Главной новостью станет выпуск SDK и фреймворков, позволяющих сторонним разработчикам внедрять ИИ-модели компании в свои приложения. Упор сделан на компактные локальные модели, работающие непосредственно на устройствах, — это отличает подход Apple от облачных решений конкурентов.
apple.com
Red Hat анонсировала обновления для RHEL, усилив интеграцию ИИ и контейнерных технологий. Теперь Red Hat Insights предлагает ИИ-рекомендации по выбору пакетов и планированию обновлений, упрощая подготовку систем под задачи ИИ-разработки. Сервис анализирует потребности инфраструктуры, помогает оптимизировать сборку образов и снижает риски при переходе на новые версии RHEL и AppStream.
Для изолированных сред в Red Hat Satellite 6.17 появился Insights advisor в виде контейнера — правила и исправления будут храниться локально и обновляться без интернета.
Satellite теперь поддерживает image mode, объединяя управление контейнерами и традиционными пакетами в единый рабочий процесс. Не осталась без внимания и безопасность: Insights proxy позволяет подключаться к аналитике RHEL через прокси, минуя прямое соединение с интернетом.
Обновления уже доступны через Hybrid Cloud Console для подписчиков RHEL.
businesswire.com
На мероприятии SAP Sapphire представлена Joule — ИИ-платформа для трансформации бизнес-процессов. Решение интегрируется с S4/Hana, Ariba, ServiceNow, Gmail и LinkedIn, используя ИИ для оптимизации CRM и финансовых операций. Уже сейчас платформа поддерживает 1600 навыков и 230 готовых ИИ-сценариев, а к концу 2025 года их число вырастет до 400.
Особый акцент был сделан на партнерстве с Perplexity: их поисковый движок станет основой для Joule. Гендиректор Perplexity подчеркнул преимущества технологии — широкий охват веба и скорость, опережающие Google и OpenAI.
community.sap.com
Tencent опубликовала техотчет Hunyuan-TurboS — гибридной LLM, сочетающей архитектуры Transformer и Mamba2. Ее ключевая фишка — адаптивный CoT, который автоматически переключается между быстрыми ответами для простых задач и глубоким анализом для сложных. Это экономит ресурсы: модель тратит на 47% меньше токенов при генерации, чем DeepSeek-R1.
Под капотом 128 слоев (57 Mamba2, 7 Attention, 64 FFN) с 56 млрд. активных параметров и 560 млрд. общих. Обучалась на 16 трлн. токенов, а контекстное окно расширено до 256 тыс. токенов благодаря NTK-позиционному кодированию.
В тестах LMSYS Chatbot Arena модель набрала 1356 баллов, войдя в топ-8. Она лидирует в китайском, французском и испанском сегментах, а в математике и STEM-задачах почти догоняет DeepSeek-V3. При этом скорость вывода в 1,8 раза выше, чем у чисто трансформерных аналогов.
Попробовать модель можно в демо-спейсе на HF.
Tencent-Hunyuan на Github
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
В статье собраны 50 лучших бесплатных или условно-бесплатных курсов (сертификат может быть платным), разделённых по уровням:
*Вводный (Beginner) → Промежуточный (Intermediate) → Продвинутый (Advanced).*
После каждого описания приведена полная кликабельная ссылка.
Please open Telegram to view this post
VIEW IN TELEGRAM
🧩 Scikit-Lego — неофициальное расширение для Scikit-learn с экспериментальными фичами.
Этот проект является коллекцией нестандартных трансформеров, моделей и метрик, которые часто приходилось писать вручную при работе с Scikit-learn. Здесь собрано все то, что не вошло в официальную библиотеку, но может пригодиться в реальных задачах.
Проект строго соблюдает API Scikit-learn, что позволяет легко встраивать компоненты в существующие пайплайны. При этом разработчики подчеркивают, что их детище это именно дополнение, а не замена классического Scikit-learn.
🤖 GitHub
@machinelearning_ru
Этот проект является коллекцией нестандартных трансформеров, моделей и метрик, которые часто приходилось писать вручную при работе с Scikit-learn. Здесь собрано все то, что не вошло в официальную библиотеку, но может пригодиться в реальных задачах.
Проект строго соблюдает API Scikit-learn, что позволяет легко встраивать компоненты в существующие пайплайны. При этом разработчики подчеркивают, что их детище это именно дополнение, а не замена классического Scikit-learn.
🤖 GitHub
@machinelearning_ru
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Intel представила 3 новых процессора серии Xeon 6, оптимизированных для управления GPU в ИИ-задачах. Модели на базе P-ядер используют технологии PCT и SST-TF и отличаются повышенной пропускной способностью памяти (на 30% быстрее аналогов) и на 20% большим числом PCIe-линий.
Intel заверяет, что надежность решений гарантирована — встроенные механизмы RAS-функций минимизируют простои. Сотрудничество с NVIDIA стало ключевым моментом: Xeon 6776P уже работает в системе NVIDIA DGX B300, которая позиционируется как одна из самых мощных ИИ-платформ на рынке.
Процессоры доступны для заказа. Intel ожидает роста спроса со стороны корпоративного сектора.
intel.com
Главное новшество — новая "Tab"модель, которая ускоряет навигацию и редактирование: теперь она предлагает изменения не только в текущем файле, но и нескольких файлах проекта, позволяя буквально «пролететь» через правки с помощью табов.
Режим Max Mode стал доступен для всех моделей: он расширяет контекстное окно и снимает лимиты на вызовы инструментов. Встроенный редактор (Command-K) тоже прокачали — теперь им можно править целые файлы, а не только фрагменты.
Для больших проектов добавили мульти-рутовые рабочие пространства и тегирование папок, чтобы подключать к контексту целые кодовые базы. Еще одна фишка — фоновые агенты: они выполняют задачи параллельно, помогая с дебагом, стилями или подготовкой PR. В ближайших планах — интеграция агентов с issue-трекерами, чтобы автоматизировать рутину.
Cursor в сети X (ex-Twitter)
Vercel открыла бета-доступ к своей ИИ-модели V0-1.0-md, заточенной под задачи фронтенда и фулл-стек разработки. Модель доступна через API и принимает текстовые или графические промпты и умеет исправлять в автоматическом режиме типовые баги, интегрируясь с инструментами, поддерживающими формат OpenAI.
Модель обучена на популярных фреймворках и обрабатывает до 128 тыс. токенов за раз (около 750 тыс. слов). Правда, тестировать новинку смогут только те, кто подключит премиум-план V0 ($20/мес.) или корпоративную подписку ($30 за пользователя/mec).
techcrunch.com
NVIDIA Research представила DreamGen — четырехэтапную систему генерации "нейронных траекторий» с помощью специальных видео-моделей для обучения роботов без предварительных демонстраций.
Сначала модель адаптируют под конкретного робота, затем генерируют видео с новыми сценариями по текстовым инструкциям. Из этих роликов извлекают псевдо-действия с помощью обратной динамики или латентных моделей, из которых формируют политики.
Эксперименты показали: чем больше синтетических данных, тем выше эффективность. При этом DreamGen работает на разных платформах — от дорогих манипуляторов до бюджетных моделей. Технология уже тестируется в реальных сценариях: от складов до домашних задач.
research.nvidia.com
SkyWork AI представила своего «супер-агента», который сразу занял первое место в GAIA Benchmark — ключевом тесте для ИИ-агентов. Система обошла конкурентов в первых двух уровнях сложности, а на третьем сравнялась с Manus.
Главный козырь: поддержка 5 форматов (Word, PPT, Excel, веб-кодинг, подкасты) с возможностью редактирования и отслеживания источников. Платформа максимально проста: вместо сложных промптов — выбор сценария и готовый результат.
Skywork Super Agents доступен как онлайн сервис (стоимость от $20/мес., есть пробный период), а для разработчиков открыли исходники фреймворка DeepResearch и API для вызова агентов по выбору.
globenewswire.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🏔️ DiffDock — ИИ для молекулярного докинга через диффузионные модели. Этот open-source проект использует диффузионные модели для предсказания, как маленькие молекулы будут связываться с белками. Точность превосходит традиционные методы на 20-30%, что подтверждено тестами на PDBBind и других бенчмарках.
Инструмент имеет трёхэтапный процесс: сначала предсказывается позиция лиганда, затем его ориентация, и наконец — конформационные изменения. В 2024 году вышла улучшенная версия DiffDock-L с поддержкой ESMFold для предсказания структуры белка по последовательности.
🤖 GitHub
@machinelearning_ru
Инструмент имеет трёхэтапный процесс: сначала предсказывается позиция лиганда, затем его ориентация, и наконец — конформационные изменения. В 2024 году вышла улучшенная версия DiffDock-L с поддержкой ESMFold для предсказания структуры белка по последовательности.
🤖 GitHub
@machinelearning_ru
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
OpenAI объявила об открытии первого офиса в Сеуле, реагируя на стремительный рост спроса на ChatGPT в Южной Корее. Страна занимает 2 место по числу платных подписчиков сервиса после США. Уже начат набор команды для укрепления местных партнерств, а детали проектов обещают раскрыть в ближайшие месяцы.
«От чипов до софта и от студентов до старшего поколения — корейская экосистема идеальна для внедрения ИИ», — отметил Джейсон Квон, директор по стратегии OpenAI. Ранее компания анонсировала сотрудничество с Kakao, разработчиком популярного мессенджера, для создания новых продуктов на базе ИИ.
bloomberg.com
С 27 мая техно-гигант начнет использовать публикации пользователей из Европы в своих соцсетях для обучения собственных ИИ-моделей. Пользователи могут попытаться ограничить доступ к своим данным, отправив запрос, но компания не гарантирует удовлетворение таких обращений — заявки будут рассматриваться «в соответствии с законами о защите данных».
Регуляторы Бельгии, Франции и Нидерландов уже выразили обеспокоенность таким подходом на фоне глобальных споров о сборе онлайн-данных для ИИ. Создатели моделей ИИ, в свою очередь, настаивают, что весь открытый контент пригоден для обучения, однако это инициирует судебные иски из-за нарушений авторских прав и приватности.
euronews.com
Модель o3 от OpenAI помогла выявить критическую уязвимость в модуле ksmbd ядра Linux, реализующем протокол SMB3. Речь идёт о CVE-2025-37899 — use-after-free в обработчике команды logoff, где освобождённый объект остаётся доступным для других потоков из-за отсутствия подсчета ссылок.
Автор исследования, ранее находивший подобные баги вручную, использовал o3 для анализа ~12 тыс. строк кода, что в итоге привело к обнаружению проблемы, требующей понимания параллельных подключений.
Хотя o3 выдает ложные срабатывания, ее способность анализировать код уже близка к человеческой.
sean.heelan.io
Команда SpeechLab (Alibaba Group) анонсировала CosyVoice 3 — новое поколение моделей для генерации речи, которое получило поддержку русского языка и улучшенную по сравнению с CosyVoice 2 передачу интонаций и эмоций.
Согласно препринту техотчета, в семействе 2 модели, на 0.5 и 1.5 млрд параметров с новым токенизатором MinMo. Модели обучались методом оптимизации наград DiffRO
на 1 млн. часов аудио с имитацией более 100 различных интонаций и эмоций.
По тестам CosyVoice 3 снизил частоту ошибок (CER/WER) на 44% для китайского и 51% для английского по сравнению с CosyVoice 2, и обошел F5-TTS, Spark-TTS в кросс-языковых задачах. Кода и весов моделей пока нет.
funaudiollm.github.io
Всего через несколько дней после запуска, Google расширил доступ к Veo 3, добавив 71 новую страну. Как сообщил вице-президент Gemini Джош Вудворд в сети Х, подписчики Gemini Pro получат пробный пакет из 10 генераций. А вот обладатели Ultra-подписки за $250 в месяц смогут создавать неограниченное количество роликов с ежедневным обновлением квот.
Но есть нюансы: Veo 3 работает исключительно в веб-версии Gemini Pro, поддерживает только английскую аудиодорожку, а в Flow mode нельзя добавить голос поверх загруженных изображений.
Похоже, Google повторяет успех NotebookLM, но теперь — на уровне визуального контента. Техническое комьюнити ждtт, когда модель научится мультиязычности и расширит функционал.
Josh Woodward в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 SkyRL — как обучить ИИ-агента реально думать и действовать
[SkyRL](https://github.com/NovaSky-AI/SkyRL) — это open-source фреймворк от NovaSky-AI, который помогает обучать языковые модели (LLM) не просто отвечать, а действовать. Он использует обучение с подкреплением (RL) в задачах, где агенту нужно выполнять несколько шагов и вызывать инструменты, как это делают умные ассистенты.
🔧 Что делает SkyRL:
✅ Учит ИИ работать поэтапно: планировать, думать, использовать поиск, писать SQL и т. д.
✅ Работает с внешними инструментами (Google, база данных, консоль и т.п.)
✅ Делает обучение быстрее за счёт асинхронных запусков
✅ Поддерживает удалённое обучение — можно запускать 100 агентов на одном сервере
---
### 📊 Что уже получилось:
🧩 SWE‑Bench (задачи из GitHub-реп):
Модель SkyRL-14B подняла точность с 18 % до 21.6 %
SkyRL-7B — с 11 % до 14.6 %
🧠 Text-to-SQL (написание SQL-запросов по описанию):
SkyRL-SQL‑7B, обученная всего на 653 примерах, обошла GPT‑4o и o4-mini на бенчмарке Spider.
🛠 Что внутри:
• Язык: Python
• Лицензия: Apache 2.0 — можно использовать в проде
• Поддержка CI/CD
• Интеграция с OpenHands для запуска на кластерах
👨💻 Кому подойдёт:
- Тем, кто делает умных агентов, которые решают задачи через инструменты
- Исследователям в области RL + LLM
- Разработчикам, которые хотят обучить модель на своих задачах — от SQL до программирования
SkyRL — это шаг к ИИ, который не только отвечает, но и решает задачи как настоящий помощник.
🔗 https://github.com/NovaSky-AI/SkyRL
[SkyRL](https://github.com/NovaSky-AI/SkyRL) — это open-source фреймворк от NovaSky-AI, который помогает обучать языковые модели (LLM) не просто отвечать, а действовать. Он использует обучение с подкреплением (RL) в задачах, где агенту нужно выполнять несколько шагов и вызывать инструменты, как это делают умные ассистенты.
🔧 Что делает SkyRL:
✅ Учит ИИ работать поэтапно: планировать, думать, использовать поиск, писать SQL и т. д.
✅ Работает с внешними инструментами (Google, база данных, консоль и т.п.)
✅ Делает обучение быстрее за счёт асинхронных запусков
✅ Поддерживает удалённое обучение — можно запускать 100 агентов на одном сервере
---
### 📊 Что уже получилось:
🧩 SWE‑Bench (задачи из GitHub-реп):
Модель SkyRL-14B подняла точность с 18 % до 21.6 %
SkyRL-7B — с 11 % до 14.6 %
🧠 Text-to-SQL (написание SQL-запросов по описанию):
SkyRL-SQL‑7B, обученная всего на 653 примерах, обошла GPT‑4o и o4-mini на бенчмарке Spider.
🛠 Что внутри:
• Язык: Python
• Лицензия: Apache 2.0 — можно использовать в проде
• Поддержка CI/CD
• Интеграция с OpenHands для запуска на кластерах
👨💻 Кому подойдёт:
- Тем, кто делает умных агентов, которые решают задачи через инструменты
- Исследователям в области RL + LLM
- Разработчикам, которые хотят обучить модель на своих задачах — от SQL до программирования
SkyRL — это шаг к ИИ, который не только отвечает, но и решает задачи как настоящий помощник.
🔗 https://github.com/NovaSky-AI/SkyRL
🧬 Представлен **Osmosis Structure 0.6B** — миниатюрная, но умная LLM c научным уклоном
Это часть семейства Osmosis — моделей, созданных специально для работы со знаниями и структурой в научных и технических текстах.
📦 Характеристики:
• Размер: всего 0.6B параметров — работает локально, быстро, экономно
• Область применения: наука, медицина, инженерия
• Обучена на текстах с высокой плотностью фактов и логики
• Поддерживает диалоговый режим, генерацию гипотез и объяснений
⚡ Почему это важно:
В эпоху гигантских моделей Osmosis Structure 0.6B — пример того, как маленькая LLM может быть точной и специализированной, а не просто "универсальной".
📌 Доступна через Ollama — можно запустить на локальной машине без интернета.
https://ollama.com/Osmosis/Osmosis-Structure-0.6B
@machinelearning_ru
Это часть семейства Osmosis — моделей, созданных специально для работы со знаниями и структурой в научных и технических текстах.
📦 Характеристики:
• Размер: всего 0.6B параметров — работает локально, быстро, экономно
• Область применения: наука, медицина, инженерия
• Обучена на текстах с высокой плотностью фактов и логики
• Поддерживает диалоговый режим, генерацию гипотез и объяснений
⚡ Почему это важно:
В эпоху гигантских моделей Osmosis Structure 0.6B — пример того, как маленькая LLM может быть точной и специализированной, а не просто "универсальной".
📌 Доступна через Ollama — можно запустить на локальной машине без интернета.
https://ollama.com/Osmosis/Osmosis-Structure-0.6B
@machinelearning_ru
🚀 Введение в Apache Hadoop для обработки больших данных на Java
Если вы хотите освоить обработку больших объемов данных с помощью Java, статья «Introduction to Apache Hadoop for Big Data Processing in Java» от Muthu Annamalai на BlackSlate станет отличным стартом.
В статье рассматриваются основные компоненты Hadoop:
HDFS (Hadoop Distributed File System): распределенная файловая система, обеспечивающая надежное хранение больших объемов данных.
MapReduce: модель программирования для параллельной обработки данных.
Также приводится пример реализации задачи WordCount с использованием Java MapReduce, что помогает понять, как применять Hadoop на практике.
Для тех, кто стремится углубиться в мир обработки больших данных с использованием Java, эта статья предоставляет полезные знания и практические примеры.
#BigData #Java #Hadoop #MapReduce #HDFS #BlackSlate
https://www.blackslate.io/articles/introduction-to-apache-hadoop-for-big-data-processing-in-java
Если вы хотите освоить обработку больших объемов данных с помощью Java, статья «Introduction to Apache Hadoop for Big Data Processing in Java» от Muthu Annamalai на BlackSlate станет отличным стартом.
В статье рассматриваются основные компоненты Hadoop:
HDFS (Hadoop Distributed File System): распределенная файловая система, обеспечивающая надежное хранение больших объемов данных.
MapReduce: модель программирования для параллельной обработки данных.
Также приводится пример реализации задачи WordCount с использованием Java MapReduce, что помогает понять, как применять Hadoop на практике.
Для тех, кто стремится углубиться в мир обработки больших данных с использованием Java, эта статья предоставляет полезные знания и практические примеры.
#BigData #Java #Hadoop #MapReduce #HDFS #BlackSlate
https://www.blackslate.io/articles/introduction-to-apache-hadoop-for-big-data-processing-in-java