Forwarded from Machinelearning
Эти нейронные клеточные автоматы (Neural Cellular Automata) способны самособираться в заданные формы и даже восстанавливаться после повреждений.
В *Quanta Magazine* рассказали о том, как учёные научились обучать искусственные "клетки" собираться в заданные формы. Это похоже на игру «Жизнь» (*Game of Life*), но наоборот.
🧩 Что такое Game of Life?
Это простая компьютерная модель: есть сетка из клеток, у каждой клетки всего два состояния — «жива» или «мертва». Жизнь клетки зависит от соседей (например, если вокруг слишком много соседей, клетка умирает).
Обычно мы задаём правила и просто смотрим, что получится.
А теперь учёные сделали наоборот: сначала задаём цель (например, фигуру), а потом подбираем правила так, чтобы клетки сами в неё собрались.
⚙️ Что изменили учёные?
1. Непрерывные состояния - клетка не просто «вкл/выкл», а может быть наполовину активна. Это как лампочка с плавным регулятором яркости.
2. Скрытые переменные - у каждой клетки есть «внутренние параметры», которые влияют на её поведение. Представь, что у клетки есть «настроение» или «память», которое не видно исследователю напрямую.
3. Асинхронное обновление — клетки меняются в случайное время, а не все сразу. Это ближе к реальной жизни, где всё развивается не идеально синхронно.
💡 Зачем это нужно?
- Восстановление после повреждений: если часть фигуры «сломать», клетки могут достроить её заново.
- Децентрализация: нет главного управляющего - каждая клетка действует локально, но вместе они формируют систему.
- Устойчивость к шуму: клетки учатся справляться с хаосом и случайностями, а не просто повторяют выученный рисунок.
- Пока это работает для картинок и форм, но не для сложных живых организмов.
- Чтобы система умела «регенерировать», её нужно специально тренировать.
- Перенести эту идею в настоящие биологические клетки или роботов сложно — там много физических ограничений.
- Медицина - модели самовосстановления тканей.
- Робототехника - рой роботов, которые без команды сверху сами собираются в нужную конструкцию.
- Материалы будущего — «умные» кирпичики или детали, которые сами подстраиваются под окружение.
- Новые вычислительные системы - компьютеры без центрального процессора, где решения рождаются распределённо.
Учёные показали, что нейронные клеточные автоматы можно рассматривать как модель эволюции: геном не задаёт форму напрямую, а запускает процесс её построения, что делает системы гибкими и адаптивными.
Главное отличие от природы в том, что эволюция не имеет цели, а автоматы обучают под задачу.
Эти модели предлагают новый тип вычислений: каждая клетка взаимодействует только с соседями, что делает архитектуру распределённой и потенциально энергоэффективной.
Уже есть впечатляющие результаты — от распознавания цифр и умножения матриц до решения задач вроде IQ-тестов и управления роями роботов, которые начинают вести себя как единый организм.
В итоге работы Мордвинцева соединяют биологию, компьютеры и робототехнику, возвращая к идее, что жизнь и вычисления — две стороны одного процесса.
@ai_machinelearning_big_data
#evolution #machinelearning #neuralnetworks #biology
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🕶 Цукерберг представил новые ИИ-очки Ray-Ban Display AI Glasses .
Очки должны поступить в продажу в конце сентября по цене 799 долларов.
По задумке, это почти что «очки Тони Старка»:
- дисплей с разрешением 600х600 пикселей
- встроенные микрофоны, камеры и динамики
- управление через голос или жесты с помощью ЭМГ-браслета
- экран сбоку: не мешает обзору и остаётся невидимым для окружающих
Идея проста — пользователь задаёт очкам команды, а они выводят информацию на дисплей или озвучивают её.
Выглядит впечатляюще, но во время публичного анонса произошёл конфуз: очки у Марка Цукерберга и его команды прямо на сцене начали лагать и не заработали должным образом.
Для премьеры устройства такого уровня — довольно заметный фейл.
Акции компании сразу же поползли вниз.
🟠 Анонс
@neural
Очки должны поступить в продажу в конце сентября по цене 799 долларов.
По задумке, это почти что «очки Тони Старка»:
- дисплей с разрешением 600х600 пикселей
- встроенные микрофоны, камеры и динамики
- управление через голос или жесты с помощью ЭМГ-браслета
- экран сбоку: не мешает обзору и остаётся невидимым для окружающих
Идея проста — пользователь задаёт очкам команды, а они выводят информацию на дисплей или озвучивают её.
Выглядит впечатляюще, но во время публичного анонса произошёл конфуз: очки у Марка Цукерберга и его команды прямо на сцене начали лагать и не заработали должным образом.
Для премьеры устройства такого уровня — довольно заметный фейл.
Акции компании сразу же поползли вниз.
@neural
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🩺 GPT-5 обогнал врачей в медицинских задачах
Исследователи проверили GPT-5 на реальных тестах для медицины: анализ текста и изображений вместе — так, как это делают врачи каждый день.
📊 Что получилось:
- +29,6% к уровню рассуждений
- +36,2% к пониманию информации
- В некоторых заданиях GPT-5 дал более точные ответы, чем врачи
⚡ Это уже не «бот для забавных фактов». ИИ выходит на уровень клинического мышления: он учится ставить диагнозы и принимать решения.
Да, ошибки и «галлюцинации» ещё бывают. Но направление ясно: ИИ быстро сокращает разрыв в самой важной области медицины — диагностике.
❓Когда ИИ начнёт читать снимки лучше врача — на чьё решение вы захотите опираться: человека, алгоритма или обоих вместе?
Исследователи проверили GPT-5 на реальных тестах для медицины: анализ текста и изображений вместе — так, как это делают врачи каждый день.
📊 Что получилось:
- +29,6% к уровню рассуждений
- +36,2% к пониманию информации
- В некоторых заданиях GPT-5 дал более точные ответы, чем врачи
⚡ Это уже не «бот для забавных фактов». ИИ выходит на уровень клинического мышления: он учится ставить диагнозы и принимать решения.
Да, ошибки и «галлюцинации» ещё бывают. Но направление ясно: ИИ быстро сокращает разрыв в самой важной области медицины — диагностике.
❓Когда ИИ начнёт читать снимки лучше врача — на чьё решение вы захотите опираться: человека, алгоритма или обоих вместе?
🚀 EmbeddingGemma — лёгкие SOTA-эмбеддинги
🔹 308M параметров, построена на Gemma 3
🔹 Лидирует в MTEB среди моделей <500M (мультиязычные, английский, код)
🔹 По качеству сопоставима с моделями в 2 раза больше
🔹 Эффективна даже при 4-битной квантовке и 128-мерных эмбеддингах
⚙️ Технические фишки:
- инициализация через encoder-decoder + геометрическая дистилляция,
- spread-out регуляризатор + model souping для устойчивости.
📱 Подходит для on-device сценариев и задач с высоким пропуском (high-throughput).
https://ai.google.dev/gemma/docs/embeddinggemma?hl=ru
#AI #Embeddings #Gemma3 #MTEB #NLP
🔹 308M параметров, построена на Gemma 3
🔹 Лидирует в MTEB среди моделей <500M (мультиязычные, английский, код)
🔹 По качеству сопоставима с моделями в 2 раза больше
🔹 Эффективна даже при 4-битной квантовке и 128-мерных эмбеддингах
⚙️ Технические фишки:
- инициализация через encoder-decoder + геометрическая дистилляция,
- spread-out регуляризатор + model souping для устойчивости.
📱 Подходит для on-device сценариев и задач с высоким пропуском (high-throughput).
https://ai.google.dev/gemma/docs/embeddinggemma?hl=ru
#AI #Embeddings #Gemma3 #MTEB #NLP
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Модель ростроенная на базе open-source Hunyuan3D 2.1 и называемая «ControlNet для 3D», система решает проблемы кривых генераций и искажённой геометрии, интегрируя до четырёх условий контроля.
Две ключевые инновации:
- Лёгкий унифицированный энкодер управления для эффективного мультимодального фьюжна
- Стратегия прогрессивного обучения по сложности, повышающая устойчивость модели
Возможности:
- Управление по одному изображению и наброску позволяет точно задавать позы для анимаций и аватаров
- Использование облака точек (полного или построенного по глубине): убирает визуальную неопределённость и обеспечивает реалистичную геометрию
- Контроль через bounding box: задаёт пропорции объекта (длину, ширину и высоту) в соответствии с дизайном
- Voxel-контроль: формирует топологию объекта, что удобно и для инженерных, и для творческих сценариев
Tencent дропнули код и веса.
@ai_machinelearning_big_data
#3DGenAI #TencentHunyuan #OpenSourceAI
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡ Менять автоэнкодер в latent diffusion моделях проще, чем кажется.
🚀 DC-Gen — это новый фреймворк для ускорения диффузионных моделей после обучения.
Он переводит любую готовую модель в глубоко сжатое латентное пространство, снижая затраты и многократно ускоряя генерацию.
🔑 Основное
- Высокое разрешение без потерь качества
Версия DC-Gen-FLUX.1-Krea-12B выдаёт то же качество, что и оригинал, но работает в 53 раза быстрее на H100 при 4K.
С NVFP4 картинка 4K генерируется всего за 3.5 секунды на одной NVIDIA 5090 (20 шагов).
- 💸 Низкая стоимость адаптации
Перевод FLUX.1-Krea-12B в глубоко-сжатый автоэнкодер требует всего 40 GPU-дней на H100.
📄 Статья: https://arxiv.org/abs/2509.25180
💻 Код: https://github.com/dc-ai-projects/DC-Gen
🎨 Модели : https://huggingface.co/collections/dc-ai/dc-gen-6899bb095082244f396203e1
#diffusion #deeplearning #AI
🚀 DC-Gen — это новый фреймворк для ускорения диффузионных моделей после обучения.
Он переводит любую готовую модель в глубоко сжатое латентное пространство, снижая затраты и многократно ускоряя генерацию.
🔑 Основное
- Высокое разрешение без потерь качества
Версия DC-Gen-FLUX.1-Krea-12B выдаёт то же качество, что и оригинал, но работает в 53 раза быстрее на H100 при 4K.
С NVFP4 картинка 4K генерируется всего за 3.5 секунды на одной NVIDIA 5090 (20 шагов).
- 💸 Низкая стоимость адаптации
Перевод FLUX.1-Krea-12B в глубоко-сжатый автоэнкодер требует всего 40 GPU-дней на H100.
📄 Статья: https://arxiv.org/abs/2509.25180
💻 Код: https://github.com/dc-ai-projects/DC-Gen
🎨 Модели : https://huggingface.co/collections/dc-ai/dc-gen-6899bb095082244f396203e1
#diffusion #deeplearning #AI
Media is too big
VIEW IN TELEGRAM
GigaChat Vision Team — ваша будущая команда! 😉
Если вы зарегистрируетесь на One Day Offer для NLP- и CV-инженеров и пройдёте все этапы отбора, то уже совсем скоро будете:
✔️ Обучать Vision, 3D/CAD и омни-модальные модели на тысячах A100/H100.
✔️ Создавать live-ассистента на edge-устройствах, а также базовые модели VLA для промышленных проектов: автоматизированных фабрик, автопилотов и роботов.
✔️ Работать с документами: Document Intelligence и разработка VLM OCR.
✔️ Развивать мультимодальную инфраструктуру: от инференса генеративных моделей до создания и авторазметки синтетических данных
Дублируем ссылку на регистрацию — до встречи 4 октября!
Если вы зарегистрируетесь на One Day Offer для NLP- и CV-инженеров и пройдёте все этапы отбора, то уже совсем скоро будете:
✔️ Обучать Vision, 3D/CAD и омни-модальные модели на тысячах A100/H100.
✔️ Создавать live-ассистента на edge-устройствах, а также базовые модели VLA для промышленных проектов: автоматизированных фабрик, автопилотов и роботов.
✔️ Работать с документами: Document Intelligence и разработка VLM OCR.
✔️ Развивать мультимодальную инфраструктуру: от инференса генеративных моделей до создания и авторазметки синтетических данных
Дублируем ссылку на регистрацию — до встречи 4 октября!
🏗️ Новый тренд в AI-инвестициях: вместо привычных «Magnificent Seven» (Apple, Microsoft, Nvidia и др.) инвесторы начинают ставить на Oracle, Broadcom и Palantir как на следующих лидеров.
📊 Что важно знать:
- Oracle заключила контракт с OpenAI на $300 млрд и уже имеет заказы на $455 млрд. Строит новые дата-центры на 4.5 ГВт. Акции выросли на 60% за год.
- Broadcom делает полу-кастомные чипы для Google, Meta и скоро для OpenAI. Недавно получила заказ на $10 млрд. В Q4 ожидается $6.2 млрд выручки от AI.
- Palantir показывает взрывной рост на фоне AI: +48% к выручке во 2 квартале 2025, а акции подскочили на +386% за год. Но бумаги считаются рискованными из-за высокой оценки.
- Axon использует AI для обработки видео с бодикамер — система сама пишет черновики полицейских отчётов.
- SK Hynix зарабатывает на памяти для мегапроекта OpenAI Stargate.
- Nvidia остаётся главным игроком ($4.5 трлн капитализации), но появляются новые конкуренты вроде CoreWeave и кастомных чипов.
💡 Главный вывод: рост в AI всё больше идёт не только за счёт «больших» компаний, а через инфраструктуру, крупные заказы и специализированные чипы.
Источник: afr.com/markets/equity-markets/fund-managers-tip-the-next-winners-of-the-ai-revolution-20250929-p5myml
#AI #инвестиции #акции #cloud #chips
📊 Что важно знать:
- Oracle заключила контракт с OpenAI на $300 млрд и уже имеет заказы на $455 млрд. Строит новые дата-центры на 4.5 ГВт. Акции выросли на 60% за год.
- Broadcom делает полу-кастомные чипы для Google, Meta и скоро для OpenAI. Недавно получила заказ на $10 млрд. В Q4 ожидается $6.2 млрд выручки от AI.
- Palantir показывает взрывной рост на фоне AI: +48% к выручке во 2 квартале 2025, а акции подскочили на +386% за год. Но бумаги считаются рискованными из-за высокой оценки.
- Axon использует AI для обработки видео с бодикамер — система сама пишет черновики полицейских отчётов.
- SK Hynix зарабатывает на памяти для мегапроекта OpenAI Stargate.
- Nvidia остаётся главным игроком ($4.5 трлн капитализации), но появляются новые конкуренты вроде CoreWeave и кастомных чипов.
💡 Главный вывод: рост в AI всё больше идёт не только за счёт «больших» компаний, а через инфраструктуру, крупные заказы и специализированные чипы.
Источник: afr.com/markets/equity-markets/fund-managers-tip-the-next-winners-of-the-ai-revolution-20250929-p5myml
#AI #инвестиции #акции #cloud #chips
#ai #machinelearning
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Австралийский стартап Crest Robotics из Сиднея представил гигантского паукообразного робота по имени Charlotte.
Он умеет 3D-печатать целые здания, используя сырьё, которое перерабатывает прямо на месте строительства.
Следующая цель команды — научить Charlotte строить сооружения на Луне.
Он умеет 3D-печатать целые здания, используя сырьё, которое перерабатывает прямо на месте строительства.
Следующая цель команды — научить Charlotte строить сооружения на Луне.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
🔥 Сенсей Карпаты выложил новый репозиторий - полный пайплайн обучения LLM с нуля
В проекте есть всё, чтобы собрать свой ChatGPT-клон за $100 и 4 часа:
> • токенизатор
> • pretraining
> • SFT (supervised fine-tuning)
> • RL (reinforcement learning)
> • оценка модели (eval)
Всего 8 000 строк кода, без лишних зависимостей - идеальный учебный пример, чтобы понять, как реально устроено обучение больших языковых моделей.
💡 Это проект из его нового курса Карпаты LLM101n, и отличная возможность прокачать свои ML-навыки на практике.
Можно арендовать GPU в облаке и запустить всё самому - код уже готов к запуску.
Если запустить обучение модели nanochat на облачном GPU-сервере (например, 8×H100), то примерно через 12 часов обучения (стоимость ~300–400 $) модель достигает уровня GPT-2 по качеству на тестовых наборах (CORE-score).
А если тренировать около 40 часов (затраты ~1000 $), решает простые задачи по математике и коду, набирая:
- 40+ на MMLU
- 70+ на ARC-Easy
- 20+ на GSM8K
🧠 Это бесплатная практика топ уровня от мастера, которую не стоит упускать.
🟠 GitHub:https://github.com/karpathy/nanochat
🟠 Технические детали: https://github.com/karpathy/nanochat/discussions/1
@ai_machinelearning_big_data
#LLM #nanochat #MachineLearning #DeepLearning #AI #GPT
В проекте есть всё, чтобы собрать свой ChatGPT-клон за $100 и 4 часа:
> • токенизатор
> • pretraining
> • SFT (supervised fine-tuning)
> • RL (reinforcement learning)
> • оценка модели (eval)
Всего 8 000 строк кода, без лишних зависимостей - идеальный учебный пример, чтобы понять, как реально устроено обучение больших языковых моделей.
💡 Это проект из его нового курса Карпаты LLM101n, и отличная возможность прокачать свои ML-навыки на практике.
Можно арендовать GPU в облаке и запустить всё самому - код уже готов к запуску.
Если запустить обучение модели nanochat на облачном GPU-сервере (например, 8×H100), то примерно через 12 часов обучения (стоимость ~300–400 $) модель достигает уровня GPT-2 по качеству на тестовых наборах (CORE-score).
А если тренировать около 40 часов (затраты ~1000 $), решает простые задачи по математике и коду, набирая:
- 40+ на MMLU
- 70+ на ARC-Easy
- 20+ на GSM8K
🧠 Это бесплатная практика топ уровня от мастера, которую не стоит упускать.
@ai_machinelearning_big_data
#LLM #nanochat #MachineLearning #DeepLearning #AI #GPT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Оксфордские учёные подтвердили худшие опасения: Интернет умирает
Исследователи из Оксфорда выяснили: интернет больше не тот, что раньше:
- В 2020 году ИИ создавал всего 5% контента,
- В 2025 - уже 48%, а к следующему году прогнозируют более 90%.
ИИ-текст стоит очень дешево, человеческий труд - от $10 до $100 за статью.
Рынок выбрал скорость и дешевизну.
Но настоящая проблема -**«model collapse»**:
когда нейросети обучаются на тексте, созданном другими нейросетями.
Это как ксерить ксерокопию - каждое поколение теряет детали и оригинальные идеи.
Мир превращается в поток однообразного, усреднённого контента.
ИИ сегодня создаёт “цифровую кашу”, а завтра будет учиться уже на ней. И каждый новый виток делает интернет чуть глупее.
#AI #Oxford #ModelCollapse #Internet #AIGeneratedContent #LLM #AIEthics #DigitalDecay
Исследователи из Оксфорда выяснили: интернет больше не тот, что раньше:
- В 2020 году ИИ создавал всего 5% контента,
- В 2025 - уже 48%, а к следующему году прогнозируют более 90%.
ИИ-текст стоит очень дешево, человеческий труд - от $10 до $100 за статью.
Рынок выбрал скорость и дешевизну.
Но настоящая проблема -**«model collapse»**:
когда нейросети обучаются на тексте, созданном другими нейросетями.
Это как ксерить ксерокопию - каждое поколение теряет детали и оригинальные идеи.
Мир превращается в поток однообразного, усреднённого контента.
ИИ сегодня создаёт “цифровую кашу”, а завтра будет учиться уже на ней. И каждый новый виток делает интернет чуть глупее.
#AI #Oxford #ModelCollapse #Internet #AIGeneratedContent #LLM #AIEthics #DigitalDecay
🔥 10 Python-библиотек, которые должен знать каждый разработчик LLM и GenAI
1️⃣ [LangChain](https://www.langchain.com/)
Фреймворк для создания LLM-приложений, агентов и инструментов.
Позволяет соединять языковые модели с базами данных, API и внешними сервисами.
Идеален для построения RAG-систем, чат-ботов и аналитических ассистентов.
2️⃣ [LangGraph](https://github.com/langchain-ai/langgraph)
Надстройка над LangChain для создания сложных многоагентных систем.
Поддерживает условную логику, ветвления и сохранение состояния.
Используется для разработки автономных агентов, которые сотрудничают и планируют задачи.
3️⃣ [Docling](https://github.com/DS4SD/docling)
Инструмент для анализа и извлечения информации из документов.
Объединяет LLM, LangChain и RAG-подход для “умного” чтения PDF, таблиц и сканов.
Подходит для систем документооборота, юридических и научных данных.
4️⃣ [OpenAI Python SDK](https://github.com/openai/openai-python)
Официальная библиотека для работы с моделями GPT-4o, DALL-E, Whisper и другими API OpenAI.
Позволяет вызывать модели, генерировать текст, изображения и транскрибировать аудио в несколько строк кода.
Главный инструмент для интеграции мощных моделей в свои Python-приложения.
5️⃣ [Markitdown (Microsoft)](https://github.com/microsoft/markitdown)
Библиотека от Microsoft для создания интерфейсов LLM-приложений с использованием Markdown.
Позволяет описывать UI и рабочие процессы прямо в тексте — быстро, удобно и без JavaScript.
Полезна для автоматизации LLM-воркфлоу и простых чат-интерфейсов.
6️⃣ [Streamlit](https://streamlit.io/)
Фреймворк для построения интерактивных AI-дашбордов и веб-приложений.
Позволяет визуализировать результаты модели, строить формы ввода, графики и интерактивные элементы.
Отличный выбор для быстрой демонстрации или внутреннего прототипа GenAI-проекта.
7️⃣ [FastAPI](https://fastapi.tiangolo.com/)
Высокопроизводительный фреймворк для создания REST и WebSocket API.
Идеален для деплоя ML и LLM моделей в продакшене.
Быстрый, типизированный и легко масштабируемый — стандарт де-факто в AI-бэкендах.
8️⃣ [Faiss](https://github.com/facebookresearch/faiss)
Библиотека от Meta для векторного поиска и кластеризации эмбеддингов.
Молниеносно ищет похожие тексты, изображения или документы в огромных наборах данных.
Необходима в RAG-системах, рекомендациях и семантическом поиске.
9️⃣ [SentenceTransformers](https://www.sbert.net/)
Набор моделей для генерации эмбеддингов предложений, текстов и документов.
Даёт качественные векторные представления для поиска, кластеризации и анализа смысловой близости.
Отлично работает вместе с Faiss и LangChain.
🔟 [MLflow](https://mlflow.org/)
Инструмент для трекинга экспериментов, управления моделями и деплоя ML-проектов.
Позволяет отслеживать метрики, сравнивать версии и хранить модели в централизованном реестре.
Незаменим при построении воспроизводимого и управляемого MLOps-процесса.
⚙️ Эти библиотеки формируют единый стек для создания LLM-агентов, RAG-систем, аналитических ассистентов и AI-сервисов — от эксперимента до продакшена.
1️⃣ [LangChain](https://www.langchain.com/)
Фреймворк для создания LLM-приложений, агентов и инструментов.
Позволяет соединять языковые модели с базами данных, API и внешними сервисами.
Идеален для построения RAG-систем, чат-ботов и аналитических ассистентов.
2️⃣ [LangGraph](https://github.com/langchain-ai/langgraph)
Надстройка над LangChain для создания сложных многоагентных систем.
Поддерживает условную логику, ветвления и сохранение состояния.
Используется для разработки автономных агентов, которые сотрудничают и планируют задачи.
3️⃣ [Docling](https://github.com/DS4SD/docling)
Инструмент для анализа и извлечения информации из документов.
Объединяет LLM, LangChain и RAG-подход для “умного” чтения PDF, таблиц и сканов.
Подходит для систем документооборота, юридических и научных данных.
4️⃣ [OpenAI Python SDK](https://github.com/openai/openai-python)
Официальная библиотека для работы с моделями GPT-4o, DALL-E, Whisper и другими API OpenAI.
Позволяет вызывать модели, генерировать текст, изображения и транскрибировать аудио в несколько строк кода.
Главный инструмент для интеграции мощных моделей в свои Python-приложения.
5️⃣ [Markitdown (Microsoft)](https://github.com/microsoft/markitdown)
Библиотека от Microsoft для создания интерфейсов LLM-приложений с использованием Markdown.
Позволяет описывать UI и рабочие процессы прямо в тексте — быстро, удобно и без JavaScript.
Полезна для автоматизации LLM-воркфлоу и простых чат-интерфейсов.
6️⃣ [Streamlit](https://streamlit.io/)
Фреймворк для построения интерактивных AI-дашбордов и веб-приложений.
Позволяет визуализировать результаты модели, строить формы ввода, графики и интерактивные элементы.
Отличный выбор для быстрой демонстрации или внутреннего прототипа GenAI-проекта.
7️⃣ [FastAPI](https://fastapi.tiangolo.com/)
Высокопроизводительный фреймворк для создания REST и WebSocket API.
Идеален для деплоя ML и LLM моделей в продакшене.
Быстрый, типизированный и легко масштабируемый — стандарт де-факто в AI-бэкендах.
8️⃣ [Faiss](https://github.com/facebookresearch/faiss)
Библиотека от Meta для векторного поиска и кластеризации эмбеддингов.
Молниеносно ищет похожие тексты, изображения или документы в огромных наборах данных.
Необходима в RAG-системах, рекомендациях и семантическом поиске.
9️⃣ [SentenceTransformers](https://www.sbert.net/)
Набор моделей для генерации эмбеддингов предложений, текстов и документов.
Даёт качественные векторные представления для поиска, кластеризации и анализа смысловой близости.
Отлично работает вместе с Faiss и LangChain.
🔟 [MLflow](https://mlflow.org/)
Инструмент для трекинга экспериментов, управления моделями и деплоя ML-проектов.
Позволяет отслеживать метрики, сравнивать версии и хранить модели в централизованном реестре.
Незаменим при построении воспроизводимого и управляемого MLOps-процесса.
⚙️ Эти библиотеки формируют единый стек для создания LLM-агентов, RAG-систем, аналитических ассистентов и AI-сервисов — от эксперимента до продакшена.
This media is not supported in your browser
VIEW IN TELEGRAM
Один One Day Offer вам или целых три — всем? 😉
25 октября Сбер проведёт сразу три экспресс-отбора кандидатов в две команды: GigaData и Kandinsky. Чем вам предстоит заниматься 👇
✔️ Развивать GigaData — внутреннюю платформу Сбера, которая обрабатывает петабайты данных и миллиарды запросов в сутки. One Day Offer для Python‑разработчиков.
✔️ Работать над Kandinsky — обучать большие модели с нуля, собирать и подготавливать данные, исследовать самые эффективные методы дообучения моделей.
— One Day Offer для Machine Learning Engineers с опытом в Deep Learning и компьютерном зрении (CV).
— One Day Offer для Research и Deep Learning Engineers.
Выбирайте то, что больше подходит под ваши навыки, и регистрируйтесь на One Day Offer!
25 октября Сбер проведёт сразу три экспресс-отбора кандидатов в две команды: GigaData и Kandinsky. Чем вам предстоит заниматься 👇
✔️ Развивать GigaData — внутреннюю платформу Сбера, которая обрабатывает петабайты данных и миллиарды запросов в сутки. One Day Offer для Python‑разработчиков.
✔️ Работать над Kandinsky — обучать большие модели с нуля, собирать и подготавливать данные, исследовать самые эффективные методы дообучения моделей.
— One Day Offer для Machine Learning Engineers с опытом в Deep Learning и компьютерном зрении (CV).
— One Day Offer для Research и Deep Learning Engineers.
Выбирайте то, что больше подходит под ваши навыки, и регистрируйтесь на One Day Offer!