Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
2530 - Telegram Web
Telegram Web
ИИ уже перестал быть «фишкой на перспективу».
Для бизнеса он инструмент, который сокращает время до результата и помогает выиграть гонку за рынок.
А для сотрудника - способ, который даёт больше свободы для творчества и стратегической работы, убирая из дня всё лишнее.

📊 McKinsey: до 60% задач продакт-менеджмента и разработки можно автоматизировать.
📊 GitHub: 92% разработчиков уже применяют ИИ в работе.

В условиях современного мира, время = деньги.
ИИ снимает рутину, ускоряет аналитику, помогает готовить питчи и тестировать гипотезы. То, на что раньше уходила неделя, теперь можно сделать за 1–2 дня.

5 августа в 17:00 (МСК) - практикум «AI для управления проектами и личной эффективностью» от Тараса Довгаля - автора канала @vibesandtech, кофаундера стартапов (Chatplace, VibeSkills.ru) и продуктового стратега в международных IT, Web3 и AI‑проектах.

На практикуме вы разберёте:

- как встроить ИИ в ежедневные рабочие процессы без сложных интеграций;
- как использовать GPT, Claude, Gemini и другие модели для генерации идей, поиска решений и анализа;
- как автоматизировать планирование и распределение задач, чтобы высвободить время для приоритетных направлений.

В результате вы сможете:

- экономить часы на планировании и коммуникации;
- быстрее готовить аналитику и материалы для принятия решений;
- удерживать команду в фокусе на ключевых целях и росте продукта.

🎁 Участники получат PDF‑гайды, таблицы, шаблоны и готовые рабочие цепочки, которые можно внедрить без кода и сложных интеграций.

@vibeskills_bot — старт уже в понедельник. Места ограничены. Следующая возможность будет не скоро.

#промо
👍4😁2🔥1
🧠 HRM: маленькая модель, которая решает большие головоломки

Новая архитектура HRM решает сложные задачи вроде ARC‑AGI и Sudoku‑Extreme имея всего 27 млн параметров и ~1 000 примеров на задачу — без pretraining и chain-of-thought.

🤯 Что это вообще такое?

HRM — это двухуровневая нейросеть:
H-модуль (медленный): строит стратегию,
L-модуль (быстрый): реализует её по шагам.

Они итеративно «думают» до тех пор, пока не придут к стабильному решению — внутри одного forward pass, без CoT.

🛠 Как это работает

Модель устроена как диалог двух частей:

Планировщик предлагает стратегию, исполнитель пробует - и цикл повторяется, пока оба не «сходятся» на ответе (fixed-point convergence).

Обучение идёт без раскрутки всех шагов назад - модель учится прямо в точке согласия (implicit gradients).

А встроенный Q‑модуль сам решает, когда «достаточно подумала» и пора отвечать.

📊 Что получилось
ARC‑AGI: 40.3 % точности — выше многих CoT-моделей.
Sudoku‑Extreme, Maze‑Hard: 100 % точности, против 0 % у трансформеров.
Ресурсы: обучение от 2 до 200 GPU-часов — суперэкономично.

⚖️ Почему это важно

HRM показывает: reasoning можно делать не через текст, а внутри модели. Это эффективно по параметрам, быстро в inference и потенциально интерпретируемо.

Но пока всё это работает только на синтетических задачах. Масштабируемость и применимость в реальных кейсах - вопросы на которые только предстоит ответить.

🧩 Итог

HRM — попытка приблизить модели к человеческому мышлению: не просто продолжать текст, а по-настоящему планировать.

Ссылка

🗣️ Верите в latent reasoning?
Или CoT навсегда?
Пишите в комментариях - и поделитесь постом, если было интересно!
🔥21👍63
🛒🤖 «Бот, купи мне всё!». Shopify подготавливает революцию в e-commerce

Shopify выкатил MCP-API (Catalog, Cart, Checkout), который позволяет любому AI-агенту искать товар у 2 M продавцов, собирать «смешанную» корзину и оплачивать покупку — без боли с PCI и налогообложением. Это первый серьёзный шаг к тому, чтобы мы покупали не «на сайтах», а через диалоги с LLM.

🚀 Почему шум?

Мы привыкли, что интернет-магазины — это кнопки «Add to cart» и красиво сверстанные лендинги. Но LLM-агенты видят мир иначе: для них важны структурированные данные, а не шрифт и баннер. Shopify ловит волну и предлагает разработчикам три call-а вместо целого стека.

🔍 Как это работает под капотом
1. Catalog — search_catalog отдает миллионы SKU сразу с инструкцией, как их показать (MCP-UI).
2. Cart — update_cart держит товары из любых Shopify-магазинов в одном объекте (обещают, что добавят и внешние SKU).
3. Checkout — create_checkout генерирует готовую страницу оплаты с Shop Pay: налоги, GDPR, фрод-чек — всё уже внутри.

Developer experience: три HTTPS-запроса → полноценный marketplace-бот.

🌍 Что меняется для рынка
Дизайн → Данные. Первая страница Google эпохи LLM — это твой product-feed.
Взрыв нишевых агентов. «Собери мне капсульный гардероб» или «найди дешевле запчасти к байку» — всё это теперь MVP на выходные.
Нужно чистить фиды. Буквально: качественный JSON = место на полке нового магазина.

🏁 Итог

Shopify тихо перезапускает правила игры: браузер → чат, лендинг → JSON. Кто успеет разобраться в MCP-API сейчас, тот завтра станет экспертом «agentic commerce».

🪿 Блог-пост

⚡️ Вопрос к вам: доверили бы боту собрать подарки на Новый год без вашего участия? Расскажите в комментариях!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥188😁2
🎧 Perch 2.0 - простая supervised-модель для биоакустики

DeepMind показали новую модель для распознавания звуков животных. Без self-supervised магии, без миллиардов параметров. Просто хорошо сделанная supervised-модель которая рвет все бенчмарки

Звуки природы — это данные.

Для биологов и экологов это ключ к выживанию видов: по записям звуков можно понять, кто живёт в лесу, сколько их, размножаются ли они и не вытесняет ли их человек.

Но расшифровывать эти саундскейпы - адский труд. Час записи в тропиках = звуки десятки животных, наслаивающихся друг на друга.

И вот тут приходит AI.

🐦 Что делает Perch 2.0?

Это универсальный эмбеддер для звуков животных: берёт аудио (5 секунд), выдаёт вектор, с которым можно:
• искать похожие фрагменты (nearest neighbor)
• делать кластеризацию
• обучать линейный классификатор для нового вида (few-shot)

И всё это без GPU и fine-tuning.

Модель натренирована на 1.5 миллионах аудио-записей: птицы, насекомые, млекопитающие, даже урбанистический шум из FSD50k.

🛠 Как работает?

Perch 2.0 — это EfficientNet‑B3 (всего 12M параметров) + три головы:
1. Основная — классифицирует ~15k видов.
2. Прототипная — даёт семантически богатые логиты (для distillation).
3. Source prediction — угадывает, из какой записи взят кусок (а-ля self-supervised).

Фишка: модель обучается в два этапа. Сначала прототипная голова учится сама, потом её логиты становятся soft-label’ами для основной головы. Это и есть self-distillation.

📊 И как оно по качеству?

Perch 2.0 побила все предыдущие модели:
• На BirdSet и BEANS — новые SOTA по ROC-AUC и mAP.
• Даже на морских звуках китов и дельфинов показала отличную переносимость — при том, что почти не видела морских данных.

И да, всё это — без fine-tuning, просто на фиксированных эмбеддингах.

🤯 Почему это вообще важно?

Пока весь ML уходит в миллиардные LLM’ы и self-supervised pretraining, Perch напоминает: качественная разметка + хорошо сформулированная задача решают всё.

🌍 Что это меняет?
• Для биологов - теперь можно кластеризовать звуки из джунглей Бразилии без обучения своих моделей
• Для ML-инженеров - отличная демонстрация, как можно обучать компактные модели, не теряя качества
• Для исследователей - напоминание: не всегда нужно делать GPT-4, чтобы бы сделать что-то полезное

📎 Кто хочет поиграться — модель и датасеты уже на Kaggle

Статья
Блог-пост
28👍12🔥7
Chat: Как вам GPT 5?
😢58👍42😐20😁53🔥3🎉2
🧹💥 «Чистильщики диска» больше не нужны

Помните софт «почистить диск»? Забудьте.

Я написал GPT-5 в Cursor: «найди, что можно безопасно удалить и почисти мой диск». Через минуту получил план, удалил кеши Hugging Face и Ollama - и за 5 минут освободил 142 ГБ. Ничего не сломалось.

Почему это лучше утилит?

LLM видит контекст: отличает проекты от регенерируемых кешей, предупреждает о рисках, подсказывает порядок действий (остановить сервис → вынести кеши → при желании docker prune).

Мораль простая: вместо «магических клинеров» — один умный запрос к GPT-5 в IDE. Быстрее, безопаснее, под ваш стек.

Если было полезно - напишите в комментах: какой у вас топ-3 прожорливых папок и какой промпт даёте модели для «уборки»?
😁52😐13👍73😢2🔥1
🤝 GPT-5 Thinking + Claude Code: как я ставлю задачи AI агенту

Я использую GPT-5 Thinking в качестве «оркестратора»: он превращает идею в чёткий «Claude-ready бриф» с критериями приёмки. Claude Code исполняет задачу в терминале (читает репо, пишет диффы, тесты, PR)

🧩 Уже 2 недели пользуюсь Claude Code для своего нового проекта по предсказанию временных рядов и вот к какому взаимодействию я пока пришел:

Я формулирую цель человеческим языком (например, нужно сделать загрузку CSV, и так что бы была валидация данных и индикатор прогресса). GPT-5 Thinking упаковывает это в «Claude-ready бриф»: цель, границы (какие директории трогать), ограничения (типобезопасность, а11y), acceptance criteria, тест-план и риски. Заметил, что короткий бриф с атомарными задачами лучше, чем один размытый эпик. Сохраняю как tasks/SB01_BUILD_CSV.md

🛠️ Следующим шагом я кидаю ссылку на задачу в Claude и прошу: сначала «прочитай и предложи план» (без кода), потом «сгенерируй диффы + тесты». Claude открывает PR, зовёт встроенного reviewer-субагента, прикладывает e2e/юнит-тесты и чек-лист. Если что-то не сходится, прошу GPT-5 Thinking выпустить «доп задачи » - например, на миграцию API или обвязку логов.

📊 По исполнению работы, я запрашиваю у Claude текущее состояние проекта: он собирает статус по репо и CI (какие PR готовы, где красные тесты, какие ошибки в логах чаще всего всплывали), помечает блокеры, находит дублированные файлы и прочий мусор и предлагает next steps.

Итог. За 2 недели, работая только по вечерам и в рамках 20$ подписки на Claude Code, я довел проект до первой онлайн версии, которую уже отправил тестить друзьям.

Если вам тоже нужно что нибудь предсказывать (еду в ресторане, номера в отеле, урожай яблок и тд) - расскажите об этом в комментариях!
32👍12🔥10😐1
Anthropic Claude Code: самое полезное с семинара

Сходил на семинар по Claude Code от его разработчиков, вот что мне запомнилось:

🧠 Hot keys
Shift+Tab — Planning mode (Claude сначала строит план, потом действует)
Esc Esc — «откат» шага диалога
think / think hard / ultrathink — явно просим больше reasoning budget
!bash — запускаем shell-команды прямо из чата
@mention — подкидываем файлы в контекст
Drag & drop — кидаем скриншоты/изображения
Ctrl+B — запуск Claude Code в фоне

🧩 MCP-экосистема
• Сотни серверов на GitHub → modelcontextprotocol/servers
Puppeteer/Playwright — пишешь код и сразу тестируешь в реальном браузере
Context7 — актуальные доки по популярным SDK и библиотекам
SQL MCPs — SQLite/Postgres/Supabase для прямого доступа к БД
Figma MCP — агент читает/проверяет макеты в Figma

📄 Claude.md
• Работает и на уровне пользователя (~/.claude), и локально в проекте (./claude) — задаёт поведение/гайды.

Свои /custom-commands
Сохраняем часто используемые промпты и вызываем как /optimize:

# Проектный уровень
mkdir -p ./claude/commands
printf "Analyze this code for performance issues and suggest optimizations.\n" > ./claude/commands/optimize.md

# Пользовательский уровень (глобально)
mkdir -p ~/.claude/commands
printf "Analyze this code for performance issues and suggest optimizations.\n" > ~/.claude/commands/optimize.md
224🔥14
This media is not supported in your browser
VIEW IN TELEGRAM
🤖🧪 ChatGPT-Agent хорошо справляется с QA тестированием

Я взял ChatGPT-агента и дал ему задачу «как у живого тестера»: логиниться, загружать данные, проверять графики и экспорт. Он не просто кликает скриптом — он смотрит, думает и меняет план, когда что-то идёт не так.

☕️ Утро. Я нажимаю «Запустить проверку» и иду делать кофе.
Агент заходит в мое веб-приложение, заливает CSV, включает оверлеи, пробует экспорт. Где-то зависает спиннер - он не паникует, меняет маршрут и продолжает проверять остальное.

🐶 Я выхожу гулять с собакой. В это время агент собирает улики: скрины, логи и тп. Видит тонкости - «фича включилась, но данных нет» - и помечает это как задачу для другого AI агента.

📬 Возвращаюсь - на экране готовый отчёт:
— 3 проблемы с шагами «ожидал → получил»,
— ссылки на скрины/HAR,
— приоритеты и быстрые фиксы.
Я просто перетягиваю задачи в следующий диалог с Claude Code. Всё. Никаких «не воспроизводится».

🌇 Агент сделал рутину за меня; моё время ушло на решения (и отдых), а не на клики и скриншоты. По ощущениям, экономит по паре часов в день - минимум.

Не магия. Просто внимательный джуниор из кремния, который не устает.

Кстати, я думаю что готов к ограниченной бете, так что если вам есть что предсказывать (еду в кафе, номера в отеле, закупку продуктов в магазин и вообще что угодно) - пишите в комменты, дам доступ!
🔥298👍4
🔮📈 Prophet Arena

Бенчмарк на котором LLM предсказывают ещё не случившиеся события из prediction markets. Оценивают по 1−Brier (насколько честно калибрована вероятность) и по Average Return (сколько бы вы заработали при выбранном risk profile).

🤔 Зачем это нам
Обычные тесты - про прошлое. Prophet Arena про то, что происходит в реальном мире: модель ставит на вероятность события до того, как оно совершилось, а лидерборд обновляется по факту.

⚙️ Как устроено
Собирают новости и цены с рынков (контекст одинаковый для всех моделей) → модель выдаёт распределение вероятностей + краткое обоснование → после исхода событие оценивают и обновляют лидерборд.

📊 Две оси
1−Brier: выше = лучше калибровка/точность вероятностей (на сайте так и показывают - «1 минус классический Brier»).
Average Return: симуляция прибыли, если следовать вероятностям модели; на лидерборде можно крутить Risk Aversion (γ) и смотреть, как меняются места.

⚽️ Живой пример
Матч MLS San Diego FC — Toronto FC: o3-mini даёт 30% на Торонто, рынок — 11%. Edge ≈ 3× → ставка $1 превратилась в $9, когда Торонто реально выиграл. Отличная иллюстрация, почему высокий Return может прийти без топового Brier.

Итог
Prophet Arena позволяет смотреть на точность и деньги одновременно - так проще понять, когда модели реально полезны.

Ссылка

Расскажите в комментариях что еще могут предсказывать LLM?
🔥14👍86😱1
Визуальный разбор GPT-OSS 🧠⚙️

OpenAI выложила gpt-oss-20B и gpt-oss-120B - это MoE-модели с 128k контекстом и «ручкой» reasoning: low/medium/high. Плюс новый формат harmony для сообщений и тулколлов.

Зачем нам это сейчас 🔥

Впервые со времён GPT-2 у OpenAI появились LLM с открытыми весами: можно скачать веса, крутить локально, настраивать под свои пайплайны и политику данных.

Как все устроено простыми словами 🛠️
Архитектура: трансформер с Mixture-of-Experts. В 120B128 экспертов, в 20B32, при этом на токен активны 4 (экономия времени/памяти без просадки качества на типичных задачах). Контекст — до ~128k токенов.
Размер и железо: чекпоинты ≈ 60.8 GiB (120B) и 12.8 GiB (20B). Благодаря квантованию MXFP4 MoE-веса ужимаются так, что 120B помещается в 80 ГБ GPU, а 20B можно запускать от ~16 ГБ памяти.
Формат harmony: «каналы» ответа — analysis (мышление/часть тулколлов), commentary (тулколлы), final (итог). Он нужен, чтобы модель корректно «думала» и вызывала инструменты.
Reasoning modes: low/medium/high задаются в системном промпте и напрямую меняют бюджет размышлений: выше точность → дольше отвечает -> выше стоимость.
Токенизатор: o200k_harmony—чуть аккуратнее с не-английскими символами/эмодзи, но датасет в основном англоязычный—держим это в голове для RU-кейсов.

Мини-пример: как «крутить ручку» рассуждений 🎚️

```
<|start|>system<|message|>
You are a helpful AI.
Reasoning: medium
Tools: web_search, python
<|end|>
```


Так вы буквально указываете модели «думать средне». Для A/B можно сравнить low/medium/high по задержке и качеству на своей задаче..

Почему это важно в большом контексте 🌍
Локальные агенты и приватность: 20B реально тянется на доступном железе; можно строить оффлайн-ассистентов с чувствительными данными.
Стандартизация интерфейса: harmony снимает боль разношёрстных промпт-форматов и упрощает перенос между рантаймами (vLLM/Ollama/и т.д.).
Осознанный трейд-офф: режимы рассуждений позволяют тонко балансировать «скорость точность» и деньги. Пример с AIME в разборе у Джея: medium даёт правильный ответ, а high просто тратит больше токенов.

Как попробовать за час ⏱️
1. Запуск: возьмите 20B на локальной машине (≥16 ГБ RAM/VRAM) или арендуйте 80 ГБ GPU для 120B (или используйте провайдера с vLLM/Ollama).
2. Форматирование: подайте промпты в harmony (готовые рендереры — Python/Rust).
3. Эксперимент: замерьте на своей задаче low vs medium vs high (качество/латентность/стоимость) и выберите пресет под прод.

Пара важных оговорок 🧯
CoT-трейсы (цепочки рассуждений) не показывайте пользователям без фильтрации/суммаризации — в модельной карте это отмечено отдельно.
• Мультиязычность неплохая, но датасет в основном EN—для чувствительных RU-кейсов планируйте адаптацию/дообучение.

Итого: GPT-OSS — это не «магический скачок», а грамотная инженерия плюс удобные стандарты. В сумме — ниже порог входа, выше контролируемость и понятный путь к локальным агентам.

Если было полезно — поделитесь с коллегами.

Лучше всего почитать блог пост в оригинале:

Джей Аламмар — визуальный разбор (очень наглядно) и про каналы/режимы рассуждений.
👍238🔥6
Чат: Давно не болтали! о чем вам рассказать?
29🔥10👍5😐2
EfficientLLM: короткий разбор

Исследователи прогнали 100+ конфигураций LLM/VLM и мерили не только качество, но и память, задержку и энергию. Универсального победителя нет: выбирайте технику под свой главный bottleneck — VRAM, латентность, энергия или метрики.

Я люблю исследования, где считают не мифические FLOPs, а как это реально выглядит на проде. Здесь так и сделали: сравнили виды внимания (память против качества), позиционирование (удобство длинного контекста против скорости), MoE (экономия вычислений, но дороже по памяти), способы дообучения (LoRA-семейство, RSLoRA, заморозка слоёв) и квантизацию вплоть до int4.

Главные выводы:
Если упираетесь в память/скорость — варианты внимания с «меньше ключей/голов» дают ощутимую экономию VRAM и времени отклика.
Если нужна максимальная точность - берите более «тяжёлые» варианты внимания и RoPE; цена - ресурсы.
MoE поднимает качество при той же «активной» вычислительной цене, но потребует больше VRAM и усложнит прод.
Файнтюнинг: на маленьких моделях (≈1–3B) практичнее LoRA-семейство; на крупных (≈14B+) чаще выигрывает RSLoRA. Для быстрых итераций заморозка слоёв даёт кратный прирост скорости.
Инференс: пост-квантизация в int4 - серьезный буст по $/Вт/ГБ с небольшой просадкой качества. Если не хотите терять точность, bf16 обычно приятнее fp16 на современных GPU.

Шпаргалка на завтра
• Мало VRAM → «экономное» внимание + относительные позиции, тюним LoRA, пробуем int4.
• Качество first → «точное» внимание + RoPE, RSLoRA; инференс bf16.
• Уперлись в compute → смотрим MoE, но заранее считаем VRAM и сложность.
• Нужны быстрые циклы → временно freeze, затем переключаемся на LoRA/RSLoRA.

Ваш ход: что болит сильнее - память, задержка, энергия или качество? Напишите в комментах свой кейс, а если пост был полезен — поделитесь с коллегами 🙌

Статья
🔥18👍85
Typical SF. Когда по вашему первые робо-тако?
12🤯5😁4
SEIR x PINNs для предсказания каскадных сбоев в мультиагентных системах

Мы всё больше доверяем AI-агентам: они коммитят код, вносят изменения в базы данных, анализируют медицинские данные и блокируют подозрительные транзакции. По данным KPMG 88% компаний с выручкой $1B+ уже используют или деплоят ИИ-агентов. И это сложно не заметить - при общении за к-н сервисом первая линия уже почти всегда ИИ (телекомы, банки, отели, - you name it)

Но… всё хорошо, пока всё хорошо. AI-агенты тоже могут "заболеть" - только их вирусы это дезинформация, малварь, джейлбрейки и заражения RAG. По данным DoomArena, GPT-4o можно сломать в 22,7% случаев в защищённом сценарии, и 78,6% OSWorld, Computer-Use. Для Claude-3.5 attack success rate (ASR) 0,7% и 22,9% соответственно. Главное - судя по архитектуре нынешних мультиагентных систем, успешная атака на к-н популярную модель разлетиться быстрее, чем утренние мемы в чате.

И тут возникают неприятные вопросы: если агент начнет совершать скомпрометированные действия, когда мы это заметим? В тот же день, на следующий, или когда произойдет что-то серьезное? А что делать, когда заметили? "Выдернуть" из розетки, развернуть локальные guardian модели или "вакцинировать" патчами?

На хакатоне Physics x AI Safety Grand Challenge 2025 мы (@GingerSpacetail и Karay.me) занялись именно этой проблемой и сделали фреймворк, который моделирует эпидемии в мире AI-агентов, рассмотрев 8 разных деплоймент сценариев: enterprise, ритейл, трейдинг, кодинг ассистенты, customer service, академия, медицинские AI и критическая инфраструктура. И… внезапно заняли 4-е призовое место среди очень крутых работ.😊

Что именно мы сделали.
Шаг 1. Адаптировали классическую эпидемиологию SEIR-модель для популяции ИИ-агентов.
В основе (любой) эпидемиологической модели лежит система ОДУ (обыкновенных дифференциальных уравнений), описывающая, как "вирус" (в нашем случае скомпрометированное поведение) распространяется среди агентов. Модель SEIR делит популяцию на четыре состояния:
S - Susceptible (уязвимые)
E - Exposed (атакованы, но пока нет "симптомов", или мы их не замечаем)
I - Infectious (активно вредят)
R - Removed (изолированы или "иммунны")
Здесь важны коэффициенты-скорости перехода одного состояния в другое, мы их прикинули на основе открытых данных.

Шаг 2. Подмешали физико-информированные нейросети (Physics-Informed Neural Networks, PINNs) для поиска численного решения ОДУ.
Т.е прямо в функцию потерь добавили физику. Кто хочет математики - residuals, или по-русски невязки уравнений, должны стремиться к нулю. PINNs дают три бонуса:
1. Модель "понимает" законы, по которым развивается процесс.
2. Можно работать и с неполными данными - физика "достраивает" картину.
3. Можно вшивать ASR, MTTD и другие параметры в модель для разных сценариев.

Шаг 3. Прогнали фазовый анализ, нашли точки бифуркаций (где система резко меняет поведение) и аттракторы (куда она падает, как шарик в ямку).
В практическом смысле смогли оценить:
- Какая сейчас эпидемиологическая ситуация среди корпоративных ассистентов, ритейл ботов, медицинских AI и тд.
- Где системы сами стабилизируются, а где уходят в "киберэпидемию" с R_0 > 1
- Какие меры работают лучше: повышение скорости обнаружения (коэфф. gamma), снижение передачи атаки (beta) или "вакцинация" агентов патчами (nu).

А заодно показали, что PINNs отлично работают не только в инженерии или медицине, но и в кибербезопасности.

Что интересно сделать дальше.
Любопытно вместо реактивной киберзащиты отслеживать "эпидемиологию" атак в реальном времени и подбирать меры в зависимости от их стоимости и серьезности, т.е. прогноза, сколько времени осталось до критической точки (заражения 90% агентов).

Поэтому если у вас есть агенты и данные, мы рады коллаборациям (NDA без проблем)

🔗код
📝публикация
14🔥12🎉5😁1
🎓 Образование × ИИ: как преподаватели реально используют Claude

Самый спорный кейс - автоматизация оценивания. Всё остальное - про augmentation: планирование курсов, задания, обратная связь, инструменты под задачи.

Антропик выпустили свежий отчёт о том, как преподаватели используют Claude в реальной работе (высшее образование, лето 2025). Интересно не «что умеет модель», а как меняется педагогика на уровне практик.

Главная идея - augmentation, не замена.
ИИ не «делает работу за вас», но помогает думать быстрее и глубже. В подготовке курсов преподаватели используют Claude как ассистента: накидать структуру модуля, выровнять уровень сложности, придумать как проверить понимание. А в исследовательских задачах: собрать источники, предложить план эксперимента, наметить аргументацию (с последующей верификацией человеком, конечно).

Где автоматизация особенно заметна?
В обслуживающих задачах (расписания, шаблоны писем, бюджеты) и частично в оценивании. И вот тут конфликт: соблазн поручить проверку работ ИИ большой, но именно с оцениванием у преподавателей больше всего сомнений - сложно сохранить справедливость, контекст и нюанс.

Новый слой практик - мини-инструменты.
С появлением Artifacts многие делают не только тексты, но и небольшие учебные утилиты прямо «в чате»:
— симуляции и игры под тему модуля;
— автогенерация рубрик и мгновенная обратная связь;
— мини-дашборды для визуализации данных;
— предметные помощники (от стехиометрии до грамматики).

Почему это важно?
1. Персонализация становится реальнее: задания, примеры и объяснения подстраиваются «под скорость» и фон студента.
2. Смена формата оценивания: больше внимания на проверку умения мыслить, а не «сдать правильный ответ».
3. Новая роль преподавателя: куратор и дизайнер опыта обучения, а не только лектор.
4. Навыки будущего: студенты учатся не «бороться с ИИ», а грамотно работать с ним - задавать рамки, проверять, комбинировать.

Пример, который можно попробовать уже сегодня.
Дайте Claude краткое описание темы модуля и уровень группы. Попросите:
«Сгенерируй план из 4 занятий, для каждого - 1 активность на 15 минут, 1 мини-проект на неделю и 3 вопроса для самопроверки. В конце — критерии оценивания в виде рубрики».
Получится хороший «черновик», который вы быстро доведёте до стандарта курса. Это и есть augmentation.

Итог. ИИ в образовании работает лучше всего там, где он усиливает человека: помогает думать, проектировать и давать обратную связь. Автоматизировать стоит то, что точно не снижает качество - расписание, шаблоны, черновики. А вот оценивание требует аккуратности и прозрачных правил.

Вопрос к вам. Как вы уже используете ИИ в обучении — и где проводите границу между «помощью» и «автопилотом»? Что работает/не работает у вас на практике?

Если было полезно - поделитесь с учителями и преподавателями!
17🔥4👍1🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Chat: Научите как в VEO3 настраивать голоса и lip syncing
Наблюдаем, как ИИ-ассистенты становятся все популярнее: они все чаще берут на себя рутинные операции и позволяют людям работать быстрее и сосредотачиваться на сложных проектах.

3 сентября Cloud.ru подвёл первые итоги работы AI-помощника Клаудии. Создание виртуальной машины теперь выполняется не за 5-30 минут, а за 1–2 минуты. В среднем Клаудия выполняет задачи в 15 раз быстрее. Чаще всего AI-ассистент помогает запускать веб-сервисы, сайты, Telegram-боты и тестовые окружения.

Кроме того, Клаудия может выполнять функции SRE-агента для мониторинга приложений и алертов по логам, а также FinOps-сценарий для выявления неэффективно используемых ресурсов и рекомендаций по оптимизации. Это следующий шаг в развитии Клаудии — от автоматизации рутинных DevOps-задач к более сложным сценариям SRE и FinOps.

#текстприслан
6😁6👍4
Forwarded from DLStories
Открыт набор на осенний семестр Deep Learning School! \ (•◡•) /

DLschool — это школа при ФПМИ МФТИ, где мы учим нейронным сетям с самых азов до продвинутого уровня. С этого семестра у курса уже три раздела:
- Часть 1: введение в ML, DL & computer vision. Начинаем с основ машинного обучения и нейросетей, переходим к CNN для обработки картинок, заканчиваем переносом стиля изображений и GAN.
- Часть 2: обработке естественного языка (NLP). Начинаем с эмбеддингов слов и заканчиваем GPT-2,3, RLHF, RAG и другими актуальными темами вокруг LLM.
- Audio & speech processing. Это отдельный семестровый курс, полностью посвященный обработке аудио и речи. Начинаем с основных способ представления аудиосигналов, переходим к задачам и моделям, Speech LLM и Multimodal LLM.

Регистироваться на курс тут. Форму регистрации обязательно нужно заполнить, если хотите получить диплом по окончании курсов.
Старт обучения — 20 сентября. В этот день откроется первое занятие.

Немного подробнее про DLS:
Особенность нашей школы в том, что мы даем много практики (теория при этом тоже есть, разумеется, и немало). Вам предстоит много практических домашних заданий и самостоятельный итоговый проект в конце семестра, которые будет не стыдно показывать на собеседованиях. Больше информации об организации курса и программы обучения можно найти тут.

Ну и, как обычно, этом семестре мы продолжаем улучшать многие занятия и домашки, записывать новые версии лекций и семинаров.

Преподаватели школы — ведущие специалисты российских и зарубежных IT-компаний и научные сотрудники исследовательских лабораторий. Среди них — я (Таня), буду вести у вас несколько лекций в обеих частях курса.

Школа бесплатная. Полностью онлайн: учиться можно из любой точки мира, где есть интернет. Занятия проходят раз в неделю — лекция, семинар и домашнее задание. Обучение проходит на платформе Stepik. Берем всех, отбора нет.

❗️Для первой чати курса также есть возможность приобрести дополнительный пакет, в который входит индивидуальная поддержка от менторов и преподавателей в прохождении курса, дополнительные вебинары и возможность переноса дедлайнов по домашкам. Подробнее о нем читайте на нашем сайте.

Ссылки:
Наш сайт
Тг-канал с новостями DLS
Подробная программа и оргинформация обоих частей курса
Ответы на часто задаваемые вопросы (F.A.Q)
Наш YouTube (тут видео всех лекций и семинаров школы, а также открытые лекции и интервью)
Наша группа VK
🧡 Поддержать нашу школу на Boosty

Если остались вопросы, задавайте их нам на почту (dlphystech@gmail.com), в комментариях тг-канала DLS или в комментарии под этим постом.

Ждём вас в чатиках курса в новом семестре!
🔥7👍31
Forwarded from Журнал НОЖ
Палимпсесты: как ИИ помогает читать стёртые рукописи?

Под верхним слоем средневековых манускриптов прячутся тысячи утраченных текстов. Писцы часто стирали старый текст, чтобы сэкономить пергамент, и писали новый текст поверх.

Манускрипт фотографируют в нескольких спектрах. Полученные кадры совмещают и «чистят», собирая из них единый «куб» данных. Потом алгоритмы отделяют верхний слой от нижнего и усиливают слабые контуры букв.

Затем используют системы распознавания рукописного текста (HTR), которые предлагают свою интерпретацию. Там, где буквы утрачены, модель даёт варианты реконструкции, но последнее слово остаётся за филологом.

Такие находки меняют наше понимание эпох: в палимпсестах всплывают ранние версии богослужебных текстов, утраченные трактаты, частная переписка.

#Мнение простыми словами подготовил редактор канала «AI для всех».
🔥21👍107
2025/10/16 07:36:57
Back to Top
HTML Embed Code: