Telegram Web
Forwarded from whargarbl
EQ Vae - https://arxiv.org/abs/2502.09509

Очередной "прорыв в 7 раз ускоряем обучение"

Протестировал несколько новых ВАЕ
От кохаку
https://huggingface.co/KBlueLeaf/EQ-SDXL-VAE

И от какого то чувака с реддит
https://huggingface.co/Anzhc/MS-LC-EQ-D-VR_VAE

Пост
https://www.reddit.com/r/StableDiffusion/comments/1mdn3bo/comment/n67mwoj/?context=3

Я тестировал только ВАЕ Кохаку тк его я знаю как профи, а чуви с реддит не знает основ

Кохаку log-variance: -4.233
SDXL log-variance: -0.335

распределение у Кохаку гораздо менее нормальное

Коротко: для вае важно добавлять нойз в латентное пространство, а не блять удалять его (дебилы!) патаму что нужно повышать логварианс

Простыми словами:
Центр латентов должен быть в нуле и колокол должен отходить от центра далеко (лол ппц я объясняю, да?)

Короче нормальное распределение (циферки распределены нормально по диапазону), а диапазон должен быть широким чтобы не округлялось в маленькие чиселки (вот, теперь объяснил как про)

Ща еще лучше объясню:
Хуевый варианс - хуево учиться будет! Числовая нестабильность, деление на ноль! Снег башка попадет, круасан в булочку округлится!

Несмотря на то что глазами выглядит нот бед
https://imgsli.com/NDAyOTUy
EQ - это Кохаку

Латенты хреново распределены и вае хреновый

Если вы хотите натренить вае и не обосраться - я рекомендую оттолкнуться от репы разраба ауры
https://github.com/cloneofsimo/vqgan-training?tab=readme-ov-file#details

Потому что в пункт 5 они как раз занимаются расталкиванием латентов

И фол натренил этой репой
https://huggingface.co/fal/AuraEquiVAE

И у них вроде неплохо получилось

ЗЫ Фух, я больше наверно не буду писать про такие сложные вещи у меня не получается простыми словами объяснить а сложных я не знаю

Аттач: смотрите какой красивый холмик у сдхл вае и какой уродливый горбик у кохаку EQ вае
😁40👍8💊77🥱4💩21🔥1
чат а есть хорошие работы по тому как сильно затираются веса модели при посттрене?

Вернее как: "насколько далеко по метрикам можно уйти от ориг модели при сетапе посттрена"?
357🍌2
Что то готовится...
605
Forwarded from КПД
Из "вероятной" утечки опенсорса от опен эй эген вырисовается пока следующее:

1️⃣ Одна модель - 120B MoE, другая - 20B dense.
2️⃣ Веса в FP4 с нативной поддержкой в Blackwell (MXFP4 или NVFP4).
3️⃣ SwiGLU clip (-7,7) - т.е активации режутся по абсолютной величине. Полагаю, было важно для 4-х битного обучения.
4️⃣ 4K нативного контекста с YaRN экстраполяцией до 128к (не жирно).
5️⃣ Скользящее окно аттеншена размера 128 + attention sinks (тоже для квантизации, наверное).
6️⃣ Llama/Mixtral архитектура.

Источник
💅41😢12🔥5🙈4💩2🗿21
😁90🔥14😢5
Forwarded from ломэ
1😁8713🍓8💩5😢2
Forwarded from addmeto (Grigory Bakunov)
Команда Cloudflare изобличает не самую белую тактику Perplexity по скрапингу веб-сайтов. Там юзерагент не пишет что он бот, игнорируется robots.txt, IP адреса совсем не из сети Perplexity и тп.

Вообще это очень сложный вопрос, что они делают не правильно. Вот например есть ли разница между "я попросил свой браузер загрузить страницу" и "я попросил чат-бота загрузить страницу"? По сути разница только в отображении - браузер показывает страницу в том виде, как ее задумал разработчик, а чат-бот показывает с этой страницы только то, что хочет пользователь. И судя по всему именно против этого и борется клаудфлер
😁51🥴8🍓6🤔5👍3🔥2
oss gpt

Открытые модели от openai, по факту близко к закрытым o4 mini

models on hf
modelcard
🔥45👍7😁2
батя пришел с офиса и сказал: а почему не https://openai.com/open-ai
😁94🔥5🍓4🤷3🌚2🦄2👍1
Forwarded from Vikhr models
QVikhr-3-8B-Instruction

Пополнение еще одной моделью на базе Qwen 3. В DOoM, QVikhr-3-8B-Instruction получила оценку 0.445, что существенно превосходит результат базовой модели Qwen3-8B. Модель подходит для решения задач по математике и физике на русском языке.

🔗 Карточка модели: https://huggingface.co/Vikhrmodels/QVikhr-3-8B-Instruction
🔗 GGUF (скоро): https://huggingface.co/Vikhrmodels/QVikhr-3-8B-Instruction-GGUF
⚖️ Лицензия: apache-2.0

Сайт: https://vikhr.org
Донаты: Здесь

👥 Авторы: @LakoMoorDev @nlpwanderer
3🔥21❤‍🔥7😁2💩1😨1
Челы из flymy.ai выпустили Realism LoRA и Trainer для Qwen image, теперь можно баловатся с треном лор для gpt4o уровня картинко генератора дома
🔥25😁2😍2🍌2
Love. Death. Transformers.
oss gpt Открытые модели от openai, по факту близко к закрытым o4 mini models on hf modelcard
Старшая версия по вайбу потупее чем glm air, младшая on par с qwen 30ba3, но сильно хуже на русском.

По агентности и тд посмотрим, пока не игрался, но чудес не жду. В целом как будто моделям выкрутили очень сильно safety guards и убили полезность.
👏29💊9💯4👍2😢2
Хотите крутить и дообучать gpt oss, z.ai glm и прочее?

Купите себе в офис HGX с доставкой по России, здесь и сейчас последние 5 тачек, доставка по всей России

https://nvidia-server.ru/katalog/item/asus_esc_n8_e11_hgx_h100_8gpu/
😁675🦄43😢1
Как там по болгарски пожарить будет? А, точно "изпържи"

Продолжение треда это автор llama cpp
1😁8414🗿3🍓2👏1🤔1
😁147😢25💊12🔥85💩2🍓1🗿1
Тлдр презы опенаи:
🔥103👍5😁2
Love. Death. Transformers.
Тлдр презы опенаи:
Opus 4.1 swebench verified 74.5
Gpt-5 swebench verified 74
😁73🍓3
2025/10/25 14:52:25
Back to Top
HTML Embed Code: