😁45😨8🍓3 2
Классный день для русского опенсурса Z.ai выпустили GLM4.5
На уровне с топовыми моделями, 335б МоЕ с экспертами по 32б активных и 106б по 12б активных.
А еще у челов очень крутой сайт с артефактами: https://chat.z.ai/s/2a9a1a90-545b-4f29-b6ac-854539dcc323 (МОДЕЛЬ САМА пишет игру в которую можно поиграть и пошарить)
z.ai/blog/glm-4.5
На уровне с топовыми моделями, 335б МоЕ с экспертами по 32б активных и 106б по 12б активных.
А еще у челов очень крутой сайт с артефактами: https://chat.z.ai/s/2a9a1a90-545b-4f29-b6ac-854539dcc323 (МОДЕЛЬ САМА пишет игру в которую можно поиграть и пошарить)
z.ai/blog/glm-4.5
🔥50😁44💩13💊10👍1🤔1
Love. Death. Transformers.
red teaming edge llms for noobs.pdf
https://www.injectprompt.com/p/meta-ai-jailbreak-perfect-core
он правда не работает и это обычный дан но все равно смешно
он правда не работает и это обычный дан но все равно смешно
Injectprompt
Meta AI Jailbreak - Perfect Core
Turn Meta AI into a building, bypassing its guardrails
😁13🔥4👍1
чат обьясните почему меня спрашивают про каких то меркантильных волков? Это те которые платят пополам или что?
😁79🤔7
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
З А Ч Е М ?
А
Ч
Е
М
?
А
Ч
Е
М
?
🙈59😁13 12🔥2🤔2🍓2😨2👍1💩1
Forwarded from AI[ex]Time (Alex Golubev)
Обновили SWE-rebench за июль и вместе со стандартными замерами выкатили пару интересных апдейтов.
На лидерборде появились: Gemini-2.5 Pro, o4-mini, DeepSeek-R1-0528, разумеется все последние Qwen3, включая Coder-480B, который ворвался в топ1; а также загадочную модельку horizon-alpha, про которую сейчас ходят различные слухи, будто это gpt5/gpt5-mini или OSS модель от openai (спасибо Игорю @seeallochnaya, который пришел с утра и сказал, что openrouter дает бесплатно ее погонять).
Есть еще пара технических апдейтов, включая 1-shot демонстрацию для вызовов тулов: теперь вместо рендеринга демо внутри систем промпта, мы кладем несколько assistant-tool сообщений. Это полечило 95% ошибок с вызовом тулов у всех моделей.
Предвкушая вопросы: Qwen3-Coder-30B-A3B-Instruct добавим буквально на днях. Kimi-K2 тоже добавим, но пока у нее проблемы с вызовом тулов в multi-turn траекториях.
Ну и скажу, что уже есть большие планы по тому, чтобы добавить в бенчмарк классные фичи, что-то появится в ближайшем релизе за август, что-то чуть позже, но в любом случае работа идет!
На лидерборде появились: Gemini-2.5 Pro, o4-mini, DeepSeek-R1-0528, разумеется все последние Qwen3, включая Coder-480B, который ворвался в топ1; а также загадочную модельку horizon-alpha, про которую сейчас ходят различные слухи, будто это gpt5/gpt5-mini или OSS модель от openai (спасибо Игорю @seeallochnaya, который пришел с утра и сказал, что openrouter дает бесплатно ее погонять).
Есть еще пара технических апдейтов, включая 1-shot демонстрацию для вызовов тулов: теперь вместо рендеринга демо внутри систем промпта, мы кладем несколько assistant-tool сообщений. Это полечило 95% ошибок с вызовом тулов у всех моделей.
Предвкушая вопросы: Qwen3-Coder-30B-A3B-Instruct добавим буквально на днях. Kimi-K2 тоже добавим, но пока у нее проблемы с вызовом тулов в multi-turn траекториях.
Ну и скажу, что уже есть большие планы по тому, чтобы добавить в бенчмарк классные фичи, что-то появится в ближайшем релизе за август, что-то чуть позже, но в любом случае работа идет!
👍7
я видел ее тесты что вы ржете, будет сота с приростом 6% в среднем но на отдельных бенча ууххххх
😁76💊16 9🔥1🎉1🥱1💯1🎅1🦄1
а ты знаешь последовательность аллокации памяти питорча
🤔46😁15👍2🔥1😢1
Forwarded from whargarbl
EQ Vae - https://arxiv.org/abs/2502.09509
Очередной "прорыв в 7 раз ускоряем обучение"
Протестировал несколько новых ВАЕ
От кохаку
https://huggingface.co/KBlueLeaf/EQ-SDXL-VAE
И от какого то чувака с реддит
https://huggingface.co/Anzhc/MS-LC-EQ-D-VR_VAE
Пост
https://www.reddit.com/r/StableDiffusion/comments/1mdn3bo/comment/n67mwoj/?context=3
Я тестировал только ВАЕ Кохаку тк его я знаю как профи, а чуви с реддит не знает основ
Кохаку log-variance: -4.233
SDXL log-variance: -0.335
распределение у Кохаку гораздо менее нормальное
Коротко: для вае важно добавлять нойз в латентное пространство, а не блять удалять его (дебилы!) патаму что нужно повышать логварианс
Простыми словами:
Центр латентов должен быть в нуле и колокол должен отходить от центра далеко (лол ппц я объясняю, да?)
Короче нормальное распределение (циферки распределены нормально по диапазону), а диапазон должен быть широким чтобы не округлялось в маленькие чиселки (вот, теперь объяснил как про)
Ща еще лучше объясню:
Хуевый варианс - хуево учиться будет! Числовая нестабильность, деление на ноль! Снег башка попадет, круасан в булочку округлится!
Несмотря на то что глазами выглядит нот бед
https://imgsli.com/NDAyOTUy
EQ - это Кохаку
Латенты хреново распределены и вае хреновый
Если вы хотите натренить вае и не обосраться - я рекомендую оттолкнуться от репы разраба ауры
https://github.com/cloneofsimo/vqgan-training?tab=readme-ov-file#details
Потому что в пункт 5 они как раз занимаются расталкиванием латентов
И фол натренил этой репой
https://huggingface.co/fal/AuraEquiVAE
И у них вроде неплохо получилось
ЗЫ Фух, я больше наверно не буду писать про такие сложные вещи у меня не получается простыми словами объяснить а сложных я не знаю
Аттач: смотрите какой красивый холмик у сдхл вае и какой уродливый горбик у кохаку EQ вае
Очередной "прорыв в 7 раз ускоряем обучение"
Протестировал несколько новых ВАЕ
От кохаку
https://huggingface.co/KBlueLeaf/EQ-SDXL-VAE
И от какого то чувака с реддит
https://huggingface.co/Anzhc/MS-LC-EQ-D-VR_VAE
Пост
https://www.reddit.com/r/StableDiffusion/comments/1mdn3bo/comment/n67mwoj/?context=3
Я тестировал только ВАЕ Кохаку тк его я знаю как профи, а чуви с реддит не знает основ
Кохаку log-variance: -4.233
SDXL log-variance: -0.335
распределение у Кохаку гораздо менее нормальное
Коротко: для вае важно добавлять нойз в латентное пространство, а не блять удалять его (дебилы!) патаму что нужно повышать логварианс
Простыми словами:
Центр латентов должен быть в нуле и колокол должен отходить от центра далеко (лол ппц я объясняю, да?)
Короче нормальное распределение (циферки распределены нормально по диапазону), а диапазон должен быть широким чтобы не округлялось в маленькие чиселки (вот, теперь объяснил как про)
Ща еще лучше объясню:
Хуевый варианс - хуево учиться будет! Числовая нестабильность, деление на ноль! Снег башка попадет, круасан в булочку округлится!
Несмотря на то что глазами выглядит нот бед
https://imgsli.com/NDAyOTUy
EQ - это Кохаку
Латенты хреново распределены и вае хреновый
Если вы хотите натренить вае и не обосраться - я рекомендую оттолкнуться от репы разраба ауры
https://github.com/cloneofsimo/vqgan-training?tab=readme-ov-file#details
Потому что в пункт 5 они как раз занимаются расталкиванием латентов
И фол натренил этой репой
https://huggingface.co/fal/AuraEquiVAE
И у них вроде неплохо получилось
ЗЫ Фух, я больше наверно не буду писать про такие сложные вещи у меня не получается простыми словами объяснить а сложных я не знаю
Аттач: смотрите какой красивый холмик у сдхл вае и какой уродливый горбик у кохаку EQ вае
😁40👍8💊7 7🥱4💩2⚡1🔥1