Telegram Web
Урбанистические трюки

Вы, наверное, слышали, что урбанисты делают городскую среду более безопасной и приятной через простые трюки для автомобилистов/пешеходов

В Лондоне мне нравится трюк со светофорами

На зеленом сигнале светофора есть специальные лопасти, которые не дают понять, горит ли зеленый сигнал, если ты смотришь на светофор под углом (то есть, не находишься на зебре)

Соответственно, люди скорее не будут бежать откуда-то издалека под углом через дорогу, ведь они не видят, горит ли зеленый свет

НО! На самом деле пешеходу доступна вся информация, ведь если не горит красный сигнал, значит, горит зеленый 🍎 А на красном сигнале как раз нет никаких лопастей! Но люди не могут быстро сделать такой вывод

Такой же трюк с лопастями я встретил и для автомобилистов. Только там лопасти смотрят вниз => значит, издалека не увидишь, горит ли зеленый. Поэтому сначала надо медленно к светофору подъехать, чтобы убедиться, что там 🟢

Короче, крутой трюк, который особо не напрягает, но сильно повышает безопасность.

Как можно было бы сделать, если ты не особо умный? Потратить $$$ и поставить заборы вдоль всей проезжей части

Знаете примеры подобных трюков? Не обязательно в урбанистике
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥64😁1🤔1
Вы не готовы все (ц) Sam Altman
🗿5🤡4
Forwarded from shipshigram
This media is not supported in your browser
VIEW IN TELEGRAM
Не могу точно понять, как интропретировать этот факт: Хасбик в полный рост выглядывает из окна офиса Google (этаж Google Research).

Мнения?
😁194
Пользовались ли бы бесконечной лентой (Feed) с постами из телеграм каналов? 👊
Anonymous Poll
14%
Да, но только с каналами, на которые подписан(а)
19%
Да, еще и с рекомендациями (с каналами, на которые не подписан(а))
67%
Нет
Robust Reward Model

При обучении реворд модели можно случайно выучить НЕ то.

Вместо обучения на предпочтения людей, можно переобучиться на артифакты ответов

Что это за артифакты?

В датасетах предпочтений более длинные ответы, ответы с эмодзи 🙄, дружелюбные ответы чаще встречаются в chosen, чем в rejected

Очевидно, мы не хотим обучить классификатор, который оценивает длину ответа, мы хотим реально хорошие ответы, независимо от их длины 👮‍♂️

Предлагается делать простой трюк из статьи — аугментации

🔹 Делаем дополнительные примеры из текущего датасета
🔹 Наша задача избавиться от переобучения на артифакты
🔹 Поэтому мы составляем такие пары, где chosen ответ для i-го примера сравнивается с j-ым chosen примером
🔹 Такой трюк заставляет переставать обращать внимание на артифакты, потому что мы учим, что один длинный-красивый chosen пример лучше другого длинного-красивого chosen примера
🔹 Тоже самое для rejected примеров. В общем, смотрите иллюстрацию — там все понятно

Самый прикол в том, что с помощью артифкатов (длинных ответов/эмодзи/доброжелательности) можно захакать не только реворд модель, но и людей. Так сделала llama-4 например, лол 🤷‍♂️🤷‍♂️🤷‍♂️

📎 Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32👍1
Репозиторий RM моделей

Код для обучения + блог посты

Реализации всех основных RM — Bradley-Terry (pointwise моделька), Pairwise RM, RRM, Odin RM (борются с байесом длинных ответов) и другие

https://github.com/RLHFlow/RLHF-Reward-Modeling
3
Куда еще проще? 💃

Деплой FastAPI приложений одной командой — fastapi deploy

https://fastapicloud.com/
Please open Telegram to view this post
VIEW IN TELEGRAM
😁97👍1🤨1
Ловушка Грока 🤡

В разных независимых бенчмарках (1, 2, etc) оказывается, что Grok 4 достаточно хорош.

Почему?

Мне кажется интересной идея, что когда ты являешься AI компанией, которая пытается догнать другую AI компанию (e.g. OpenAI), то ты можешь позволить себе катить очень большие модели на прод, ведь у тебя намного меньше юзеров => тебе можно иметь меньше GPU

Очевидно, что при прочих равных модель с бОльшим количеством параметров лучше той, у которой меньше параметров (только если она не переобучилась)

OpenAI не могли бы выдержать текущий трафик, будь у них модель в X раз больше, а другие могут 🤓

Получается, что OpenAI являются заложниками своих юзеров, которых у них под ярд.

Короче, интересная ловушка из-за количества юзеров!
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍3😁2
Be blocked on Telegram forever 😱

Меня тут @BotFather забанил — теперь не могу ботов создавать

Забанил за новоиспеченного бота (я указал описание и аватарку загрузил). Этим ботом никто не пользовался даже (кроме меня)

Это классификатор ошибся? Кто-то сталкивался?
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔4
Recommended
1
Forwarded from echoinside
tldr; ищу Computer Vision Engineer (Freelance) к себе
--

Привет! Я знаю, что в этом канале апдейты появляются не часто (и я не обещаю это исправить 😅).
Но я безумно рада и благодарна что вы еще здесь.

С 2024 года я работаю над проектом MyArchitectAI в качестве CTO и ко-фаундера. Наша цель это заменить physical based rendering на более простой и быстрый ai рендер. У нас уже есть юзеры, которые используют нас вместо Vray! 🤩
Мы хотим быть one stop shop для архитектурной визуализации, что включает в себя разработку удобных инструментов для создания и редактирования рендеров, видео, интерактивных 3д визуализаций.
С очень небольшой командой и без инвестиций мы смогли дойти до 40 тысяч активных юзеров в месяц, которые постоянно оставляют нам фидбек. Компания сейчас способна полностью оплачивать все свои расходы за счет выручки.

Я ищу Computer Vision Engineer, пока что на фриланс основе. Это означает, что это проектная работа.
Могу пообещать интересные проекты и достойную компенсацию.
Есть очень много вещей, которые мне хотелось бы улучшить и у меня не хватает рук.
Главной задачей будет тюнить модельки. Сейчас мне нужна помощь с улучшением модели для сегментации. ☺️
Если вам это интересно, пожалуйста, напишите мне в лс @fogside ⭕️! Очень желательно, однако, чтобы вы были не в РФ (это связано исключительно с удобством оплаты вашего труда).
Please open Telegram to view this post
VIEW IN TELEGRAM
👀7🌚1
ASR в гугле не очень признает ChatGPT (ChachiBT 😃)
Please open Telegram to view this post
VIEW IN TELEGRAM
😁14
Павел Дуров кому-то денег должен?

Казалось, что будущее телеги за Telegram Mini Apps (TMA), ведь в вичате куча полезных приложений, в том числе официальных от больших компаний.

А в телеге? — гифты! 😮‍💨

📉 За год MAU приложений упало в 5 раз
📉 Рост количества приложений упал с 82% до 4% (то есть с каждым месяцем большее количество билдеров не приходят что-то делать)

Хуже всего, что всякие токсичные приложения (в стиле крипто-скама с идеей быстро разбогатеть) поощряются, а не удаляются из платформы
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🤯2
Qwen3-Omni-30B-A3B-Captioner

Тут Qwen на днях выпустили модель, которая хорошо умеет описывать аудио файлы.

То есть у нее хороший audio understanding, и тут разговор не про распознавание речи. Модель понимает:
multiple speaker emotions, multilingual expressions, and layered intentions. It can also perceive cultural context and implicit information within the audio, enabling a deep comprehension of the underlying meaning behind the spoken words. In non-speech scenarios, the model demonstrates exceptional sound recognition and analysis capabilities, accurately distinguishing and describing intricate layers of real-world sounds, ambient atmospheres, and dynamic audio details in film and media.


Я прогнал через модель звук из видео «Бурановские Бабушки»: В кругу друзей. (всего 223 просмотра — поднажмем!) Получилось достаточно хорошо (см. скрин). Модель даже понимает, к какой секунде относится каждая часть контента.

НО! Нельзя задать промпт, модель принимает только аудио. То есть нельзя, например, попросить оценить акцент вашей речи, — можно только получить полное общее описание.

Вопрос — в каком продукте такая модель могла бы понадобиться?

модель
😛 демка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
DeepSeek-V3.2-Exp

Вышел новый дипсик!

🔹построен на основе V3.1-Terminus (неделю+ вышла моделька)
🔹DeepSeek Sparse Attention (DSA) для ускорения инференса при длинных контекстах
🔹по API цена ниже на 50%

🔗 ссылка на модель
🔥2
This is misspelled, but we can't change it because that would be a breaking change

👋 Забавная "бага" в либе openai-agents-python

ps
правильно: occured -> occurred
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6
Qwen3-VL

Наконец вышли завершающие размеры в серии Qwen3-VL — 4B и 8B.

В двух форматах: instruct и thinking
И в двух точностях: bf16 и fp8

До этого вышли MoE версии: 235B-A22B, 30B-A3B

Qwen-VL это моя любимая модель ♥️, мне понравилось с ней работать в поколении Qwen2.5-VL. На моей задачи многоклассовой классификации удалось выбить ~0.95 F1

Я пробовал gemma-3(n), SmolVLM(2), Phi-4, Phi-3.5 — все они так себе. Только Kimi-VL хорошо работала, но была существенно тяжелее.

В планах попробовать Qwen3-VL для text-only задач. Кажется, должна работать прям хорошо

⛓️ Коллекция на хагинфейсе
Please open Telegram to view this post
VIEW IN TELEGRAM
👍72
2025/10/19 04:56:42
Back to Top
HTML Embed Code: