Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
113 - Telegram Web
Telegram Web
Если что, меня не украло ФБР, я занимался важными делами – сделал стикерпак с одним из любимых инстаграм-котов. Посты для вумнеков будут как придумаются. 🫥
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Узнал сегодня, что про проект, с которым мы помогали ютьюбу, написали блогпост ребята из гугловского threat analysis group. Помогаем гуглу бороться с дезинформирующими спамерами. 🗡

TL;DR: про-китайские спамеры постили политические видео сомнительного качества. Для довольно большого масштаба (>100к аккаунтов) кампании собирали очень мало органического трафика – большинство менее 100 просмотров. Очень похоже на какой-то госраспил.

Для меня подобная работа позволяет проще относиться к реджектам академических идей. На практике работает и приносит пользу миру – ну и ладно, можно спать спокойно. Кстати, ещё легко подобными проектами совращать студентов на переход из академии в индустрию. 🥹
Please open Telegram to view this post
VIEW IN TELEGRAM
Запустили Kaggle соревнование по предсказанию времени исполнения программ на TPU. Призовые неплохие – $50k, из них $15k на первый приз. 📈

Это соревнование – часть воркшопа ML for Systems на NeurIPS 2023. Любителям академической славы (помимо мирского богатства) должно быть особенно интересно.

Бейзлайн написан на нашел любимом TensorFlow-GNN. За решение на пайторче -100 к социальному рейтингу. 👮‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Empty Set of Ideas (Arsenii)
Consistency between ordering and clustering methods for graphs

"While similar characterizations of a dataset would be achieved by both clustering and ordering methods, the former has been studied much more actively than the latter, particularly for the data represented as graphs. This study fills this gap by investigating methodological relationships between several clustering and ordering methods, focusing on spectral techniques. Furthermore, we evaluate the resulting performance of the clustering and ordering methods. To this end, we propose a measure called the label continuity error, which generically quantifies the degree of consistency between a sequence and partition for a set of elements. Based on synthetic and real-world datasets, we evaluate the extents to which an ordering method identifies a module structure and a clustering method identifies a banded structure."
Стало стыдно, что скинул статью без пояснений, почему она классная – исправлюсь.

Задача о минимальном линейном расположении графа (minimum linear arrangement) – это такая дедовская задача о том, как расположить элементы в матрицы смежности таким образом, чтобы привести матрицу смежности к блочно-диагональному виду.

В первой же статье про эту проблему доказали, что она NP-полная, но рисёрчеры не успокаиваются, потому что проблема важная – чем лучше расположение, тем ближе в кэше наши рёбра, тем быстрее можно решать любые задачи.

Мне статья понравилась небольшим разбором разных не очень популярных матриц, использующихся для спектральной кластеризации, в контексте линейного расположения. Становится чуть понятнее, что делают параметры в матрицах типа регуляризованного Лапласиана и гессиана Бете.

Кстати, первый автор на днях психанул и основал стартап по созданию и анализу опросов. На основе кластеризации и упорядочивания графов, естестенно. 💁‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня узнал, что Хинтон – пра-правнук Джорджа Буля. Вот и не верь после такого в академические династии. 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
Пока я катался туда-сюда, у нас приняли ещё одну статью, на этот раз в TMLR. Называется “Tackling Provably Hard Representative Selection via Graph Neural Networks”.

Статья, на мой скромный вкус, интересная, потому что доказывает асимптотическую сложность проблемы выбора тренировочных данных для любого алгоритма.

Проблема супер жизненная – практически в лююой задаче нам нужно выбрать, на каких данных тренировать модель, причём в реальной жизни датасеты грязные. 🦠 Например, для LLMок чистые данные помогают тренировать модели поменьше.

Доказанная в работе сложность – неподъёмная, так что приходится искать прокси-метрики для оптимизации. Мы предложили новый подход на основе графовых нейросетей, который очень сильно докидывает, когда у нас есть информация в виде структуры графа. 🤴

В реальном мире, конечно, графы есть не везде, но и тут мы показываем, как бить сильные бейзланы: можно просто построить kNN граф и всё заработает. 💁‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
Ну вот и коучи по бросанию полотенец промптингу подъехали. Надеюсь, хотя бы в колесо баланса промпт раскладывает.

Хэндл AGI Utopia тоже доставляет.

P.S. Нет, аккаунт не пародийный 😮‍💨
Please open Telegram to view this post
VIEW IN TELEGRAM
Я тут попробовал новый для себя формат публичных выступлений – мы с Надей записали интервью со мной. Оно не техническое от слова совсем: поговорили про работу 😛, моё отношение к кофе 🙅‍♂️, вспомнили и пост про женихов.

Возможно, кому-то такой формат будет интереснее, чем буковки в телеграм-канале. Мне пока непонятно, что лучше – буковки можно переписывать, зато общение в риалтайме как-то поживее. 😟

UPD: для любителей не смотреть , но слушать – ссылки на подкаст на амазоне, спотифае, apple подкастах, и ютьюбе.
Please open Telegram to view this post
VIEW IN TELEGRAM
Загуглил temperature, не понял, почему выдача не про софтмакс. Кажется, пора отдыхать 🤤
Please open Telegram to view this post
VIEW IN TELEGRAM
Не все доверительным интервалы одинаково полезны

Возвращаемся к техническим постам после научных каникул напряжённой летней работы. 🏄‍♂️

Доверительные интервалы для биномиального распределения – очень полезная в быту штука. Например, они всплывают, когда мы хотим "правильно" отранжировать товары по среднему отзыву – если взять среднее значение, сверху будут вещи с одним положительным отзывом. Некоторые сайты до сих пор этим грешат – амазон, например 😑. Вместо этого стоит использовать нижнюю границу доверительного интервала, и ранжирование станет намного лучше.

Один из самых известных тестов для этого – тест Вальда. Он до сих пор рекомендуется для биномиальных респределений во многих учебниках, например, в известном Casella & Berger. Однако, именно для биномиальных пропорций тест Вальда – очень плохая идея. 📉

В других учебниках часто пишут про потерю силы на маленьких выборках, но основная проблема теста в том, что он теряет силу с приближением параметра p к 0 или 1 из-за эффекта Hauck–Donner, что можно увидеть на иллюстрации к посту. Про этот эффект есть несколько статей, ну или можно почитать более простую, которая недавно вышла в Teacher's Corner журнала The American Statistician. Там призывают перестать использовать тест Уилсона. Формула там подлиннее, зато нет проблем с покрытием. 🍳

Кстати, интересно, что у других тестов вроде Agresti–Coull и Clopper–Pearson покрытие слишком консервативное (для Clopper–Peason это неудивительно, потому что покрытие там строго больше 1-α). Вот тут есть сравнение покрытия этих тестов с кодом на R (🤮).
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Mamkin Machinist
Случайно попался мне на глаза, пожалуй, лучший манул по JAX, который покрывает множество тем от базовых вещей до более продвинутых вроде multi-node multi-GPU обучения.


https://www.jan-ebert.com/blog/jax-intro.html
Получается, поеду на NeurIPS презентовать статью трёхлетней давности, на которой 100+ цитат. Ноука. 🥛
Please open Telegram to view this post
VIEW IN TELEGRAM
В твиттере Джона Грина проскочил интересный вопрос – похоже, люди сильно различаются по способностям визуализировать разные вещи. Многие люди могут спокойно представить себе “картинку” объекта со всеми его свойствами, тогда как у других получится только представить концепт этого объекта, без конкретных признаков. 🤤

Интересно, как это работает у дорогих подписчиков.
Please open Telegram to view this post
VIEW IN TELEGRAM
На HackerNews завирусилось, что мы релизнули кусок библиотеки для анализа графов. Поскольку документации в релизе особо нет (🤦‍♂️), хочу быстренько рассказать, что там вообще сейчас есть и что будет.

Во-первых, этот кусок библиотеки – только для анализа графов, которые влезают в оперативную память. Не надо пугаться – с нужным сжатием в память влезают графы с парой миллиардов вершин – хватит, чтобы проанализировать фейсбук. 🤓

Во-вторых, основной кусок, который заопенсоршен – про кластеризацию. У нас довольно хорошо работает иерархическая кластеризация, есть статьи на ICML/NeurIPS [1, 2, 3]. Вот её и постарались опенсорсить в первую очередь – в sklearn дай боже получится кластеризовать датасет на 20к вершин (😮‍💨) а у нас получается миллиард. 📈

До конца года хочу выпустить наш код для in-memory эмбеддингов туда же. Будет быстро, обещаю.
Please open Telegram to view this post
VIEW IN TELEGRAM
На днях вышла интересная статья Vision Transformers Need Registers.

Vision Transformers (ViT) – одна из основных современных архитектур для больших vision-моделей. В отличие от счёрточных нейросетей, она отлично model-параллелится, так что получается эффективно тренировать большие модели, которые хорошо работают на практике. 🥁

Проблема в том, что на attention масках получаются какие-то непонятные артефакты (см. картинку) в виде пикселей с очень высокими коэффициентами. Авторы статьи решили почесать репу и разобраться, какую функцию они выполняют и как от них избавиться. 🧐

Оказалось, что трансформеры таким образом передают информацию между слоями, и можно это вылечить специальными токенами, которые не будут использоваться для финальной агрегации в эмбеддинг, но для них всё ещё будут учиться attention слои. Это помогло снизить проблему коммуникации и очистить чакры attention маски.

Мне кажется, хороший пример научного подхода ко всей этой нашей машинлёрнинговой алхимии – авторы нашли странный феномен в моделях, выяснили, как он работает, пофиксили, получили прирост на бенчмарках. 📈
Please open Telegram to view this post
VIEW IN TELEGRAM
Сделал ещё один стикерпак с известным в узких кругах инстаграм-котом Yohji Kattamoto. Вместо моды кот-Ёдзи деконструирует само бытие, и остаётся лишь только всратость.
2025/06/27 18:35:59
Back to Top
HTML Embed Code: