tgoop.com/smalldatascience/627
Last Update:
#статьи
Что было за неделю... но тут только половина самого интересного и популярного
Unsolved Problems in ML Safety
Dan Hendrycks, Nicholas Carlini, John Schulman, Jacob Steinhardt
http://arxiv.org/abs/2109.13916v1
Просто небольшой обзорчик направлений по безопасности в машинном обучении (со ссылками).
Localizing Objects with Self-Supervised Transformers and no Labels
Oriane Siméoni, Gilles Puy, Huy V. Vo, Simon Roburin, Spyros Gidaris, Andrei Bursuc, Patrick Pérez, Renaud Marlet, Jean Ponce
http://arxiv.org/abs/2109.14279v1
Модное в последнее время самообучение в этой работе позволяет локализовывать объекты не используя размеченные данные (есть код).
Reconstruction for Powerful Graph Representations
Leonardo Cotta, Christopher Morris, Bruno Ribeiro
http://arxiv.org/abs/2110.00577v1
Попытка построить хорошее представление графа, для этого используется реконструкция (сеть должна получать представление всего графа по его частям). Довольно интересно!
Be Confident! Towards Trustworthy Graph Neural Networks via Confidence Calibration
Xiao Wang, Hongrui Liu, Chuan Shi, Cheng Yang
http://arxiv.org/abs/2109.14285v1
Про калибровку графовых сетей, интересно, что они, как правило, "недоуверенны" (т.е. выдаваемая вероятность ниже, чем доля объектов с такой вероятностью).
Stochastic Contrastive Learning
Jason Ramapuram, Dan BusBridge, Xavier Suau, Russ Webb
http://arxiv.org/abs/2110.00552v1
В Contrastive Learning вносят латентные переменные.
ResNet strikes back: An improved training procedure in timm
Ross Wightman, Hugo Touvron, Hervé Jégou
https://arxiv.org/abs/2110.00476v1
Взяли ванильный резнет и попробавали натренировать со всеми хаками последних лет. Довольно полезная статья!
A Survey of Knowledge Enhanced Pre-trained Models
Jian Yang, Gang Xiao, Yulong Shen, Wei Jiang, Xinyu Hu, Ying Zhang, Jinghui Peng
http://arxiv.org/abs/2110.00269v1
Статья про KEPTM - это предтренированные модели в которые внесены ещё и некоторые дополнительные знания (что такое "знание" в работе специально поясняется). Приводится обзор подобных решений.
DualNet: Continual Learning, Fast and Slow
Quang Pham, Chenghao Liu, Steven Hoi
http://arxiv.org/abs/2110.00175v1
Ещё одна попытка сделать непрерывное обучение "как у человека" (взяли идею быстрого и медленного обучения).
Multilingual AMR Parsing with Noisy Knowledge Distillation
Deng Cai, Xin Li, Jackie Chun-Sing Ho, Lidong Bing, Wai Lam
http://arxiv.org/abs/2109.15196v1
Предложен мультиязычный AMR-парсер (по тексту получается дерево).
Fake It Till You Make It: Face analysis in the wild using synthetic data alone
Erroll Wood, Tadas Baltrušaitis, Charlie Hewitt, Sebastian Dziadzio, Matthew Johnson, Virginia Estellers, Thomas J. Cashman, Jamie Shotton
http://arxiv.org/abs/2109.15102v1
Две задачи CV решаются при помощи синтетических данных.
Fine-tuning wav2vec2 for speaker recognition
Nik Vaessen, David A. van Leeuwen
http://arxiv.org/abs/2109.15053v1
Вроде сейчас это модно: на основе wav2vec2 пытаются делать стандартные задачи со звуком и речью.
BY Small Data Science for Russian Adventurers
Share with your friend now:
tgoop.com/smalldatascience/627