Notice: file_put_contents(): Write of 6022 bytes failed with errno=28 No space left on device in /var/www/tgoop/post.php on line 50

Warning: file_put_contents(): Only 12288 of 18310 bytes written, possibly out of free disk space in /var/www/tgoop/post.php on line 50
PyTorch Howsam@pytorch_howsam P.546
PYTORCH_HOWSAM Telegram 546
PyTorch Howsam
Florence-2: Advancing a Unified Representation for a Variety of Vision Tasks مدل Vision-Language مایکروسافت بنام Florence-2 شاخصه‌های مهم این کار: * خیلی سَبُکه. خبری از بیلیون پارامتر نیست! * یک شبکه همه کاره هست؛ یعنی، دیتکشن، سگمنتیش و غیره * یک دیتاست…
احتمالا خبر دارید که اخیرا کنفرانس CVPR 2024 برگزار شد. میخوام، به مرور چند تا مقاله خوب و خوندنی این کنفرانس رو معرفی کنم. قبلا، Florence-2 رو معرفی کردم. امروز یک مقاله از حوزه شبکه‌های مگس وزن براتون آوردم! 😁
RepViT: Revisiting Mobile CNN From ViT Perspective


قبل از ظهور ترنسفورمر و ViT، شبکه‌های سبک و موبایلی زیادی داشتیم که مبتنی بر CNN بودن. مثل موبایل‌نت 1، 2، 3 و خیلی موارد دیگه. خب، در سال‌های اخیر شبکه‌های موبایلی مبتنی بر ViT هم پیشنهاد شدن که اتفاقا از لحاظ سبکی و Latency بهتر از کانولوشنی‌ها بودن. شبکه‌هایی مثل FastViT، EfficientFormer و غیره.

اما، توی این مقاله شبکه‌ای مبتنی بر CNN پیشنهاد شده که مُچ شبکه‌های ترنسفورمری رو خوابونده! توی تصویر بالا هم می‌تونید مقایسه دقت و Latency بین این شبکه و سایرین رو ببینید.

ریپوی خوبی داره. وزن‌هاش در دسترسه. مورد استقبال قرار گرفته. همچنین، اومدن این شبکه رو با SAM (همون Segment Anything) ترکیب کردن و چیز جالبی دراومده! کد این هم توی ریپو موجود هست.

مقاله | گیتهاب

@pytorch_howsam



tgoop.com/pytorch_howsam/546
Create:
Last Update:

احتمالا خبر دارید که اخیرا کنفرانس CVPR 2024 برگزار شد. میخوام، به مرور چند تا مقاله خوب و خوندنی این کنفرانس رو معرفی کنم. قبلا، Florence-2 رو معرفی کردم. امروز یک مقاله از حوزه شبکه‌های مگس وزن براتون آوردم! 😁

RepViT: Revisiting Mobile CNN From ViT Perspective


قبل از ظهور ترنسفورمر و ViT، شبکه‌های سبک و موبایلی زیادی داشتیم که مبتنی بر CNN بودن. مثل موبایل‌نت 1، 2، 3 و خیلی موارد دیگه. خب، در سال‌های اخیر شبکه‌های موبایلی مبتنی بر ViT هم پیشنهاد شدن که اتفاقا از لحاظ سبکی و Latency بهتر از کانولوشنی‌ها بودن. شبکه‌هایی مثل FastViT، EfficientFormer و غیره.

اما، توی این مقاله شبکه‌ای مبتنی بر CNN پیشنهاد شده که مُچ شبکه‌های ترنسفورمری رو خوابونده! توی تصویر بالا هم می‌تونید مقایسه دقت و Latency بین این شبکه و سایرین رو ببینید.

ریپوی خوبی داره. وزن‌هاش در دسترسه. مورد استقبال قرار گرفته. همچنین، اومدن این شبکه رو با SAM (همون Segment Anything) ترکیب کردن و چیز جالبی دراومده! کد این هم توی ریپو موجود هست.

مقاله | گیتهاب

@pytorch_howsam

BY PyTorch Howsam





Share with your friend now:
tgoop.com/pytorch_howsam/546

View MORE
Open in Telegram


Telegram News

Date: |

“Hey degen, are you stressed? Just let it all out,” he wrote, along with a link to join the group. Step-by-step tutorial on desktop: ‘Ban’ on Telegram Choose quality over quantity. Remember that one high-quality post is better than five short publications of questionable value. The Channel name and bio must be no more than 255 characters long
from us


Telegram PyTorch Howsam
FROM American