Warning: file_put_contents(aCache/aDaily/post/codecamp/-7380-7381-7382-7383-7384-): Failed to open stream: No space left on device in /var/www/tgoop/post.php on line 50
CodeCamp@codecamp P.7384
CODECAMP Telegram 7384
Бомбезные новости: NVIDIA добавили нативную поддержку Python в CUDA!

Это значит, что код для GPU теперь можно писать сразу на Python, а не учить параллельно C++ или Fortran.

Что важно: это не перевод синтаксиса C на Python. Все будет работать так, как привыкли разработчики.

Сразу из интересного:

— Появилась библиотека cuPyNumeric: NumPy-совместимая штука, но всё летит на GPU. Почти без изменений в коде, зато x50 ускорение для массивов.

CUDA Core переосмыслили для Python: теперь без миллиона зависимостей и танцев с .cu-файлами. Всё завязано на JIT-компиляции и нативной интеграции в CPython. Пишешь как на Python — работает как C++ (почти).

Модель параллелизма CuTile — вместо ручной работы с потоками и блоками (как в C++), теперь можно просто оперировать «плитками» данных.

— Инструменты для профилирования и анализа GPU-кода на Python — прямо внутри среды. Можешь смотреть, как работает каждое ядро, какие данные тормозят, и где ты налажал.

Zero-copy memory: массивы могут жить одновременно и в CPU, и в GPU-памяти, и не дублируются.

— Легко подключать кастомные ядра в PyTorch — не надо писать C++ Extensions, можно просто на Python + cuModule. Всё работает с автоградом.

CUDA Python SDK — теперь официальный. Поддержка IDE, Jupyter, VSCode.
🔥198👍2724🌚17😁5👨‍💻3🫡1



tgoop.com/codecamp/7384
Create:
Last Update:

Бомбезные новости: NVIDIA добавили нативную поддержку Python в CUDA!

Это значит, что код для GPU теперь можно писать сразу на Python, а не учить параллельно C++ или Fortran.

Что важно: это не перевод синтаксиса C на Python. Все будет работать так, как привыкли разработчики.

Сразу из интересного:

— Появилась библиотека cuPyNumeric: NumPy-совместимая штука, но всё летит на GPU. Почти без изменений в коде, зато x50 ускорение для массивов.

CUDA Core переосмыслили для Python: теперь без миллиона зависимостей и танцев с .cu-файлами. Всё завязано на JIT-компиляции и нативной интеграции в CPython. Пишешь как на Python — работает как C++ (почти).

Модель параллелизма CuTile — вместо ручной работы с потоками и блоками (как в C++), теперь можно просто оперировать «плитками» данных.

— Инструменты для профилирования и анализа GPU-кода на Python — прямо внутри среды. Можешь смотреть, как работает каждое ядро, какие данные тормозят, и где ты налажал.

Zero-copy memory: массивы могут жить одновременно и в CPU, и в GPU-памяти, и не дублируются.

— Легко подключать кастомные ядра в PyTorch — не надо писать C++ Extensions, можно просто на Python + cuModule. Всё работает с автоградом.

CUDA Python SDK — теперь официальный. Поддержка IDE, Jupyter, VSCode.

BY CodeCamp








Share with your friend now:
tgoop.com/codecamp/7384

View MORE
Open in Telegram


Telegram News

Date: |

Commenting about the court's concerns about the spread of false information related to the elections, Minister Fachin noted Brazil is "facing circumstances that could put Brazil's democracy at risk." During the meeting, the information technology secretary at the TSE, Julio Valente, put forward a list of requests the court believes will disinformation. It’s easy to create a Telegram channel via desktop app or mobile app (for Android and iOS): “Hey degen, are you stressed? Just let it all out,” he wrote, along with a link to join the group. As of Thursday, the SUCK Channel had 34,146 subscribers, with only one message dated August 28, 2020. It was an announcement stating that police had removed all posts on the channel because its content “contravenes the laws of Hong Kong.” Telegram message that reads: "Bear Market Screaming Therapy Group. You are only allowed to send screaming voice notes. Everything else = BAN. Text pics, videos, stickers, gif = BAN. Anything other than screaming = BAN. You think you are smart = BAN.
from us


Telegram CodeCamp
FROM American