TURBOPROJECT Telegram 2235
Сегодня день научного фейерверка. Google выпустил публикацию в которой показал невероятные способности даже не SLM, а скорее что-то вроде Nano LM по анализу кода. Они создали Gemma всего на 300 миллионов параметров, но со специальной моделью токенизации под код как T5Gemma и большим обучением по кодовой базе.

Их целью было научить такую мелкую LM оценивать потребление памяти и времени выполнения для кода на Питоне.

По предсказанию потребления памяти для Питона корреляция достигла 0.930, т.е. практически идеальная.
Для задержек задача была сложной, как изучение кода для Triton ядер на NVIDIA A6000, но тем не менее корреляционный коэффициент 0.516.

Ранее такие же эксперименты делали на более крупных нейросетях с корреляциями значительно меньше.

О чем это все говорит? Это говорит о том, что программный код людей имеет некоторую "скрытую простоту" как высокоуровневые архитектурные паттерны, которую понимают специально обученные нейросети. В случае LLM можно также ожидать, что ИИ может вроде бы делать парадоксальные вещи - не очень понимать как код работает в деталях, но удивительно точно предсказывать его результирующее поведение.

Как это практически применить? Я думаю, что тут нужны дополнительные эксперименты, но скорее всего если у ИИ спросить оценку кода, но не запрашивать как раз CoT и "рационализацию", то ИИ может удивительно точно оценить его в каких-то аспектах, просто учуяв паттерны решений, который мы сами еще не понимаем до конца, а ИИ смог установить.

Больше доверяйте выводам GPT без объяснений, как ни странно, но когда вопрос именно категоризации и оценок как тут, чем меньше ИИ думает словами, а больше внутри скрытого состояния, тем лучше оценка. Я уже публиковал работу в канале на этот счет и она явно перекликается с этой.

https://arxiv.org/abs/2509.26476
👍7🔥54🤔1🤯1



tgoop.com/turboproject/2235
Create:
Last Update:

Сегодня день научного фейерверка. Google выпустил публикацию в которой показал невероятные способности даже не SLM, а скорее что-то вроде Nano LM по анализу кода. Они создали Gemma всего на 300 миллионов параметров, но со специальной моделью токенизации под код как T5Gemma и большим обучением по кодовой базе.

Их целью было научить такую мелкую LM оценивать потребление памяти и времени выполнения для кода на Питоне.

По предсказанию потребления памяти для Питона корреляция достигла 0.930, т.е. практически идеальная.
Для задержек задача была сложной, как изучение кода для Triton ядер на NVIDIA A6000, но тем не менее корреляционный коэффициент 0.516.

Ранее такие же эксперименты делали на более крупных нейросетях с корреляциями значительно меньше.

О чем это все говорит? Это говорит о том, что программный код людей имеет некоторую "скрытую простоту" как высокоуровневые архитектурные паттерны, которую понимают специально обученные нейросети. В случае LLM можно также ожидать, что ИИ может вроде бы делать парадоксальные вещи - не очень понимать как код работает в деталях, но удивительно точно предсказывать его результирующее поведение.

Как это практически применить? Я думаю, что тут нужны дополнительные эксперименты, но скорее всего если у ИИ спросить оценку кода, но не запрашивать как раз CoT и "рационализацию", то ИИ может удивительно точно оценить его в каких-то аспектах, просто учуяв паттерны решений, который мы сами еще не понимаем до конца, а ИИ смог установить.

Больше доверяйте выводам GPT без объяснений, как ни странно, но когда вопрос именно категоризации и оценок как тут, чем меньше ИИ думает словами, а больше внутри скрытого состояния, тем лучше оценка. Я уже публиковал работу в канале на этот счет и она явно перекликается с этой.

https://arxiv.org/abs/2509.26476

BY AI Projects




Share with your friend now:
tgoop.com/turboproject/2235

View MORE
Open in Telegram


Telegram News

Date: |

With the sharp downturn in the crypto market, yelling has become a coping mechanism for many crypto traders. This screaming therapy became popular after the surge of Goblintown Ethereum NFTs at the end of May or early June. Here, holders made incoherent groaning sounds in late-night Twitter spaces. They also role-played as urine-loving Goblin creatures. A new window will come up. Enter your channel name and bio. (See the character limits above.) Click “Create.” Ng Man-ho, a 27-year-old computer technician, was convicted last month of seven counts of incitement charges after he made use of the 100,000-member Chinese-language channel that he runs and manages to post "seditious messages," which had been shut down since August 2020. According to media reports, the privacy watchdog was considering “blacklisting” some online platforms that have repeatedly posted doxxing information, with sources saying most messages were shared on Telegram. 2How to set up a Telegram channel? (A step-by-step tutorial)
from us


Telegram AI Projects
FROM American