Klapphülle mit magnetischer Befestigung короче говоря флипкейс магнитый
каждый светлячок однажды перестает святить. Беригите моменты с близкими.
Forwarded from ливлайкгэнгста в мире животных
ой, да ладно вам выдумывать, какой еще man in finance, trust fund, 6.5, blue eyes?
забыли, где живете? у нас только юрфак, пахан намутил еще на приватизации, сын теперь кайфует, 180, карие глаза, лв авеню, лорики, пятерка в м-пакете, кофемания, лавандовый раф в мгимо
забыли, где живете? у нас только юрфак, пахан намутил еще на приватизации, сын теперь кайфует, 180, карие глаза, лв авеню, лорики, пятерка в м-пакете, кофемания, лавандовый раф в мгимо
ой, да ладно вам выдумывать, какой еще research in ai aligment, faang, 600k/year, 10hi, 1000 h100?
забыли, где живете? у нас только мехмат, пахан препал еще на матмехе, сын теперь работает в сбере, публикации в скопусе , 35k/year а понтов на все 200, 1v100 16gb на коллабе, 10hi на классификации пяток носорога
забыли, где живете? у нас только мехмат, пахан препал еще на матмехе, сын теперь работает в сбере, публикации в скопусе , 35k/year а понтов на все 200, 1v100 16gb на коллабе, 10hi на классификации пяток носорога
Love. Death. Transformers.
Релиз 5.* вихря Арена на этих данных. Релиз арены выйдет ДАННЫЕ УДАЛЕНЫ апвотить папир тут модель если вы случайно богатый дон или компания с кучей лишних карт - мы ждем вас @transformerslovedeatch Авторы: @nlpwanderer @mlunderground
Короче, я решил угореть и сделать из 5.2 энкодер.
0 слой я не трогал, а вот следующие решил подвигать и перебрать.
Зачем?
Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Нам было весело.
В обещем идея простая - отставил первые три слоя + embedings, получился 900м обрезок который ну чуть больше e5 large, без контрастива где то около FredT5 large по Encodechke. Зачем вам эта информация? я хз, у меня были свободные часы в воскресенье
модель на хф
0 слой я не трогал, а вот следующие решил подвигать и перебрать.
Зачем?
Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Нам было весело.
В обещем идея простая - отставил первые три слоя + embedings, получился 900м обрезок который ну чуть больше e5 large, без контрастива где то около FredT5 large по Encodechke. Зачем вам эта информация? я хз, у меня были свободные часы в воскресенье
модель на хф
Love. Death. Transformers.
Короче, я решил угореть и сделать из 5.2 энкодер. 0 слой я не трогал, а вот следующие решил подвигать и перебрать. Зачем? Указанные действия не являются ресерчем, поскольку: а) Мы не ученые; б) Нам было весело. В обещем идея простая - отставил первые…
удивительно, опять маленькие сетки на задачу лучше чем декодеры. никто не догадывался
Love. Death. Transformers.
удивительно, опять маленькие сетки на задачу лучше чем декодеры. никто не догадывался
Вы не просили, не ждали а мы по чуть чуть делаем.
Паблик чат по вихревым моделям
https://www.tgoop.com/vikhrmodels
Паблик чат по вихревым моделям
https://www.tgoop.com/vikhrmodels
Парень ты что ничего не знаешь SFT/DPO/PPO?
Хватит сидеть сложа руки! Иди и обучи свой первый alpaca chekpoint
хз, почитайте статью яндекса про алаймент, картинки для през для студентов я третий раз тырю из этой статьи и вам советую
Хватит сидеть сложа руки! Иди и обучи свой первый alpaca chekpoint
хз, почитайте статью яндекса про алаймент, картинки для през для студентов я третий раз тырю из этой статьи и вам советую
Хабр
Как мы готовим RL для Alignment в больших языковых моделях: опыт команды YandexGPT
Сегодня через API стала доступна новая модель YandexGPT 3 Lite. Одним из ключевых этапов её обучения, как и в случае с другими недавними моделями, стал этап Alignment...
Идет бомж по улице. Видит — валяется Тетрадь Смерти. Схватил ее и подтерся. А на следующий день умерла очень важная область - superalignment
Inspired by @rlabrats
Inspired by @rlabrats