https://aella.substack.com/p/my-birthday-gangbang
А прикиньте чо будет когда до верхнего интеренета доберется инфа про Aella?
А прикиньте чо будет когда до верхнего интеренета доберется инфа про Aella?
Substack
My Birthday Gangbang
a slutistical breakdown
Forwarded from Den4ik Research
Наш русскоязычный датасет для TTS опубликован!
Сегодня выкладываем открытые корпуса на 4000+ часов речи, а еще синтезатор речи ESpeech-TTS-1
Наш датасет содержит больше 4000 часов русской речи. Статистика по корпусам:
Многоголосые:
ESpeech-podcasts - 3200 часов
ESpeech-webinars - 850 часов
Одноголосые:
ESpeech-igm - 220 часов
ESpeech-buldjat - 54 часа
ESpeech-upvote - 296 часов
ESpeech-tuchniyzhab - 306 часов
Данные лежат вот тут: https://huggingface.co/ESpeech
Техрепорт датасета доступен тут: https://github.com/Den4ikAI/ESpeech/blob/main/ESpeech_techreport.pdf
Также, мы решили провести некоторые эксперименты с TTS. Получилось обучить F5-TTS на 10000 часов речи и сделать одну из лучших по нашим замерам моделей в опенсурсе для русского языка.
Какие модели доступны?
ESpeech-TTS-1 [RL] V1 - Первая версия модели с RL
ESpeech-TTS-1 [RL] V2 - Вторая версия модели с RL
ESpeech-TTS-1 PODCASTER [SFT] - Модель обученная только на подкастах, лучше генерирует спонтанную речь
ESpeech-TTS-1 [SFT] 95K - чекпоинт с 95000 шагов (на нем основана RL V1)
ESpeech-TTS-1 [SFT] 265K - чекпоинт с 265000 шагов (на нем основана RL V2)
Лайкайте модель которая больше понравится чтобы мы понимали есть ли смысл запускать RL.
Послушать модели без скачивания можно вот здесь:
https://huggingface.co/spaces/Den4ikAI/ESpeech-TTS
Совместно с @speech_recognition_ru ещё сделали лидерборд русского ТТС, где можно глянуть метрики:
https://huggingface.co/spaces/ESpeech/open_tts_leaderboard_ru
Задать вопросы по поводу данных и модели можно в наших телеграм каналах:
https://www.tgoop.com/den4ikresearch
https://www.tgoop.com/voice_stuff_chat
Вы можете мне задонатить, чтобы у меня были ресурсы делать более крутые модели и датасеты:
USDT (TRC20): TEpEM4VVmGmqKHn4Xz1FxM7qZiXjWtUEUB
BTC: bc1qw5lq7fc455e47hggax6zp8txw4ru7yvsxvawv3
https://www.tbank.ru/cf/7WKnNMqWtOx
Сегодня выкладываем открытые корпуса на 4000+ часов речи, а еще синтезатор речи ESpeech-TTS-1
Наш датасет содержит больше 4000 часов русской речи. Статистика по корпусам:
Многоголосые:
ESpeech-podcasts - 3200 часов
ESpeech-webinars - 850 часов
Одноголосые:
ESpeech-igm - 220 часов
ESpeech-buldjat - 54 часа
ESpeech-upvote - 296 часов
ESpeech-tuchniyzhab - 306 часов
Данные лежат вот тут: https://huggingface.co/ESpeech
Техрепорт датасета доступен тут: https://github.com/Den4ikAI/ESpeech/blob/main/ESpeech_techreport.pdf
Также, мы решили провести некоторые эксперименты с TTS. Получилось обучить F5-TTS на 10000 часов речи и сделать одну из лучших по нашим замерам моделей в опенсурсе для русского языка.
Какие модели доступны?
ESpeech-TTS-1 [RL] V1 - Первая версия модели с RL
ESpeech-TTS-1 [RL] V2 - Вторая версия модели с RL
ESpeech-TTS-1 PODCASTER [SFT] - Модель обученная только на подкастах, лучше генерирует спонтанную речь
ESpeech-TTS-1 [SFT] 95K - чекпоинт с 95000 шагов (на нем основана RL V1)
ESpeech-TTS-1 [SFT] 265K - чекпоинт с 265000 шагов (на нем основана RL V2)
Лайкайте модель которая больше понравится чтобы мы понимали есть ли смысл запускать RL.
Послушать модели без скачивания можно вот здесь:
https://huggingface.co/spaces/Den4ikAI/ESpeech-TTS
Совместно с @speech_recognition_ru ещё сделали лидерборд русского ТТС, где можно глянуть метрики:
https://huggingface.co/spaces/ESpeech/open_tts_leaderboard_ru
Задать вопросы по поводу данных и модели можно в наших телеграм каналах:
https://www.tgoop.com/den4ikresearch
https://www.tgoop.com/voice_stuff_chat
Вы можете мне задонатить, чтобы у меня были ресурсы делать более крутые модели и датасеты:
USDT (TRC20): TEpEM4VVmGmqKHn4Xz1FxM7qZiXjWtUEUB
BTC: bc1qw5lq7fc455e47hggax6zp8txw4ru7yvsxvawv3
https://www.tbank.ru/cf/7WKnNMqWtOx
4🔥109👍18 17🍓3💩1
пока единственный плюс от гпт5 в ней реально не бесполезный поиск и он быстрый. Модель правда все еще вне thinking оч тупая, а с thinking имеет тот же набор болячек что и о3 и прочие
1🍓54💯9🔥2
LLM Arena
довольно любопытно что за счет скейлинга рассуждений gpt5 nano дотягивается до gemeni2.5pro на нашем бенче
🔥37
Мне нравится что Hermes (читать как аноны из твиттера ) сделали ризонинг лламу раньше чем Мета и на оcнове llama3 (ноль идей почему так) + игнорят сравнения с llama4
hermes4.nousresearch.com
hermes4.nousresearch.com
👍28😁12🔥1
Forwarded from Denis Sexy IT 🤖
6 месяцев назад, CEO антропика говорил, что 90% кода будет писаться LLM уже через 6 месяцев
Кажется, не получилось, ждем новых предсказаний☕️
Источник
Кажется, не получилось, ждем новых предсказаний
Источник
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁111😇12👍2😐1
Denis Sexy IT 🤖
6 месяцев назад, CEO антропика говорил, что 90% кода будет писаться LLM уже через 6 месяцев Кажется, не получилось, ждем новых предсказаний ☕️ Источник
Я тебе напиздел понимаешь напиздюнькал наебал тебя блять ты понимаешь я соврал нахуй я сказал тебе неправду
😁129❤🔥14💊5💯3👍1
хз с чего Секси Денис это взял, но бойлерплейт код действительно перестали писать руками
1💯66🥱5
есть еще несколько мест на MoscowAI митап 3го сентября https://moscowai.timepad.ru/event/3457820/ врывайтесь
moscowai.timepad.ru
MoscowAI #3 — встреча людей и нейросетей / События на TimePad.ru
MoscowAI — сообщество энтузиастов и профессионалов увлеченных ИИ. Меньше токенов, больше смысла
💩13👍9
Забавно что human in the loop агенты работают норм, а autonomous ai agents как года два назад работали только с понятной функцией так и сейчас.
1👍43 9🦄5 4🔥3🤷♂1💯1