DESARROLLADORES Telegram 558
Meta ha lanzado oficialmente Code Llama, una nueva LLM (Modelo de Lenguaje del Lenguaje) de código abierto para completar, generar y probar código. Este modelo, que puede ejecutarse en hardware local, está disponible de forma gratuita tanto para uso de investigación como comercial. Code Llama es una versión especializada del LLM gratuito de Meta, Llama 2, y ha sido entrenado con 500 mil millones de tokens de código y datos de programación. Viene en tres tamaños de parámetros diferentes: 7 mil millones, 13 mil millones y 34 mil millones. Aunque el modelo de 34 mil millones de parámetros es el más preciso, los modelos de 7 mil millones y 13 mil millones son más rápidos y pueden ser más beneficiosos para demandas de baja latencia. Además, Meta ha lanzado dos modelos ajustados llamados "Code Llama - Python" y "Code Llama - Instruct". Code Llama - Python ha sido entrenado en 100 mil millones de tokens de Python para generar código en ese lenguaje con mayor precisión, mientras que Code Llama - Instruct ha sido entrenado en 5 mil millones de tokens para generar respuestas o código basado en preguntas en texto plano. Aunque el modelo generalista Llama 2 puede usarse de manera similar, no es tan preciso en sus respuestas de código debido a que no ha sido sometido a los mismos pasos de ajuste fino que Code Llama.



tgoop.com/desarrolladores/558
Create:
Last Update:

Meta ha lanzado oficialmente Code Llama, una nueva LLM (Modelo de Lenguaje del Lenguaje) de código abierto para completar, generar y probar código. Este modelo, que puede ejecutarse en hardware local, está disponible de forma gratuita tanto para uso de investigación como comercial. Code Llama es una versión especializada del LLM gratuito de Meta, Llama 2, y ha sido entrenado con 500 mil millones de tokens de código y datos de programación. Viene en tres tamaños de parámetros diferentes: 7 mil millones, 13 mil millones y 34 mil millones. Aunque el modelo de 34 mil millones de parámetros es el más preciso, los modelos de 7 mil millones y 13 mil millones son más rápidos y pueden ser más beneficiosos para demandas de baja latencia. Además, Meta ha lanzado dos modelos ajustados llamados "Code Llama - Python" y "Code Llama - Instruct". Code Llama - Python ha sido entrenado en 100 mil millones de tokens de Python para generar código en ese lenguaje con mayor precisión, mientras que Code Llama - Instruct ha sido entrenado en 5 mil millones de tokens para generar respuestas o código basado en preguntas en texto plano. Aunque el modelo generalista Llama 2 puede usarse de manera similar, no es tan preciso en sus respuestas de código debido a que no ha sido sometido a los mismos pasos de ajuste fino que Code Llama.

BY Desarrolladores Telegrameros


Share with your friend now:
tgoop.com/desarrolladores/558

View MORE
Open in Telegram


Telegram News

Date: |

Over 33,000 people sent out over 1,000 doxxing messages in the group. Although the administrators tried to delete all of the messages, the posting speed was far too much for them to keep up. To delete a channel with over 1,000 subscribers, you need to contact user support Hui said the time period and nature of some offences “overlapped” and thus their prison terms could be served concurrently. The judge ordered Ng to be jailed for a total of six years and six months. Polls A few years ago, you had to use a special bot to run a poll on Telegram. Now you can easily do that yourself in two clicks. Hit the Menu icon and select “Create Poll.” Write your question and add up to 10 options. Running polls is a powerful strategy for getting feedback from your audience. If you’re considering the possibility of modifying your channel in any way, be sure to ask your subscribers’ opinions first.
from us


Telegram Desarrolladores Telegrameros
FROM American