PRO_PYTHON_CODE Telegram 1731
Forwarded from Machinelearning
🌟 EuroBERT: энкодСры Π½ΠΎΠ²ΠΎΠ³ΠΎ поколСния.

Π˜ΡΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΡΠΊΠ°Ρ Π³Ρ€ΡƒΠΏΠΏΠ° ΠΏΠΎΠ΄ ΠΏΠ°Ρ‚Ρ€ΠΎΠ½Π°ΠΆΠ΅ΠΌ Centrale SupΓ©lec (УнивСрситСт ΠŸΠ°Ρ€ΠΈΠΆ-Π‘Π°ΠΊΠ»Π΅) выпустила Π² ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΉ доступ EuroBERT β€” сСмСйство ΠΌΡƒΠ»ΡŒΡ‚ΠΈΡΠ·Ρ‹Ρ‡Π½Ρ‹Ρ… энкодСров, ΠΎΠ±ΡƒΡ‡Π΅Π½Π½Ρ‹Ρ… Π½Π° 5 Ρ‚Ρ€Π»Π½. Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² ΠΈΠ· 15 языков, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ русский.

EuroBERT сочСтаСт ΠΈΠ½Π½ΠΎΠ²Π°Ρ†ΠΈΠΎΠ½Π½ΡƒΡŽ Π°Ρ€Ρ…ΠΈΡ‚Π΅ΠΊΡ‚ΡƒΡ€Ρƒ с ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΎΠΉ контСкста Π΄ΠΎ 8192 Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ², Ρ‡Ρ‚ΠΎ Π΄Π΅Π»Π°Π΅Ρ‚ это сСмСйство ΠΈΠ΄Π΅Π°Π»ΡŒΠ½Ρ‹ΠΌ для Π°Π½Π°Π»ΠΈΠ·Π° Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚ΠΎΠ², поиска ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΠΈ, классификации, рСгрСссии ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, ΠΎΡ†Π΅Π½ΠΊΠΈ качСства, ΠΎΡ†Π΅Π½ΠΊΠΈ Ρ€Π΅Π·ΡŽΠΌΠ΅ ΠΈ Π·Π°Π΄Π°Ρ‡, связанных с ΠΏΡ€ΠΎΠ³Ρ€Π°ΠΌΠΌΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ, Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ матСматичСских Π·Π°Π΄Π°Ρ‡ΠΈ.

Π’ ΠΎΡ‚Π»ΠΈΡ‡ΠΈΠ΅ ΠΎΡ‚ ΠΏΡ€Π΅Π΄ΡˆΠ΅ΡΡ‚Π²Π΅Π½Π½ΠΈΠΊΠΎΠ² (XLM-RoBERTa ΠΈ mGTE), EuroBERT объСдинил GQA, RoPE ΠΈ ΡΡ€Π΅Π΄Π½Π΅ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚ΠΈΡ‡Π½ΡƒΡŽ Π½ΠΎΡ€ΠΌΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΡŽ, Ρ‡Ρ‚ΠΎΠ±Ρ‹ Π΄ΠΎΡΡ‚ΠΈΡ‡ΡŒ бСспрСцСдСнтной эффСктивности ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ Π΄Π°ΠΆΠ΅ Π² слоТных Π·Π°Π΄Π°Ρ‡Π°Ρ…. Π’Ρ‚ΠΎΡ€ΠΎΠ΅ Π½Π΅ΠΌΠ°Π»ΠΎΠ²Π°ΠΆΠ½ΠΎΠ΅ прСимущСство EuroBERT - Π² ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΠ΅ ΠΏΠΎΠΌΠΈΠΌΠΎ тСкстовых Π΄Π°Π½Π½Ρ‹Ρ… Π±Ρ‹Π»ΠΈ Π²ΠΊΠ»ΡŽΡ‡Π΅Π½Ρ‹ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΊΠΎΠ΄Π° ΠΈ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ матСматичСских Π·Π°Π΄Π°Ρ‡.

Бамая младшая модСль EuroBERT с 210 ΠΌΠ»Π½. ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ² ΠΏΠΎΠΊΠ°Π·Π°Π»Π° Ρ€Π΅ΠΊΠΎΡ€Π΄Π½Ρ‹Π΅ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹: Π² тСстС MIRACL ΠΏΠΎ многоязычному поиску Π΅Ρ‘ Ρ‚ΠΎΡ‡Π½ΠΎΡΡ‚ΡŒ достигла 95%, Π° Π² классификации ΠΎΡ‚Π·Ρ‹Π²ΠΎΠ² (AmazonReviews) β€” 64,5%. ОсобСнно выдСляСтся ΡƒΠΌΠ΅Π½ΠΈΠ΅ Ρ€Π°Π±ΠΎΡ‚Π°Ρ‚ΡŒ с ΠΊΠΎΠ΄ΠΎΠΌ ΠΈ ΠΌΠ°Ρ‚Π΅ΠΌΠ°Ρ‚ΠΈΠΊΠΎΠΉ β€” Π² Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠ°Ρ… CodeSearchNet ΠΈ MathShepherd EuroBERT ΠΎΠΏΠ΅Ρ€Π΅ΠΆΠ°Π΅Ρ‚ Π°Π½Π°Π»ΠΎΠ³ΠΈ Π½Π° 10–15%.

▢️Бостав Ρ€Π΅Π»ΠΈΠ·Π°:

🟒EuroBERT-210М
🟒EuroBERT-610М
🟒EuroBERT-2.1Π’

⚠️ EuroBERT ΠΌΠΎΠΆΠ½ΠΎ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚ΡŒ нСпосрСдствСнно с transformers, начиная с вСрсии 4.48.0

⚠️ Для достиТСния максимальной эффСктивности, Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ Ρ€Π΅ΠΊΠΎΠΌΠ΅Π½Π΄ΡƒΡŽΡ‚ Π·Π°ΠΏΡƒΡΠΊΠ°Ρ‚ΡŒ EuroBERT с Flash Attention 2

▢️ ΠŸΡ€ΠΈΠΌΠ΅Ρ€ инфСрСнса:

from transformers import AutoTokenizer, AutoModelForMaskedLM

model_id = "EuroBERT/EuroBERT-210m"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForMaskedLM.from_pretrained(model_id, trust_remote_code=True)

text = "The capital of France is <|mask|>."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

# To get predictions for the mask:
masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id)
predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1)
predicted_token = tokenizer.decode(predicted_token_id)
print("Predicted token:", predicted_token)
# Predicted token: Paris


πŸ“ŒΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: Apache 2.0 License.


πŸŸ‘Π‘Ρ‚Π°Ρ‚ΡŒΡ
πŸŸ‘ΠšΠΎΠ»Π»Π΅ΠΊΡ†ΠΈΡ Π½Π° HF
🟑Arxiv
πŸ–₯GitHub (Π‘ΠΊΠΎΡ€ΠΎ)


@ai_machinelearning_big_data

#AI #ML #Encoder #EuroBERT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM



tgoop.com/pro_python_code/1731
Create:
Last Update:

🌟 EuroBERT: энкодСры Π½ΠΎΠ²ΠΎΠ³ΠΎ поколСния.

Π˜ΡΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΡΠΊΠ°Ρ Π³Ρ€ΡƒΠΏΠΏΠ° ΠΏΠΎΠ΄ ΠΏΠ°Ρ‚Ρ€ΠΎΠ½Π°ΠΆΠ΅ΠΌ Centrale SupΓ©lec (УнивСрситСт ΠŸΠ°Ρ€ΠΈΠΆ-Π‘Π°ΠΊΠ»Π΅) выпустила Π² ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΉ доступ EuroBERT β€” сСмСйство ΠΌΡƒΠ»ΡŒΡ‚ΠΈΡΠ·Ρ‹Ρ‡Π½Ρ‹Ρ… энкодСров, ΠΎΠ±ΡƒΡ‡Π΅Π½Π½Ρ‹Ρ… Π½Π° 5 Ρ‚Ρ€Π»Π½. Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² ΠΈΠ· 15 языков, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ русский.

EuroBERT сочСтаСт ΠΈΠ½Π½ΠΎΠ²Π°Ρ†ΠΈΠΎΠ½Π½ΡƒΡŽ Π°Ρ€Ρ…ΠΈΡ‚Π΅ΠΊΡ‚ΡƒΡ€Ρƒ с ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΎΠΉ контСкста Π΄ΠΎ 8192 Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ², Ρ‡Ρ‚ΠΎ Π΄Π΅Π»Π°Π΅Ρ‚ это сСмСйство ΠΈΠ΄Π΅Π°Π»ΡŒΠ½Ρ‹ΠΌ для Π°Π½Π°Π»ΠΈΠ·Π° Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚ΠΎΠ², поиска ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΠΈ, классификации, рСгрСссии ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, ΠΎΡ†Π΅Π½ΠΊΠΈ качСства, ΠΎΡ†Π΅Π½ΠΊΠΈ Ρ€Π΅Π·ΡŽΠΌΠ΅ ΠΈ Π·Π°Π΄Π°Ρ‡, связанных с ΠΏΡ€ΠΎΠ³Ρ€Π°ΠΌΠΌΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ, Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ матСматичСских Π·Π°Π΄Π°Ρ‡ΠΈ.

Π’ ΠΎΡ‚Π»ΠΈΡ‡ΠΈΠ΅ ΠΎΡ‚ ΠΏΡ€Π΅Π΄ΡˆΠ΅ΡΡ‚Π²Π΅Π½Π½ΠΈΠΊΠΎΠ² (XLM-RoBERTa ΠΈ mGTE), EuroBERT объСдинил GQA, RoPE ΠΈ ΡΡ€Π΅Π΄Π½Π΅ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚ΠΈΡ‡Π½ΡƒΡŽ Π½ΠΎΡ€ΠΌΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΡŽ, Ρ‡Ρ‚ΠΎΠ±Ρ‹ Π΄ΠΎΡΡ‚ΠΈΡ‡ΡŒ бСспрСцСдСнтной эффСктивности ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ Π΄Π°ΠΆΠ΅ Π² слоТных Π·Π°Π΄Π°Ρ‡Π°Ρ…. Π’Ρ‚ΠΎΡ€ΠΎΠ΅ Π½Π΅ΠΌΠ°Π»ΠΎΠ²Π°ΠΆΠ½ΠΎΠ΅ прСимущСство EuroBERT - Π² ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΠ΅ ΠΏΠΎΠΌΠΈΠΌΠΎ тСкстовых Π΄Π°Π½Π½Ρ‹Ρ… Π±Ρ‹Π»ΠΈ Π²ΠΊΠ»ΡŽΡ‡Π΅Π½Ρ‹ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΊΠΎΠ΄Π° ΠΈ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ матСматичСских Π·Π°Π΄Π°Ρ‡.

Бамая младшая модСль EuroBERT с 210 ΠΌΠ»Π½. ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ² ΠΏΠΎΠΊΠ°Π·Π°Π»Π° Ρ€Π΅ΠΊΠΎΡ€Π΄Π½Ρ‹Π΅ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹: Π² тСстС MIRACL ΠΏΠΎ многоязычному поиску Π΅Ρ‘ Ρ‚ΠΎΡ‡Π½ΠΎΡΡ‚ΡŒ достигла 95%, Π° Π² классификации ΠΎΡ‚Π·Ρ‹Π²ΠΎΠ² (AmazonReviews) β€” 64,5%. ОсобСнно выдСляСтся ΡƒΠΌΠ΅Π½ΠΈΠ΅ Ρ€Π°Π±ΠΎΡ‚Π°Ρ‚ΡŒ с ΠΊΠΎΠ΄ΠΎΠΌ ΠΈ ΠΌΠ°Ρ‚Π΅ΠΌΠ°Ρ‚ΠΈΠΊΠΎΠΉ β€” Π² Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠ°Ρ… CodeSearchNet ΠΈ MathShepherd EuroBERT ΠΎΠΏΠ΅Ρ€Π΅ΠΆΠ°Π΅Ρ‚ Π°Π½Π°Π»ΠΎΠ³ΠΈ Π½Π° 10–15%.

▢️Бостав Ρ€Π΅Π»ΠΈΠ·Π°:

🟒EuroBERT-210М
🟒EuroBERT-610М
🟒EuroBERT-2.1Π’

⚠️ EuroBERT ΠΌΠΎΠΆΠ½ΠΎ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚ΡŒ нСпосрСдствСнно с transformers, начиная с вСрсии 4.48.0

⚠️ Для достиТСния максимальной эффСктивности, Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ Ρ€Π΅ΠΊΠΎΠΌΠ΅Π½Π΄ΡƒΡŽΡ‚ Π·Π°ΠΏΡƒΡΠΊΠ°Ρ‚ΡŒ EuroBERT с Flash Attention 2

▢️ ΠŸΡ€ΠΈΠΌΠ΅Ρ€ инфСрСнса:

from transformers import AutoTokenizer, AutoModelForMaskedLM

model_id = "EuroBERT/EuroBERT-210m"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForMaskedLM.from_pretrained(model_id, trust_remote_code=True)

text = "The capital of France is <|mask|>."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

# To get predictions for the mask:
masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id)
predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1)
predicted_token = tokenizer.decode(predicted_token_id)
print("Predicted token:", predicted_token)
# Predicted token: Paris


πŸ“ŒΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: Apache 2.0 License.


πŸŸ‘Π‘Ρ‚Π°Ρ‚ΡŒΡ
πŸŸ‘ΠšΠΎΠ»Π»Π΅ΠΊΡ†ΠΈΡ Π½Π° HF
🟑Arxiv
πŸ–₯GitHub (Π‘ΠΊΠΎΡ€ΠΎ)


@ai_machinelearning_big_data

#AI #ML #Encoder #EuroBERT

BY Python RU







Share with your friend now:
tgoop.com/pro_python_code/1731

View MORE
Open in Telegram


Telegram News

Date: |

End-to-end encryption is an important feature in messaging, as it's the first step in protecting users from surveillance. With Bitcoin down 30% in the past week, some crypto traders have taken to Telegram to β€œvoice” their feelings. Co-founder of NFT renting protocol Rentable World emiliano.eth shared the group Tuesday morning on Twitter, calling out the "degenerate" community, or crypto obsessives that engage in high-risk trading. Each account can create up to 10 public channels Those being doxxed include outgoing Chief Executive Carrie Lam Cheng Yuet-ngor, Chung and police assistant commissioner Joe Chan Tung, who heads police's cyber security and technology crime bureau.
from us


Telegram Python RU
FROM American