Telegram Group & Telegram Channel
🌟 EuroBERT: энкодСры Π½ΠΎΠ²ΠΎΠ³ΠΎ поколСния.

Π˜ΡΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΡΠΊΠ°Ρ Π³Ρ€ΡƒΠΏΠΏΠ° ΠΏΠΎΠ΄ ΠΏΠ°Ρ‚Ρ€ΠΎΠ½Π°ΠΆΠ΅ΠΌ Centrale SupΓ©lec (УнивСрситСт ΠŸΠ°Ρ€ΠΈΠΆ-Π‘Π°ΠΊΠ»Π΅) выпустила Π² ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΉ доступ EuroBERT β€” сСмСйство ΠΌΡƒΠ»ΡŒΡ‚ΠΈΡΠ·Ρ‹Ρ‡Π½Ρ‹Ρ… энкодСров, ΠΎΠ±ΡƒΡ‡Π΅Π½Π½Ρ‹Ρ… Π½Π° 5 Ρ‚Ρ€Π»Π½. Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² ΠΈΠ· 15 языков, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ русский.

EuroBERT сочСтаСт ΠΈΠ½Π½ΠΎΠ²Π°Ρ†ΠΈΠΎΠ½Π½ΡƒΡŽ Π°Ρ€Ρ…ΠΈΡ‚Π΅ΠΊΡ‚ΡƒΡ€Ρƒ с ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΎΠΉ контСкста Π΄ΠΎ 8192 Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ², Ρ‡Ρ‚ΠΎ Π΄Π΅Π»Π°Π΅Ρ‚ это сСмСйство ΠΈΠ΄Π΅Π°Π»ΡŒΠ½Ρ‹ΠΌ для Π°Π½Π°Π»ΠΈΠ·Π° Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚ΠΎΠ², поиска ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΠΈ, классификации, рСгрСссии ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, ΠΎΡ†Π΅Π½ΠΊΠΈ качСства, ΠΎΡ†Π΅Π½ΠΊΠΈ Ρ€Π΅Π·ΡŽΠΌΠ΅ ΠΈ Π·Π°Π΄Π°Ρ‡, связанных с ΠΏΡ€ΠΎΠ³Ρ€Π°ΠΌΠΌΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ, Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ матСматичСских Π·Π°Π΄Π°Ρ‡ΠΈ.

Π’ ΠΎΡ‚Π»ΠΈΡ‡ΠΈΠ΅ ΠΎΡ‚ ΠΏΡ€Π΅Π΄ΡˆΠ΅ΡΡ‚Π²Π΅Π½Π½ΠΈΠΊΠΎΠ² (XLM-RoBERTa ΠΈ mGTE), EuroBERT объСдинил GQA, RoPE ΠΈ ΡΡ€Π΅Π΄Π½Π΅ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚ΠΈΡ‡Π½ΡƒΡŽ Π½ΠΎΡ€ΠΌΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΡŽ, Ρ‡Ρ‚ΠΎΠ±Ρ‹ Π΄ΠΎΡΡ‚ΠΈΡ‡ΡŒ бСспрСцСдСнтной эффСктивности ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ Π΄Π°ΠΆΠ΅ Π² слоТных Π·Π°Π΄Π°Ρ‡Π°Ρ…. Π’Ρ‚ΠΎΡ€ΠΎΠ΅ Π½Π΅ΠΌΠ°Π»ΠΎΠ²Π°ΠΆΠ½ΠΎΠ΅ прСимущСство EuroBERT - Π² ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΠ΅ ΠΏΠΎΠΌΠΈΠΌΠΎ тСкстовых Π΄Π°Π½Π½Ρ‹Ρ… Π±Ρ‹Π»ΠΈ Π²ΠΊΠ»ΡŽΡ‡Π΅Π½Ρ‹ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΊΠΎΠ΄Π° ΠΈ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ матСматичСских Π·Π°Π΄Π°Ρ‡.

Бамая младшая модСль EuroBERT с 210 ΠΌΠ»Π½. ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ² ΠΏΠΎΠΊΠ°Π·Π°Π»Π° Ρ€Π΅ΠΊΠΎΡ€Π΄Π½Ρ‹Π΅ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹: Π² тСстС MIRACL ΠΏΠΎ многоязычному поиску Π΅Ρ‘ Ρ‚ΠΎΡ‡Π½ΠΎΡΡ‚ΡŒ достигла 95%, Π° Π² классификации ΠΎΡ‚Π·Ρ‹Π²ΠΎΠ² (AmazonReviews) β€” 64,5%. ОсобСнно выдСляСтся ΡƒΠΌΠ΅Π½ΠΈΠ΅ Ρ€Π°Π±ΠΎΡ‚Π°Ρ‚ΡŒ с ΠΊΠΎΠ΄ΠΎΠΌ ΠΈ ΠΌΠ°Ρ‚Π΅ΠΌΠ°Ρ‚ΠΈΠΊΠΎΠΉ β€” Π² Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠ°Ρ… CodeSearchNet ΠΈ MathShepherd EuroBERT ΠΎΠΏΠ΅Ρ€Π΅ΠΆΠ°Π΅Ρ‚ Π°Π½Π°Π»ΠΎΠ³ΠΈ Π½Π° 10–15%.

▢️Бостав Ρ€Π΅Π»ΠΈΠ·Π°:

🟒EuroBERT-210М
🟒EuroBERT-610М
🟒EuroBERT-2.1Π’

⚠️ EuroBERT ΠΌΠΎΠΆΠ½ΠΎ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚ΡŒ нСпосрСдствСнно с transformers, начиная с вСрсии 4.48.0

⚠️ Для достиТСния максимальной эффСктивности, Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ Ρ€Π΅ΠΊΠΎΠΌΠ΅Π½Π΄ΡƒΡŽΡ‚ Π·Π°ΠΏΡƒΡΠΊΠ°Ρ‚ΡŒ EuroBERT с Flash Attention 2

▢️ ΠŸΡ€ΠΈΠΌΠ΅Ρ€ инфСрСнса:

from transformers import AutoTokenizer, AutoModelForMaskedLM

model_id = "EuroBERT/EuroBERT-210m"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForMaskedLM.from_pretrained(model_id, trust_remote_code=True)

text = "The capital of France is <|mask|>."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

# To get predictions for the mask:
masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id)
predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1)
predicted_token = tokenizer.decode(predicted_token_id)
print("Predicted token:", predicted_token)
# Predicted token: Paris


πŸ“ŒΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: Apache 2.0 License.


πŸŸ‘Π‘Ρ‚Π°Ρ‚ΡŒΡ
πŸŸ‘ΠšΠΎΠ»Π»Π΅ΠΊΡ†ΠΈΡ Π½Π° HF
🟑Arxiv
πŸ–₯GitHub (Π‘ΠΊΠΎΡ€ΠΎ)


@ai_machinelearning_big_data

#AI #ML #Encoder #EuroBERT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ‘61πŸ”₯26❀17πŸ₯°2πŸ€“2😁1



group-telegram.com/ai_machinelearning_big_data/6987
Create:
Last Update:

🌟 EuroBERT: энкодСры Π½ΠΎΠ²ΠΎΠ³ΠΎ поколСния.

Π˜ΡΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΡΠΊΠ°Ρ Π³Ρ€ΡƒΠΏΠΏΠ° ΠΏΠΎΠ΄ ΠΏΠ°Ρ‚Ρ€ΠΎΠ½Π°ΠΆΠ΅ΠΌ Centrale SupΓ©lec (УнивСрситСт ΠŸΠ°Ρ€ΠΈΠΆ-Π‘Π°ΠΊΠ»Π΅) выпустила Π² ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΉ доступ EuroBERT β€” сСмСйство ΠΌΡƒΠ»ΡŒΡ‚ΠΈΡΠ·Ρ‹Ρ‡Π½Ρ‹Ρ… энкодСров, ΠΎΠ±ΡƒΡ‡Π΅Π½Π½Ρ‹Ρ… Π½Π° 5 Ρ‚Ρ€Π»Π½. Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² ΠΈΠ· 15 языков, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ русский.

EuroBERT сочСтаСт ΠΈΠ½Π½ΠΎΠ²Π°Ρ†ΠΈΠΎΠ½Π½ΡƒΡŽ Π°Ρ€Ρ…ΠΈΡ‚Π΅ΠΊΡ‚ΡƒΡ€Ρƒ с ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΎΠΉ контСкста Π΄ΠΎ 8192 Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ², Ρ‡Ρ‚ΠΎ Π΄Π΅Π»Π°Π΅Ρ‚ это сСмСйство ΠΈΠ΄Π΅Π°Π»ΡŒΠ½Ρ‹ΠΌ для Π°Π½Π°Π»ΠΈΠ·Π° Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚ΠΎΠ², поиска ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΠΈ, классификации, рСгрСссии ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, ΠΎΡ†Π΅Π½ΠΊΠΈ качСства, ΠΎΡ†Π΅Π½ΠΊΠΈ Ρ€Π΅Π·ΡŽΠΌΠ΅ ΠΈ Π·Π°Π΄Π°Ρ‡, связанных с ΠΏΡ€ΠΎΠ³Ρ€Π°ΠΌΠΌΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ, Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ матСматичСских Π·Π°Π΄Π°Ρ‡ΠΈ.

Π’ ΠΎΡ‚Π»ΠΈΡ‡ΠΈΠ΅ ΠΎΡ‚ ΠΏΡ€Π΅Π΄ΡˆΠ΅ΡΡ‚Π²Π΅Π½Π½ΠΈΠΊΠΎΠ² (XLM-RoBERTa ΠΈ mGTE), EuroBERT объСдинил GQA, RoPE ΠΈ ΡΡ€Π΅Π΄Π½Π΅ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚ΠΈΡ‡Π½ΡƒΡŽ Π½ΠΎΡ€ΠΌΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΡŽ, Ρ‡Ρ‚ΠΎΠ±Ρ‹ Π΄ΠΎΡΡ‚ΠΈΡ‡ΡŒ бСспрСцСдСнтной эффСктивности ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ Π΄Π°ΠΆΠ΅ Π² слоТных Π·Π°Π΄Π°Ρ‡Π°Ρ…. Π’Ρ‚ΠΎΡ€ΠΎΠ΅ Π½Π΅ΠΌΠ°Π»ΠΎΠ²Π°ΠΆΠ½ΠΎΠ΅ прСимущСство EuroBERT - Π² ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΠ΅ ΠΏΠΎΠΌΠΈΠΌΠΎ тСкстовых Π΄Π°Π½Π½Ρ‹Ρ… Π±Ρ‹Π»ΠΈ Π²ΠΊΠ»ΡŽΡ‡Π΅Π½Ρ‹ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΊΠΎΠ΄Π° ΠΈ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ матСматичСских Π·Π°Π΄Π°Ρ‡.

Бамая младшая модСль EuroBERT с 210 ΠΌΠ»Π½. ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ² ΠΏΠΎΠΊΠ°Π·Π°Π»Π° Ρ€Π΅ΠΊΠΎΡ€Π΄Π½Ρ‹Π΅ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹: Π² тСстС MIRACL ΠΏΠΎ многоязычному поиску Π΅Ρ‘ Ρ‚ΠΎΡ‡Π½ΠΎΡΡ‚ΡŒ достигла 95%, Π° Π² классификации ΠΎΡ‚Π·Ρ‹Π²ΠΎΠ² (AmazonReviews) β€” 64,5%. ОсобСнно выдСляСтся ΡƒΠΌΠ΅Π½ΠΈΠ΅ Ρ€Π°Π±ΠΎΡ‚Π°Ρ‚ΡŒ с ΠΊΠΎΠ΄ΠΎΠΌ ΠΈ ΠΌΠ°Ρ‚Π΅ΠΌΠ°Ρ‚ΠΈΠΊΠΎΠΉ β€” Π² Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠ°Ρ… CodeSearchNet ΠΈ MathShepherd EuroBERT ΠΎΠΏΠ΅Ρ€Π΅ΠΆΠ°Π΅Ρ‚ Π°Π½Π°Π»ΠΎΠ³ΠΈ Π½Π° 10–15%.

▢️Бостав Ρ€Π΅Π»ΠΈΠ·Π°:

🟒EuroBERT-210М
🟒EuroBERT-610М
🟒EuroBERT-2.1Π’

⚠️ EuroBERT ΠΌΠΎΠΆΠ½ΠΎ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚ΡŒ нСпосрСдствСнно с transformers, начиная с вСрсии 4.48.0

⚠️ Для достиТСния максимальной эффСктивности, Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ Ρ€Π΅ΠΊΠΎΠΌΠ΅Π½Π΄ΡƒΡŽΡ‚ Π·Π°ΠΏΡƒΡΠΊΠ°Ρ‚ΡŒ EuroBERT с Flash Attention 2

▢️ ΠŸΡ€ΠΈΠΌΠ΅Ρ€ инфСрСнса:

from transformers import AutoTokenizer, AutoModelForMaskedLM

model_id = "EuroBERT/EuroBERT-210m"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForMaskedLM.from_pretrained(model_id, trust_remote_code=True)

text = "The capital of France is <|mask|>."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

# To get predictions for the mask:
masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id)
predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1)
predicted_token = tokenizer.decode(predicted_token_id)
print("Predicted token:", predicted_token)
# Predicted token: Paris


πŸ“ŒΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: Apache 2.0 License.


πŸŸ‘Π‘Ρ‚Π°Ρ‚ΡŒΡ
πŸŸ‘ΠšΠΎΠ»Π»Π΅ΠΊΡ†ΠΈΡ Π½Π° HF
🟑Arxiv
πŸ–₯GitHub (Π‘ΠΊΠΎΡ€ΠΎ)


@ai_machinelearning_big_data

#AI #ML #Encoder #EuroBERT

BY Machinelearning







Share with your friend now:
group-telegram.com/ai_machinelearning_big_data/6987

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"This time we received the coordinates of enemy vehicles marked 'V' in Kyiv region," it added. Anastasia Vlasova/Getty Images For Oleksandra Tsekhanovska, head of the Hybrid Warfare Analytical Group at the Kyiv-based Ukraine Crisis Media Center, the effects are both near- and far-reaching. NEWS Individual messages can be fully encrypted. But the user has to turn on that function. It's not automatic, as it is on Signal and WhatsApp.
from us


Telegram Machinelearning
FROM American