Notice: file_put_contents(): Write of 18302 bytes failed with errno=28 No space left on device in /var/www/tgoop/post.php on line 50
Proglib.academy | IT-курсы@proglib_academy P.2842
PROGLIB_ACADEMY Telegram 2842
🧐 Вся эволюция NLP на одной картинке

На схеме — эволюция моделей работы с текстом. Смотрим, как всё начиналось и к чему пришли.

📍Ось Контекста: чем правее — тем длиннее и сложнее связи модель способна учитывать.

📍Ось Семантического понимания: чем выше — тем лучше модель схватывает смысл.

➡️ Что умеют модели:

• n-gram — видит только ближайшие слова. Контекста почти нет, смысл — минимальный.

• Markov Models — добавляют немного памяти о предыдущих состояниях, но глобального понимания по-прежнему нет.

• RNN / LSTM — уже учитывают порядок и длинные зависимости, но быстро теряются на больших текстах.

• GPT — держит в голове огромный контекст, улавливает сложные зависимости и семантику. Поэтому его ответы и кажутся «пониманием».

🔵 Чтобы знать о машинном обучении все, забирайте наш курс «Базовые модели ML и приложения»

Proglib Academy
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1



tgoop.com/proglib_academy/2842
Create:
Last Update:

🧐 Вся эволюция NLP на одной картинке

На схеме — эволюция моделей работы с текстом. Смотрим, как всё начиналось и к чему пришли.

📍Ось Контекста: чем правее — тем длиннее и сложнее связи модель способна учитывать.

📍Ось Семантического понимания: чем выше — тем лучше модель схватывает смысл.

➡️ Что умеют модели:

• n-gram — видит только ближайшие слова. Контекста почти нет, смысл — минимальный.

• Markov Models — добавляют немного памяти о предыдущих состояниях, но глобального понимания по-прежнему нет.

• RNN / LSTM — уже учитывают порядок и длинные зависимости, но быстро теряются на больших текстах.

• GPT — держит в голове огромный контекст, улавливает сложные зависимости и семантику. Поэтому его ответы и кажутся «пониманием».

🔵 Чтобы знать о машинном обучении все, забирайте наш курс «Базовые модели ML и приложения»

Proglib Academy
#буст

BY Proglib.academy | IT-курсы




Share with your friend now:
tgoop.com/proglib_academy/2842

View MORE
Open in Telegram


Telegram News

Date: |

Step-by-step tutorial on desktop: bank east asia october 20 kowloon The administrator of a telegram group, "Suck Channel," was sentenced to six years and six months in prison for seven counts of incitement yesterday. The group also hosted discussions on committing arson, Judge Hui said, including setting roadblocks on fire, hurling petrol bombs at police stations and teaching people to make such weapons. The conversation linked to arson went on for two to three months, Hui said. While some crypto traders move toward screaming as a coping mechanism, many mental health experts have argued that “scream therapy” is pseudoscience. Scientific research or no, it obviously feels good.
from us


Telegram Proglib.academy | IT-курсы
FROM American