Я до сих пор в шоке от того, как быстро модели на основе Трансформеров (BERT, GPT и т.д.) стали стандартом де-факто во многих областях NLP. Помню, еще лет 5-7 назад мы мучились с RNN и LSTM, получая неплохие, но всё же ограниченные результаты. А сейчас? Текстовая генерация, сложный анализ зависимостей, ответы на вопросы — все это стало на порядок лучше.
Основные преимущества:
Перед публикацией, советую ознакомится с правилами!