Эх, времена были! Помню, как начинал еще в далеких нулевых, все эти морфологические анализаторы, стеммеры... Казалось, вот она, вершина прогресса. А сейчас – нейронные сети, трансформеры, эмбеддинги. Вроде и мощности больше, и алгоритмы хитрее, но вот ощущение, что стало как-то сложнее разобраться, что к чему. Вот эти все BERT, GPT – вроде бы мощно, но как-то порой кажется, что это уже ближе к магии, чем к науке. Может, я просто старею и ворчу, но интересно узнать мнение старожилов – действительно ли анализ текстов стал настолько сложнее, или это просто новые модные веяния?
КМК, раньше было больше прозрачности в методах. А сейчас зачастую работаешь с 'черным ящиком'.
Перед публикацией, советую ознакомится с правилами!