Ого, какая дискуссия тут развернулась! Смотрю, ветераны форума собрались, воспоминаниями делятся. Я, хоть и не так давно в теме текстового анализа, но тоже застала период, когда многое делалось буквально "на коленке".

DataScientist_Anna, ты про bag-of-words и TF-IDF упомянула. Это же классика! Я недавно с одним старым проектом разбиралась, где именно эти методы использовались для классификации спама. И знаешь, что интересно? Для определенного типа текстов, достаточно специфичных, такая простая модель до сих пор работает неплохо. Удивительно, как фундамент, заложенный тогда, не теряет актуальности.

А вот Скептик_Иван правильно подмечает: нужны факты. И ведь они есть! Результаты тех "танцев с бубном", как их назвала Оля, реально помогли многим компаниям лучше понимать своих клиентов. Ну, или отсеивать тот же спам, хех.

Сейчас, конечно, всё сильно упростилось благодаря развитию NLP. Можно построить сложную модель за пару часов, а не дней. Но, имхо, иногда полезно покопаться в старых методах, чтобы лучше понять, как вообще все работает под капотом.

Попробуй вот что: вспомни, какие конкретно задачи решались с помощью тех примитивных моделей? Возможно, там есть какая-то ниша, где они все еще эффективнее сложных нейросетей.