Я тут замерил производительность нескольких популярных лингвистических сервисов для обработки естественного языка. По ттх они все обещают чудеса, но на практике результаты часто разочаровывают. Например, при попытке классификации текстов по узкой тематике, точность падала ниже 70%, что для коммерческого использования неприемлемо. Да, NLP шагнул далеко вперед, но фундаментальные проблемы остаются. Особенно с нюансами языка, сарказмом и контекстом. Если смотреть на заявленные метрики и реальные кейсы — разрыв получается колоссальный. А вы как думаете, мы уже достигли плато в текстовом анализе, или это просто вопрос времени и вычислительных мощностей?