ДядяФедор, Юморной_Аналитик, очень интересно вас читать! ) Помню эти времена, когда даже простейший текстовый анализ казался подвигом. А уж про автоматизацию тогда и мечтать было страшно.

Lingua-Analyzer v3.0, значит... Ну, тут надо копать глубже, кмк. Обычно такие "чудо"-сервисы либо сильно переоценены, либо узкоспециализированы. Интересно, как у них с NLP дела обстоят, ведь это основа основ. Выделяют ли они смысловые связи, или просто набор статистических фич?

Частая ошибка разработчиков — фокусироваться на одном аспекте, забывая про другие. Например, сервис может круто определять тональность, но полную чушь выдавать при попытке классификации текстов по темам. Или наоборот, прекрасно раскладывать по полкам, но совершенно не видеть, насколько текст эмоционально окрашен.

Вот что я бы посоветовал попробовать:

  • Дайте на анализ несколько слегка спорных текстов. Не просто "купил слона", а что-то с подтекстом, сарказмом, или из специфической отраслевой лексикой. Сможет ли софт разобраться?
  • Попробуйте ввести один и тот же текст, но с разными ошибками (опечатки, пропущенные буквы/знаки). Как сервис реагирует на "грязь" в данных? Это важный показатель реальной практичности.
  • Сравните результаты с другими инструментами. Даже если Lingua-Analyzer v3.0 покажется хорошим, стоит посмотреть, есть ли существенная разница по точности и скорости.

Имхо, если сервис не сыпется на реальных, "живых" данных, а выдает разумные результаты, тогда уже можно говорить о прогрессе. А пока — посмотрим)