在创建机器学习模型时,为了提高其质量,通常会使用各种预处理技术 - 标记化、停用词、词形还原等。此外,像 spaCy 这样的现代工具可以提供深入分析的机会,深入到词根,例如,对于单词“Cat”,它可以建议词根“Cat”,而不是“Window”(这将是字母-按字母更接近单词 cat)。
我的问题是,如果我为文本多类分类创建了一个经过大量预处理的机器学习模型,那么在使用该模型时是否需要进行相同的预处理才能使该模型正常工作?
让我举个例子。让我们开发一个模型,根据评论文本将其分配到不同的类别。假设预处理后的部分训练样本如下所示:
Сэмпл | Класс
猫毛灰|动物。猫
在这种情况下,显然假设用户会写这样的评论:“我的猫有这么灰色的皮毛,这真是一个奇迹!”我的假设如下:如果我们首先通过相同的预处理管道运行此用户请求,然后将其传递到现成的机器学习模型的输入,那么我们收到的不是编写的短语,而是“灰色羊毛奇迹” cat,”这不会导致模型质量的提高吗?