Token Filters (词元过滤器) 接受来自 tokenizer(分词器) 的 tokens 流,并且可以修改 tokens(例如小写转换),删除 tokens(例如,删除 stopwords 停用词)或添加 tokens(例如,同义词)。
Elasticsearch 提供了很多内置的 token filters(词元过滤器),可以用于构建 custom analyzers(自定义分词器)。