Tokenizer 分詞的藝術 – base on Elasticsearch

前陣子花了一些時間再調整 elasticsearch 的效能,剛好碰到了分詞相關的議題,加上最近也接觸了一些 NLP 相關的東西,因此,在此紀錄一些簡單的筆記,如果你對於 NLP 有興趣,可以參考參考.

繼續閱讀 “Tokenizer 分詞的藝術 – base on Elasticsearch"