elasticsearch
nori tokenizer에서 불용어 제거
nori에서 기본적으로 검색할 때 "조사", "어미", "감탄사" 등 검색에 불필요한 단어도 모두 형태소 분석이 된다. 형태소 분석이 불필요한 불용어를 설정해보자. "사랑하다"를 nori로 형태소 분석을 해보자. POST _analyze { "tokenizer": "nori_tokenizer", "text": "사랑하다" } 결과 { "tokens" : [ { "token" : "사랑", "start_offset" : 0, "end_offset" : 2, "type" : "word", "position" : 0 }, { "token" : "하", "start_offset" : 2, "end_offset" : 3, "type" : "word", "position" : 1 }, { "token" : "다",..
2022. 12. 23. 07:01