Я пытаюсь написать собственный анализатор, который разбивает токен на специальные символы и преобразует его в верхний регистр перед индексированием, и я смогу получить результат, если буду искать также и в нижнем регистре.
например, если я даю data @ source - он должен заменить @ пробелом - любой специальный символ он должен заменить пробелом и дать мне результат, такой как источник данных.
Вот как я пытался реализовать.
PUT sound
{
"settings": {
"analysis": {
"analyzer": {
"my_analyzer": {
"tokenizer": "standard",
"char_filter": [
"my_char_filter"
],
"filter": [
"uppercase"
]
}
},
"char_filter": {
"my_char_filter": {
"type": "pattern_replace",
"pattern": "(\\d+)-(?=\\d)",
"replacement": "$1 "
}
}
}
}
}
POST sound/_analyze
{
"analyzer": "my_analyzer",
"text": "data-source&abc"
}
Он хорошо разделяет жетоны, например -
{
"tokens": [
{
"token": "DATA",
"start_offset": 0,
"end_offset": 4,
"type": "<ALPHANUM>",
"position": 0
},
{
"token": "SOURCE",
"start_offset": 5,
"end_offset": 11,
"type": "<ALPHANUM>",
"position": 1
},
{
"token": "ABC",
"start_offset": 12,
"end_offset": 15,
"type": "<ALPHANUM>",
"position": 2
}
]
}
Но если я ищу здесь строчные или даже прописные буквы, это не работает .. например:
GET sound/_search?text="data"
GET sound/_search?text="data"
GET /sound/_search
{
"query": {
"match": {
"text": "data"
}
}
}
Если я буду искать по приведенным выше запросам, это не даст результата.