2016-08-24 1 views
0

J'ai des fichiers JSON qui proviennent d'une base de données ElasticSearch et j'essaie de les importer avec ElasticDump.Impossible d'importer _timestamp à partir du mappage à l'aide d'ElasticDump

C'est le fichier de mappage: "mylog.mapping.json"

[ 
"{\"mylog\":{\"mappings\":{\"search_log\":{\"_timestamp\":{\"enabled\":true,\"store\":true},\"properties\":{\"preArray\":{\"type\":\"long\"},\"preId\":{\"type\":\"string\"},\"filteredSearch\":{\"type\":\"string\"},\"hits\":{\"type\":\"long\"},\"search\":{\"type\":\"string\"},\"searchType\":{\"properties\":{\"name\":{\"type\":\"string\"}}}}}}}}" 
] 

Et le fichier contenant les données lui-même: "mylog.json"

{"_index":"mylog","_type":"search_log","_id":"AU5AcRy7dbXLQfUndnNS","_score":1,"_source":{"searchType":{"name":"TypeSearchOne"},"search":"test","filteredSearch":"test","hits":1470,"preId":"","preArray":[47752,51493,52206,50159,52182,53243,43237,51329,42772,44938,44945,44952,42773,58319,43238,48963,52856,52185,47751,61542,51327,42028,51341,45356,44853,44939,48587,42774,43063,98779,46235,53533,47745,48844,44979,53209,47738,98781,47757,44948,44950,48832,97529,52186,96033,53002,48419,44943,44955,52179]},"fields":{"_timestamp":1435600231611}} 
{"_index":"mylog","_type":"search_log","_id":"AU5AcSdcdbXLQfUndnNd","_score":1,"_source":{"searchType":{"name":"TypeSearchTwo"},"search":"squared","filteredSearch":"squared","hits":34,"preId":null,"preArray":null},"fields":{"_timestamp":1435600234333}} 
{"_index":"mylog","_type":"search_log","_id":"AU5AcSiZdbXLQfUndnNj","_score":1,"_source":{"searchType":{"name":"TypeSearchOne"},"search":"test","filteredSearch":"test","hits":1354,"preId":"","preArray":[55808,53545,53543,53651,55937,53544,54943,54942,54941]},"fields":{"_timestamp":1435600234649}} 

... 

{"_index":"mylog","_type":"search_log","_id":"AU5DSVzLdbXLQfUndnPp","_score":1,"_source":{"searchType":{"name":"TypeSearchOne"},"search":"lee","filteredSearch":"lee","hits":39,"preId":"53133","preArray":null},"fields":{"_timestamp":1435647958219}} 
{"_index":"mylog","_type":"search_log","_id":"AU5D7M42dbXLQfUndnR9","_score":1,"_source":{"searchType":{"name":"TypeSearchOne"},"search":"leerwww","filteredSearch":"leerwww","hits":39,"preId":"53133","preArray":null},"fields":{"_timestamp":1435658669622}} 

Dans mes tentatives d'importation ces données dans mon serveur ElasticSearch, j'ai essayé les commandes ElasticDump suivantes:

elasticdump --input=/home/user/Desktop/LOGDATA/mylog.mapping.json --output=http://localhost:9200/mylog --type=mapping 
elasticdump --input=/home/user/Desktop/LOGDATA/mylog.json --output=http://localhost:9200/mylog --type=data 

Après cela, les données sont av cependant, le champ _timestamp est introuvable. Si je vérifie les correspondances, ce que j'obtiens:

[email protected]:~$ curl -XGET 'localhost:9200/mylog/_mapping' 

{ 
    "mylog":{ 
     "mappings":{ 
      "search_log":{ 
       "properties":{ 
        "preArray":{"type":"long"}, 
        "preId":{"type":"string"}, 
        "filteredSearch":{"type":"string"}, 
        "hits":{"type":"long"}, 
        "search":{"type":"string"}, 
        "searchType":{"properties":{"name":{"type":"string"}}} 
       } 
      } 
     } 
    } 
} 

Comme vous pouvez le voir, le champ _timestamp est pas là, même si il a été précisé dans la cartographie. Pourquoi cela se passe-t-il et que puis-je faire pour importer les données sans perdre l'horodatage?

+0

Quelle est cette version? – pickypg

+0

@pickypg 2.3.3 pour ElasticSearch et 2.3.0 pour ElasticDump – ArthurTheLearner

Répondre

1

À partir de 2,0, _timestamp is deprecated and a special type of field known as a meta-field. Il existe toujours dans 5.0 (au moins pour l'instant), mais vous ne devriez pas en dépendre et vous devriez vous attendre à ce qu'il soit supprimé.

Comme pour les autres méta-champs, vous n'êtes pas censé pouvoir modifier ses correspondances (par exemple, en spécifiant stored: true) et vous ne pouvez pas non plus le définir comme faisant partie du document.

Qu'est-ce que vous êtes censé faire est de définir le champ comme paramètre de requête:

PUT my_index/my_type/1?timestamp=1435600231611 
{"searchType":{"name":"TypeSearchOne"},"search":"test","filteredSearch":"test","hits":1470,"preId":"","preArray":[47752,51493,52206,50159,52182,53243,43237,51329,42772,44938,44945,44952,42773,58319,43238,48963,52856,52185,47751,61542,51327,42028,51341,45356,44853,44939,48587,42774,43063,98779,46235,53533,47745,48844,44979,53209,47738,98781,47757,44948,44950,48832,97529,52186,96033,53002,48419,44943,44955,52179]} 

Je ne assez sur ElasticDump de savoir sais pas s'il est possible de le charger de faire « la bonne chose », mais il existe en fait une option supérieure ici:

Modifiez votre entrée JSON pour supprimer _timestamp et remplacez-le par un champ ordinaire nommé timestamp (ou quel que soit le nom que vous choisissez).

"mappings": { 
    "my_type": { 
    "properties": { 
     "timestamp": { 
     "type": "date" 
     }, 
     ... 
    } 
    } 
} 

Prenez note que votre entrée ElasticDump sépare _timestamp au sein fields, pas du source, de sorte que vous auriez à vous assurer que vous faites une recherche/remplacement qui les unit correctement ensemble:

},"fields":{"_timestamp" 

devrait être:

,"timestamp"