2017-08-03 1 views
0

Je suis nouveau à Elasticsearch et j'ai essayé d'utiliser le plugin ingest (j'ai posté quelques questions à ce sujet). Il a été suggéré que pour ce que j'essaie de faire, je devrais utiliser Fscrawler. J'utilise Elasticsearch 5.5.1 et j'ai installé Fscrawler 2.3. J'ai installé java 8.0.1 et j'ai créé une variable d'environnement 'JAVA_HOME' pointant vers le répertoire Java. Utilisation Kibana J'ai créé les éléments suivants:fscrawler donne trois erreurs javascript

PUT _ingest/pipeline/docs 
{ 
    "description": "documents", 
    "processors" : [ 
    { 
    "attachment" : { 
     "field": "data", 
     "indexed_chars" : -1 
     } 
    }] 
} 
PUT myindex 
{ 
    "mappings" : { 
    "documents" : { 
     "properties" : { 
     "attachment.data" : { 
      "type": "text", 
      "analyzer": "standard" 
     } 
     } 
    } 
    } 
} 

dans mon _settings déposer pour Fscrawler J'ai mis l'URL à mon dossier de documents et dans la section elaasticsearch J'ai inclus "index" : "myindex"

l'aide d'une commande powershell .\fscrawler mydocs --loop 1

Voici la sortie de la commande.

enter image description here

ici est mon fichier _settings.json pour fscrawler

{ 
    "name" : "docs", 
    "fs" : { 
    "url" : "w:\\Elasticsearch\\Docs", 
    "update_rate" : "15m", 
    "excludes" : [ "~*" ], 
    "json_support" : false, 
    "filename_as_id" : false, 
    "add_filesize" : true, 
    "remove_deleted" : true, 
    "add_as_inner_object" : false, 
    "store_source" : false, 
    "index_content" : true, 
    "attributes_support" : false, 
    "raw_metadata" : true, 
    "xml_support" : false, 
    "index_folders" : true, 
    "lang_detect" : false, 
    "continue_on_error" : false, 
    "pdf_ocr" : true 
    }, 
    "elasticsearch" : { 
    "nodes" : [ { 
     "host" : "127.0.0.1", 
     "port" : 9200, 
     "scheme" : "HTTP" 
    } ], 
    "index" : "myindex", 
    "bulk_size" : 100, 
    "flush_interval" : "5s", 
    "username" : "elastic", 
    "password" : "changeme" 
    }, 
    "rest" : { 
    "scheme" : "HTTP", 
    "host" : "127.0.0.1", 
    "port" : 8080, 
    "endpoint" : "fscrawler" 
    } 
} 

Répondre

0

Il est préférable de ne pas inclure des captures d'écran, mais copier et coller les journaux.

Puis:

  • Vous n'avez pas besoin de définir un pipeline ingest
  • Qu'est-ce que vos paramètres de fscrawler ressemblent?
  • Il existe un avertissement concernant une ancienne version de FSCrawler. Avez-vous utilisé 2.2 avant?
+0

J'ai placé le fichier _settings dans la question. J'ai maintenant inclus '" pipeline ":" docs "' dans la recherche élastique et maintenant powershell ne se plaint pas. Cependant, dans Kibana, en utilisant un 'GET myindex/_search', je n'obtiens aucun résultat – bilpor