J'utilise le Tesseract OCR pour une application que j'écris. Je veux juste reconnaître le texte sur certaines zones à partir d'une image que je reçois de temps en temps. Les appels de base fonctionnent pour l'instantUtilisation avancée de Tesseract OCR
tesseract::TessBaseAPI api;
api.SetPageSegMode(tesseract::PSM_AUTO); // Segmentation on auto
api.Init("/usr/local/share/","eng"); // path = parent directory of tessdata
pFile = fopen("home/myname/test.bmp","r"); // Open picture
PIX* image; // Image format from leptonica
image = pixReadStreamBmp(pFile);
fclose(pFile);
api.SetImage(image); // Run the OCR
char* textOutput = new char[512];
textOutput =api.GetUTF8Text(); // Get the text
Jusqu'à présent, ce code fonctionne très bien. Mais à un moment donné, l'OCR n'est pas aussi précis que je le souhaiterais. En fait, je ne veux pas former une nouvelle langue pour mon but, donc je voulais savoir s'il y avait une possibilité d'augmenter la précision sur certains appels API? Peut-être quelques suggestions ici! Cordialement
Tobias
Si vous voulez plus de précision, vous pouvez passer l'image de seuil OTSU dans pixeRead(). Je passe l'image normale dans pixRead() en ce moment. transmettre l'image de seuil OTSU. J'ai développé un algorithme pour cela. . laissez-moi savoir si quelqu'un veut. –