[PYTHON] Ich habe versucht, den Text in der Bilddatei mit Tesseract der OCR-Engine zu extrahieren

Hintergrund

Mit Tesseract konnte ich schnell Textdaten aus einer Bilddatei (Scannen von Formulardaten) extrahieren und sie als Memorandum organisieren.

1. 1. Einführung

2. Lauf

C:\Users\xxx\work>python ocr_card.py test_data_3.png
Es ist möglich, die auf dem Bild beschriebene Zeichenkette mit einem Programm zu analysieren und nur den Text als Zeichenkette zu erfassen.!Dieses Mal möchte ich eine Zeichenerkennungsmethode vorstellen, die sich als Freund verkleidet und sie betrachtet.
Die auf dem Bild beschriebene Zeichenfolge
Programmatisch und textuell analysiert

Kann als Zeichenkette erhalten werden

Ist möglich!

Diesmal ist es eine Gebühr.
Noris Wakaroku schaut nach unten, ein Satz
Ich möchte eine Zeichenerkennungsmethode einführen
Ich werde.
C:\Users\xxx\work>python ocr_card.py test_data_3_mod.png
Es ist möglich, die auf dem Bild beschriebene Zeichenkette mit einem Programm zu analysieren und nur den Text als Zeichenkette zu erfassen.!Dieses Mal möchte ich eine talentierte Methode zur Charaktererkennung einführen, die vorgibt, eine Gebühr im japanischen Stil zu sein, und sie als junge Krankheit tarnen.
Die auf dem Bild beschriebene Zeichenfolge
Programmatisch und textuell analysiert
Kann als Zeichenkette erhalten werden
Ist möglich!

Dieses Mal gab ich vor, eine japanische Medizingebühr zu sein
Noris junge Krankheit ist ein talentierter Satz
Ich möchte eine Zeichenerkennungsmethode einführen
Ich werde.

3. 3. Erwägung

Vier. Verbesserte Genauigkeit

Wie verbessern Sie die Genauigkeit?

・ Erstellen Sie Ihre eigenen Lerndaten und lassen Sie sie lernen

Die Methoden, die amateurhaft betrachtet werden können, sind wie folgt. Es ist jedoch erforderlich, das Tool (diesmal Tesseract) zu untersuchen, um festzustellen, ob dies möglich ist. (1) Bei Handschrift ⇒ Lerndaten vorbereiten und trainieren, die die Eigenschaften (Gewohnheiten) handgeschriebener Zeichen im Originalbild widerspiegeln. ・ "Tesseract 4.1 zum erneuten Erlernen handgeschriebener Zeichen mit LSTM (Zugehöriger Artikel 7.)" ・ "[23 Einträge] OCR (optische Zeichenerkennung) / Zusammenfassung des Datensatzes zur Erkennung handgeschriebener Zeichen (In Verbindung stehender Artikel 8.) ”

(2) Bereiten Sie die im Originalbild verwendete Schriftart als Trainingsdaten vor und trainieren Sie sie.

・ Sofortige Methode

Das Folgende wird in "[SikuliX] Drei Möglichkeiten zur Verbesserung der japanischen OCR-Lesegenauigkeit (zugehöriger Artikel 9.) beschrieben." Sie können eine Verbesserung der Genauigkeit erwarten, wenn Sie drei ausprobieren (glaube ich). (1) Vergrößern und lesen Sie das Bild auf eine geeignete Schriftgröße (2) Bereiten Sie ein Bild mit einer möglichst hohen Auflösung vor (3) Stellen Sie die schwarze Liste und die weiße Liste ein

In Verbindung stehender Artikel

  1. Grundlegendes zur OSS-Lizenz (Kennen Sie den Unterschied zwischen "Verwendung" und "Verwendung"?)
  2. So installieren Sie Tesseract OCR unter Windows
  3. So führen Sie OCR in Python aus
  4. [Pyocr + Tesseract OCR] Drucken einer Zeitung für Pferderennen; Verbesserung der Genauigkeit ♬
  5. Notizen von Otake Hachiya
  6. So konvertieren Sie PDF mit Python in eine Bilddatei (JPEG, PNG)
  7. Tesseract 4.1 zum erneuten Lernen handgeschriebener Zeichen mit LSTM
  8. [23 Einträge] OCR (optische Zeichenerkennung) / Zusammenfassung des Datensatzes zur Erkennung handgeschriebener Zeichen
  9. [SikuliX] 3 Möglichkeiten zur Verbesserung der OCR-Lesegenauigkeit 10.Documentation of Tesseract OCR 11.tesseract-ocr/tesseract
  10. Zeichenerkennung mit Python und Tesseract OCR
  11. Tesseract 4.1, um Japanisch mit LSTM neu zu lernen
  12. Versuchen Sie, in Shell-Buchstaben geschriebene Sätze mit OCR zu lesen
  13. Lernen mit der Zeichenerkennungs-Engine Tesseract OCR
  14. [Trainingsdaten für Tesseract mit jTessBoxEditor erstellen](https://nekodeki.com/jtessboxeditor%E3%81%A7tesseract%E3%81%AE%E5%AD%A6%E7%BF%92%E3% 83% 87% E3% 83% BC% E3% 82% BF% E3% 82% 92% E4% BD% 9C% E6% 88% 90% E3% 81% 99% E3% 82% 8B / # Tesseract)
  15. Probieren Sie eine einfache OCR mit Tesseract + PyOCR aus
  16. Verwenden von Tesseract mit PyOCR
  17. [Versuchen Sie ocr, indem Sie die Bildgröße von 10 Zeilen und 10 Spalten mit gleichmäßig verteilten Zeichen ohne Rahmen ändern (Python + Tesseract)](http://chuckischarles.hatenablog.com/entry/2018/11/ 14/000952)
  18. [Verwendung des Befehls tesseract (Tesseract OCR 4.x)](https://blog.machine-powers.net/2018/08/02/learning-tesseract-command-utility/#%E3%83%9A% E3% 83% BC% E3% 82% B8% E3% 82% BB% E3% 82% B0% E3% 83% A1% E3% 83% B3% E3% 83% 86% E3% 83% BC% E3% 82% B7% E3% 83% A7% E3% 83% B3% E3% 83% A2% E3% 83% BC% E3% 83% 89-psm)
  19. Ich habe versucht, mit der Option PSM von tesseract zu spielen
  20. Grundlegende Verwendung von Tesseract 4 in Python. So führen Sie OCR über API und CLI aus

Recommended Posts

Ich habe versucht, den Text in der Bilddatei mit Tesseract der OCR-Engine zu extrahieren
Ich habe versucht, die Trapezform des Bildes zu korrigieren
Ich habe versucht, den Bildfilter von OpenCV zu verwenden
Ich habe versucht, das Gesichtsbild mit sparse_image_warp von TensorFlow Addons zu transformieren
Ich habe versucht, die Trefferergebnisse von Hachinai mithilfe der Bildverarbeitung zu erhalten
Ich habe versucht, die Phase der Geschichte mit COTOHA zu extrahieren und zu veranschaulichen
Python Open CV hat versucht, das Bild im Text anzuzeigen.
Ich habe versucht, das Bild mithilfe von maschinellem Lernen zu komprimieren
[Python] Ich habe versucht, das Mitgliederbild der Idolgruppe mithilfe von Keras zu beurteilen
Ich habe versucht, die Entropie des Bildes mit Python zu finden
Ich habe versucht, die affine Matrix in der Bildausrichtung (Feature-Point-Matching) mithilfe der affinen Transformation zu finden
Ich habe versucht, das SD-Boot-Image von LicheePi Nano zu erstellen
Ich habe versucht, das Bild mit OpenCV im "Bleistift-Zeichenstil" zu verarbeiten
Ich habe versucht, Azure Speech to Text zu verwenden.
Ich habe versucht, Text mit TensorFlow zu klassifizieren
Ich habe versucht, die Ähnlichkeit der Frageabsicht mit Doc2Vec von gensim abzuschätzen
Ich habe versucht, die Bewegungen von Wiire-Playern automatisch mit Software zu extrahieren
Ich habe versucht, den Text des Romans "Wetterkind" mit Word Cloud zu visualisieren
Ich habe ein Programm erstellt, um die Größe einer Datei mit Python zu überprüfen
Ich habe versucht, den Höhenwert von DTM in einem Diagramm anzuzeigen
Ich habe die übliche Geschichte ausprobiert, Deep Learning zu verwenden, um den Nikkei-Durchschnitt vorherzusagen
Mit COTOHA habe ich versucht, den emotionalen Verlauf des Laufens von Meros zu verfolgen.
Ich habe versucht, die Texte von Hinatazaka 46 zu vektorisieren!
Ich habe versucht, die Verschlechterung des Lithium-Ionen-Akkus mithilfe des Qore SDK vorherzusagen
Ich habe versucht, das Update von "Hameln" mit "Beautiful Soup" und "IFTTT" zu benachrichtigen.
Ich habe versucht, die Gesichtsverdeckungsarbeit des Koordinationsbildes für das Tragen zu automatisieren
Ich habe versucht, Funktionen mit SIFT von OpenCV zu extrahieren
Ich habe versucht, Iris aus dem Kamerabild zu erkennen
Ich habe versucht, die Grundform von GPLVM zusammenzufassen
Ich habe versucht, eine CSV-Datei mit Python zu berühren
Ich habe versucht, die Sündenfunktion mit Chainer zu approximieren
Ich habe versucht, die API von Sakenowa Data Project zu verwenden
Ich habe versucht, die Spacha-Informationen von VTuber zu visualisieren
Ich habe versucht, den negativen Teil von Meros zu löschen
Ich habe versucht, die Sprache mit CNN + Melspectogram zu identifizieren
Ich habe versucht, das Wissensdiagramm mit OpenKE zu ergänzen
Ich habe versucht, die Stimmen der Sprecher zu klassifizieren
Ich habe versucht, die String-Operationen von Python zusammenzufassen
Der Hintergrund der Zeichen im Textbild ist überbelichtet, um das Lesen zu erleichtern.
Ich habe versucht, den Sieg oder die Niederlage der Premier League mit dem Qore SDK vorherzusagen
Ich habe versucht, das Update von "Werde ein Romanautor" mit "IFTTT" und "Werde ein Romanautor API" zu benachrichtigen.
Python-Übung 100 Schläge Ich habe versucht, den Entscheidungsbaum von Kapitel 5 mit graphviz zu visualisieren
Ich wollte viele Bilder sammeln, also habe ich versucht, "Google Image Download" zu verwenden.
Ich habe versucht, Objekte aus dem Bild des Steak-Sets zu sortieren
Ich habe versucht, HULFT IoT (Agent) in das Gateway Rooster von Sun Electronics zu integrieren
[Erste Datenwissenschaft ⑥] Ich habe versucht, den Marktpreis von Restaurants in Tokio zu visualisieren
Ich möchte nur Pods mit dem angegebenen Label mit Label Selector in Client-go extrahieren
[Pferderennen] Ich habe versucht, die Stärke des Rennpferdes zu quantifizieren
Ich habe versucht, die Standortinformationen des Odakyu-Busses zu erhalten
Ich habe versucht, mit TensorFlow den Durchschnitt mehrerer Spalten zu ermitteln
Ich habe versucht, das CNN-Modell von TensorFlow mit TF-Slim umzugestalten
Ich habe versucht, die Anzeigenoptimierung mithilfe des Banditenalgorithmus zu simulieren
Ich habe versucht, das Lachproblem mit Keras zu erkennen.
Ich habe versucht, den in Pandas häufig verwendeten Code zusammenzufassen
Ich habe versucht, die Zeit und die Zeit der C-Sprache zu veranschaulichen
[Python] Ich habe versucht, die folgende Beziehung von Twitter zu visualisieren