Debugging method of camera

Debugging-Methode der Kamera

27. Juli 2021

Debugging-Methode der Kamera
Im eingebetteten System der Bildverarbeitung wird es aufgrund der Verarbeitung und Analyse mit maschinellem Sehen schwieriger, die Kamera des Bilderzeugungswerkzeugs zu debuggen.

Visuelle Einführung
Maschinelles Sehen bedeutet, Maschinen anstelle von menschlichen Augen zu verwenden, um die äußere Umgebung wahrzunehmen und Messungen und Urteile vorzunehmen. Das erfasste Ziel wird durch eine Bildverarbeitungsvorrichtung (d. h. eine Bilderfassungsvorrichtung, unterteilt in CMOS und CCD) in ein Bildsignal umgewandelt, das an ein dediziertes Bildverarbeitungssystem übertragen und in ein digitales Signal gemäß der Pixelverteilung, Helligkeit, Farbe und anderen Informationen umgewandelt wird; Bildsystem Führen Sie verschiedene Operationen mit diesen Signalen durch, um die Eigenschaften des Ziels zu extrahieren, und steuern Sie dann die Aktionen des Geräts vor Ort entsprechend den Ergebnissen der Unterscheidung. In einigen Systemen, die hohe Echtzeitaktionen des Systems erfordern, können menschliche Reaktionsgeschwindigkeit und Informationsverarbeitungsfähigkeiten die Anforderungen nicht erfüllen, und maschinelles Sehen ist einfach, um eine Informationsintegration zu erreichen, und die Kombination von Computersteuerungssystemen kann die Automatisierung des Systems verbessern.

Zweck des Debuggens
Der Zweck des Kamera-Debuggings in eingebetteten Systemen besteht darin, die mechanischen und elektrischen Parameter der Kamera in die Lage zu versetzen, Bilddaten von höchster Qualität unter den Systemanforderungen zu erzeugen. Bei einem Bildgebungssystem, das Hardware und Software umfasst, wird die Qualität der Bildgebung oft von vielen Faktoren durch äußere Störungen und eigene Einschränkungen beeinflusst. Diese Effekte führen zu Rauschen und ungleichmäßiger Abbildung. Faktoren aus der Software-Ebene sind oft algorithmische Probleme. Probleme auf dieser Ebene können durch theoretische Analysen und mathematische Berechnungen gelöst werden. Faktoren aus der Hardware-Ebene müssen mit Instrumenten debuggt werden und können durch experimentelle Messungen und Analysen gelöst werden. Da die unterste Schicht des Hardware-Verarbeitungssystems Daher wirkt sich die Qualität der Hardware direkt auf die Qualität der Software aus, wodurch die endgültige Bildqualität beeinflusst wird. Das Debuggen der Kamera dient dazu, Interferenzen auf Hardwareebene so weit wie möglich zu eliminieren.

Debugging-Methode
Da es sich bei dem Embedded-System um ein relativ weit gefasstes Konzept handelt, wird in diesem Artikel der HCS12 als Hauptsteuerchip verwendet, um den Kameragruppenwagen als Beispiel für die Einführung in die Debugging-Methode zu debuggen.

(1) Schließen Sie den externen Stromkreis an das CRT-Display an

Führen Sie die drei Strom-, Masse- und Signalleitungen der analogen Kamera heraus, um die Kamera mit Strom zu versorgen, und schließen Sie dann die Videosignalleitung an die Videoeingangsschnittstelle der TV-Box an. Der VGA-OUT der TV-Box wird mit dem CRT-Display verbunden, so dass der CRT die digitalisierte Kamerasicht darstellen kann. Bei dieser Methode handelt es sich um eine vollständige Anzeige auf Hardware-Ebene, die einen Anzeigeeffekt bietet, der genau dem menschlichen Sehen entspricht, was bei der Installation der Kamera und der Korrektur ihrer eigenen physikalischen Parameter eine große Hilfe ist.

(2) Verlängern Sie den LCD-Flüssigkristall außerhalb des Chips

Die MCU der HCS12-Serie enthält eine serielle Peripherieschnittstelle SPI (Serial Peripheral Interface), die eine Datenübertragung zwischen MCUs realisieren kann, und ihre Geschwindigkeit ist schneller als bei serieller asynchroner Kommunikation (SCI). Das SPI-Modul unterstützt auch die bidirektionale, synchrone und serielle Kommunikation zwischen der MCU und den Peripheriegeräten und realisiert die Erweiterung der Peripheriegeräte der MCU.

1. Wenn das System läuft, werden die angezeigten Zeichen in Zeichenform zu den relevanten Betriebsparametern des Systems abgefragt. Jedes Zeichen belegt 8*6 Punkte und benötigt 6 Byte Daten. Um die Zeichendarstellung zu vervollständigen, müssen Sie nur die entsprechenden Daten an die angegebene Stelle in der Programmierung schreiben. Da das Flüssigkristallmodul selbst über keine Schriftbibliothek verfügt, müssen für die Flüssigkristallanzeige Punktmatrixdaten von ASCII-Tabellenzeichen definiert werden, d.h. ein zweidimensionales Array mit einer Größe von N*6 Bytes.

2. Zeigen Sie das Bild an Nachdem das von der analogen Kamera gesammelte Videosignal durch die A/D der MCU digitalisiert wurde, werden die Informationen in einem zweidimensionalen 40 * 70-Array gespeichert, und dann wird das Array binarisiert und kann in einem LCD-Modul mit einer Auflösung von 48 * 84 angezeigt werden, sodass Entwickler die maschinelle Bildverarbeitung der Kamera in Echtzeit beobachten können.

Bei dieser Methode handelt es sich um eine Anzeigemethode, die Hardware und Software kombiniert, die kamerabezogene Informationen in Echtzeit verfolgen und anzeigen kann, ohne den Systembetriebsprozess während der Anzeige zu unterbrechen.

(3) Selbstgeschriebene Host-Computer-Software für serielle Kommunikation

Das SCI-Modul der MCU wird verwendet, um die Bilddaten an den PC zu senden, und der obere Computer verwendet die MSCOMM-Steuerprogrammierung, um die Kommunikationsdaten zu lesen. Nach dem Lesen der Daten können Sie die leistungsstarken Datenverarbeitungs- und Bildanzeigefunktionen des Windows-Programms verwenden, um die Bilddaten zu verarbeiten, z. B. das Bild entsprechend den Daten neu zu zeichnen, das Array zu filtern und den Filtereffekt anzuzeigen und das empfangende Array als Datei zu exportieren Bereitstellen von Datenquellen für Computersimulationen.

Diese Methode ist eine vollständige Software-Anzeigemethode, nur um die Daten von der MCU zu empfangen, kann eine Reihe von Verarbeitungen auf dem PC realisiert werden, und sie hat Vorteile, die andere Methoden nicht mit der Inspektion von Grafiktransformationseffekten, den Vor- und Nachteilen der Filteranalyse und der Idee der Datensimulation vergleichen können. .

Vor- und Nachteile im Vergleich
1. CRT-Modulationsverfahren. Durch die Verbindung mit dem Videosignal der Kamera kann CRT die industrielle Bildverarbeitung mit hoher Wiedergabetreue anzeigen. Aber es kann nur auf den Kameraparametertest und die mechanische Positionseinstellung der Kamera beschränkt werden, und es hat nichts mit dem digitalen Signal des fortgeschrittenen Punktes zu tun.

2. LCD-Debugging-Methode. Er wird zur Datenübertragung direkt an den SPI-Port des Single-Chip-Mikrocomputers angeschlossen, der das Displaybild in Echtzeit aktualisieren kann. Dieses Modul kann direkt auf dem System montiert werden, um systembezogene Informationen in Echtzeit anzuzeigen. Aufgrund der begrenzten Auflösung des Moduls können jedoch nur Schwarz-Weiß-Binärwerte angezeigt werden, was zu Verzerrungen digitaler Bilder führt.

3. Serielle Debugging-Methode. Es kann die leistungsstarken Datenverarbeitungs- und Bilddarstellungsfunktionen des PCs voll ausnutzen, die hochpräzise Pixeldarstellung digitaler Bilder realisieren und die Grauwerttabelle exportieren, um Felddaten für VC- und MATLAB-Simulationen bereitzustellen. Die Datenübertragungsgeschwindigkeit zwischen PC und MCU ist jedoch zu langsam, es fehlt an Echtzeitleistung und es fehlen die Vorteile des dynamischen Trackings.
 
');
Sony Auto-Shutter-Kameras
Inquire Now
*
*
*
*
Jetzt anfragen