Kenntnisse im Bereich der Optik in Kamera-Modulen (1)

September 8, 2023

Neueste Unternehmensnachrichten über Kenntnisse im Bereich der Optik in Kamera-Modulen (1)

Zuerst, lassen Sie uns kurz verstehen, das Konzept der Kamera-Modul wir werden über sprechen.ist ein wichtiges elektronisches Gerät zur Aufnahme von Bildern.

1. TCP (korrelierte Farbtemperatur)


Correlated color temperature is the temperature of a complete radiator (blackbody) when the chromaticity of a certain light source (gas discharge light source) is closest to the chromaticity of a complete radiator (blackbody) at a certain temperatureDas Symbol ist Tcp, und die Einheit ist Kelvin (K).

2. TCP (Farbtemperatur)


Die Farbtemperatur ist eine Maßeinheit, die die Farbkomponenten des Lichts darstellt.die Temperatur eines Schwarzkörpers bezieht sich auf die Farbe eines absoluten Schwarzkörpers, wenn er von absolutem Nullpunkt (-273°C) erhitzt wirdNachdem er erhitzt wurde, verändert sich ein schwarzer Körper allmählich von schwarz zu rot, zu gelb, zu weiß und emittiert schließlich blaues Licht.Die Spektralkomponente des vom schwarzen Körper emittierten Lichts wird die Farbtemperatur bei dieser Temperatur genannt, wobei die Maßeinheit "K" (Kelvin) ist.
Wenn das von einer bestimmten Lichtquelle emittierte Licht die gleiche Spektralkomponente hat wie das von einem schwarzen Körper bei einer bestimmten Temperatur emittierte Licht, wird es eine bestimmte K-Farbtemperatur genannt.die Farbe des von einer 100W-Glühlampe emittierten Lichts ist bei 2527°C die Farbe eines absoluten SchwarzkörpersDann ist die Farbtemperatur des von dieser Glühbirne emittierten Lichts: (2527+273) K = 2800K.

Tatsächlich gibt es keinen Unterschied zwischen den beiden oben genannten Bedeutungen von TCP. Sie werden im Allgemeinen als Farbtemperatur bezeichnet.

3. MTF (Modulationsübertragungsfunktion)


Modulationsübertragungsfunktion ist eine wissenschaftlichere Methode zur Analyse der Auflösung einer Linse.Einige Bilder können nicht durch Standardisierung gemessen werden, also ist MTF nur ein Referenzwert.
Diese Methode zur Messung der optischen Frequenz wird gemessen, wie viele Linien innerhalb eines mm-Bereichs erscheinen können, und ihre Einheit wird in Linien/mm ausgedrückt.Wenn eine Linse also den Punkt erreicht, wo das, was hineingeht, das ist, was herauskommt.Da die Linsen jedoch häufig von vielen Faktoren geprägt sind, ist es unmöglich, eine solche ideale Linse zu haben.

neueste Unternehmensnachrichten über Kenntnisse im Bereich der Optik in Kamera-Modulen (1)  0

MTF-Abschnitt (MTF-Abschnittfrequenz): OQAS-Parameter, der anzeigt, dass die MTF-Kurve des menschlichen Auges die Auflösungsgrenze erreicht, wenn die räumliche Frequenz diesen Frequenzwert erreicht, d. h.der MTF-Wert neigt zu Null.
Bei normalen Menschen 30°C, je höher der Wert, desto besser die Bildqualität.

 

4. SFR (Raumfrequenzantwort)
Es gibt viele Einheiten (5) der räumlichen Frequenz, darunter Zyklen/Pixel (Zyklen pro Pixel) ist das Bildgebungssystem in Digitalkameras.
SFR ist die Abkürzung für Spatial Frequency Response (Spatial Frequency Response), die sich auf die Amplitudenreaktion eines Systems im Verhältnis zur Eingabe-Raumfrequenz bezieht.Die SFR ist der MTF (Modulationsübertragungsfunktion) traditioneller optischer Systeme ähnlich.), kann die Auflösungsfähigkeit des Systems intuitiv ermittelt werden.
Die einschlägigen Definitionen und Prüfmethoden von SFR wurden von der Internationalen Normungsorganisation (ISO) formuliert und standardisiert.
Was ist eine räumliche Frequenz?
Die allgemeine Frequenz in unserem täglichen Leben bezieht sich auf die Zeitfrequenz, ihre Einheit ist Hz, und ihre Definition ist die Anzahl der Bewegungen pro Zeiteinheit.
[Offizielle Definition: 1. Die Anzahl der Vibrations- oder Schwingungszeiten oder -wochen, die pro Zeiteinheit durchgeführt werden; 2.Die Anzahl der Male, in denen etwas geschieht, oder die Anzahl der Male, in denen ein Prozess innerhalb eines bestimmten Zeitraums abgeschlossen wird]
Die Dividende hier ist die Einheit, also die Zeitfrequenz.
Aber was ist, wenn wir die Einheit der Dividende in die räumliche Einheit Millimeter ändern?
[Offizielle Erklärung: Bei der Ausdrucksweise der räumlichen Frequenz wird üblicherweise "Linienpaare pro Millimeter" (LP/mm) verwendet, d. h. die Anzahl der Linienpaare pro Millimeter Breite.]
[Es kann auch so ausgedrückt werden: Die Einheit der Raumfrequenz ist im Allgemeinen

Linienpaare pro Millimeter (lp/mm),
Zyklen pro Millimeter (Zyklen/mm)
Zyklen pro Pixel (Zyklen pro Pixel),
Zeilenbreiten pro Bildhöhe (LW/PH Zeilenbreiten pro Bildhöhe),
Linienpaar pro Bildhöhe (lp/ph). ]
Unter ihnen ist lp/mm die derzeit am häufigsten verwendete Einheit. Zyklen/Pixel ist das Bildgebungssystem in Digitalkameras. Das nächste Pixel einer Digitalkamera ist 1 Zyklen/Pixel, zwei Pixel sind 0.5 Zyklen pro Pixel, und vier Pixel sind 0,25 Zyklen pro Pixel.
Was sind also MTF und SFR, oder was sind die Funktionen von MTF und SFR?
Die Auflösung der Kamera besteht darin, die Wirkung der Kamera zu analysieren, die Bilder verschiedener räumlicher Frequenzen aufnimmt.je höher die Auflösung.
MTF (Modulationsübertragungsfunktion):
Wie berechnet man die Modulationsübertragungsfunktion einer Kamera: (Es ist eine Funktion zu erhalten, die auf der Analyse des Bildgebungseffekts (MTF-Wert) derselben Kamera bei verschiedenen räumlichen Frequenzen basiert)
Die Berechnung der MTF besteht darin, den Kontrast zwischen den hellsten und dunkelsten Linienpaaren zu berechnen.und liest seine hellsten und dunkelsten Werte)
Die Berechnungsformel lautet:
MTF = (maximale Helligkeit - minimale Helligkeit) / (maximale Helligkeit + minimale Helligkeit)
Der erhaltene MTF-Wert ist die Auflösungskraft der Kamera bei der Raumfrequenz A.--- Mehrere MTF-Werte bei verschiedenen Raumfrequenzen bilden eine Reihe von Kurven, um die MTF-Kurve der Kamera zu erhalten.
Nach mathematischer Bearbeitung kann die MTF-Funktion (Modulationsübertragungsfunktion) der Kamera ermittelt werden

In diesem Fall müssen wir die Reaktionswerte bei verschiedenen räumlichen Frequenzen berechnen, um die MTF zu berechnen.
Dann wurde SFR (spatial frequency response) eingeführt.

SFR (Raumfrequenzreaktion):
Gemäß mathematischer theoretischer Ableitung fanden die Leute heraus, dass nur eine schwarz-weiße Hypotenuse (Messerkante) in eine MTF umgewandelt werden kann, die ungefähr allen räumlichen Frequenzen entspricht.

 

5. EV (auch Beleuchtung genannt)
EV ist die Abkürzung für Exposure Values in Englisch. Es ist eine Menge, die die Menge der Exposition widerspiegelt.der Blendenkoeffizient ist F1, und die Belichtungszeit beträgt 1 Sekunde, wird der Belichtungswert als 0 festgelegt und der Belichtungswert um einen reduziert. Stopp (die Verschlusszeit um die Hälfte oder die Blende um einen Stopp reduziert),EV+1Die Belichtung wird um einen Stopp erhöht (die Verschlusszeit verdoppelt oder die Blende um einen Stopp erhöht), EV-1.
Wirkung
Spiegelreflexkameras oder Gleichstrahlkameras verfügen über automatische Belichtungsfunktionen, die die Lichtstärke der Aufnahmeumgebung durch ihre eigenen Messsysteme genau erfassen.Dies berechnet automatisch die richtige Blende + Verschlusszeit KombinationAuf diese Weise wird das Foto richtig ausgesetzt.
Bei bestimmten besonderen Licht- und Schattenbedingungen (z. B. bei Hintergrundbeleuchtung) kann das Messsystem jedoch keine korrekte Messung des Objekts durchführen.so dass das Foto nicht ordnungsgemäß ausgesetzt werden kannIn diesem Fall müssen wir +/-EV auf der Grundlage unserer Erfahrungen durchführen und künstlich in das automatische Belichtungssystem der Kamera eingreifen.

 

6. AWB (automatische Weißbilanz)
Der automatische Weißabgleich ist ein sehr wichtiges Konzept im Bereich der Fernsehfotografie, durch das er eine Reihe von Problemen bei der Farbwiedergabe und Tonverarbeitung lösen kann.
Bei der Aufnahme mit digitalen Kameras werden viele Menschen auf solche Probleme stoßen: Die Bilder, die mit Leuchtstofflichtern im Raum aufgenommen werden, erscheinen grünlich,Die Szenen, die unter Wolframbeleuchtung in Innenräumen gedreht werden, werden gelblich sein.Die Bilder, die ich erhielt, sind unerklärlich blau, und der Grund liegt in der "Weißbalance".
Automatisches Weißabgleich ist in der Regel die Standardeinstellung von Digitalkameras.die den Referenzpunkt der Weißabgewinnung auf dem Bild bestimmen kannDie Genauigkeit dieses automatischen Weißabgleichs ist sehr hoch, aber der Effekt ist bei Schießen bei schlechten Lichtverhältnissen, wie beispielsweise bei bewölktem Wetter, gering.die Wirkung vieler automatischer Weißabgleichsysteme ist extrem gering, kann es einen blaulichen Verguss verursachen.

 

7. ISO-Standards (Internationale Organisation für Normung)
ISO-Standards beziehen sich auf Standards, die von der Internationalen Organisation für Normung (ISO) formuliert wurden.Die Internationale Organisation für Normung ist eine weltweite Föderation nationaler Normungseinrichtungen mit 140 Mitgliedsländern.Gemäß der Satzung der Organisation kann jedes Land nur eine der repräsentativsten Normungsgruppen als Mitglied haben.Die ehemalige staatliche Behörde für Qualität und technische Aufsicht Chinas beteiligt sich im Namen der CSBTS an ISO-Aktivitäten..

 

8. ISO (Empfindlichkeit)

Die Empfindlichkeit, auch ISO-Wert genannt, ist ein Maß für die Lichtempfindlichkeit eines Films.Es wurde kürzlich von der Internationalen Organisation für Normung standardisiert.Für weniger empfindliche Filme ist eine längere Belichtungszeit erforderlich, um das gleiche Bild wie ein empfindlicherer Film zu erzielen, weshalb er oft als langsamer Film bezeichnet wird.Hochempfindliche Filme werden daher als schnelle Filme bezeichnet.Bei digitaler oder Filmfotografie führt die Verwendung einer höheren Empfindlichkeit zur Verkürzung der Belichtungszeit in der Regel zu einer geringeren Bildqualität (aufgrund eines gröberen Filmkorns oder eines höheren Bildrausches oder anderer Faktoren).

 

9. Lichtstärke
Lichtintensität ist ein physikalischer Begriff, der sich auf den Lichtfluss des sichtbaren Lichts bezieht, der pro Flächeneinheit empfangen wird.Eine Größe, die zur Angabe der Lichtstärke und des Ausmaßes der Beleuchtung der Oberfläche eines Objekts verwendet wird.
Die Lichtintensität hat einen großen Einfluss auf die Photosynthese von Organismen. Sie kann mit einem Lichtzähler gemessen werden.

 

10. Entschließung
Auflösung, auch als Auflösung und Auflösung bekannt, kann in Display-Auflösung, Bildauflösung, Druckauflösung und Scanning-Auflösung unterteilt werden.
Einleitung
Die Auflösung bestimmt, wie fein die Details eines Bitmap-Bildes sind.
Je höher die Auflösung eines Bildes ist, desto mehr Pixel enthält es, desto klarer ist das Bild und desto besser ist die Druckqualität.Es wird auch den Speicherplatz der Dateien erhöhen.
Einheit
Die Einheiten, die zur Beschreibung der Auflösung verwendet werden, sind: dpi (Punkte pro Zoll), lpi (Linien pro Zoll), ppi (Pixel pro Zoll) und PPD (PPPixel pro Grad, Pixel pro Grad).Aber nur lpi ist eine Skala, die die optische Auflösung beschreibtObwohl dpi und ppi ebenfalls Einheiten in der Auflösungskategorie sind, unterscheiden sich ihre Bedeutungen von lpi.
Darüber hinaus werden ppi und dpi häufig synonym verwendet, aber es gibt auch Unterschiede in den Bereichen, in denen sie verwendet werden.Während "Punkte" nur im Bereich des Druckens oder Druckens erscheinen.