Leistungsangebot Optische Sensorik

Optische Sensoren in CMOS-Technologie

Wir entwickeln anwendungsspezifische optische Sensoren und Sensorsysteme. Die Sensoren können als Einzelsensoren oder auch als Zeilen- oder Bildsensoren ausgeführt sein und beinhalten die integrierte Signalverarbeitung und Schnittstellen. Diese werden in CMOS-Technologie hergestellt und können kostengünstig in großen Stückzahlen gefertigt werden.

Farb- und Multispektralsensoren

Wir entwickeln anwendungsspezifische Farb- und Multispektral­sensoren. Um die spektralen Eigen­schaften des Lichts zu erfassen, nutzen wir Photodioden und optische Nano­strukturen in den Metalllagen von CMOS-Prozessen. Farb- und Multispektralfilter können daher ohne nachträgliche Produktionsschritte gefertigt werden.  

Diese hochintegrierten Farbsensoren eignen sich beispielsweise für die Analytik von Gasen und Flüssigkeiten sowie für komplexe Anwendungen wie die Farbregelung für LED-Beleuchtungssysteme.

Unser Leistungsangebot:

  • Simulation optischer Nanostrukturen mit spektraler Filterwirkung
  • Design von Photodiodenarrays und Bildsensoren
  • Fertigungsdurchlauf der integrierten Sensoren
  • Elektrische und optische Charakaterisierung
  • Systementwurf für Anwendungen wie z. B. LED-Regelung und Analytik
© Fraunhofer IIS/Stephan Junger

CMOS-Multispektralsensor

Polarisationssensoren

Polarisation ist neben Intensität und Farbe eine weitere Eigenschaft des Lichts, die für das menschliche Auge nicht sichtbar ist. Wir konzipieren, entwickeln und charakterisieren integrierte optische Sensoren einschließlich Polarisationsfilter zur Analyse des Polarisationszustands des Lichts. Die Filterwirkung ist im Chip integriert und wird durch optische Nano­strukturen in den Metallschichten des CMOS-Halbleiterprozesses erreicht, in diesem Fall durch Gitterstrukturen. Die Filterstrukturen werden entweder mit Photodioden (einzeln oder als Array) zur punktförmigen Messung der Polarisation kombiniert oder mit Pixeln eines Bildsensors zur Polarisationsbildgebung. Sowohl die Anzahl der Photodioden als auch der Pixel können kundenspezifisch angepasst werden.

Polarisationssensoren können beispielsweise als optische Drehwinkelsensoren eingesetzt werden, in Polarisationskameras zur Materialprüfung von Glas oder im Automotivebereich (Fahrerassistenzsysteme).

Unser Leistungsangebot:     

  • Simulation optischer Nanostrukturen wie z. B. Drahtgitterpolarisatoren
  • Design von Photodioden-Arrays und Bildsensoren
  • Fertigungsdurchlauf der integrierten Sensoren
  • Elektrische und optische Charakaterisierung
© Fraunhofer IIS/Stephan Junger

Optischer Drehwinkelsensor

Multiapertur-Bildsensoren

Wir entwickeln Multiapertur-Bildsensoren für ultra-flache hochauflösende Kameras in mobilen Geräten. Nach dem Vorbild von Facettenaugen von Insekten nehmen viele kleine Kameras mit Mikrolinsen einzelne Teilbilder auf, die beim sog. Stitching zu einem Gesamtbild zusammengefügt werden und gleichzeitig eine 3D-Information liefern. Im Vergleich zu konventionellen Kameramodellen kann die Bauhöhe des Kameramoduls um 50% reduziert werden.

Diese ultra-flachen Kameras eignen sich für die Anwendung in Smartphones, im Automotivebereich sowie für Machine Vision in der Industrie 4.0.

Unser Leistungsangebot:     

  • Design und Entwicklung anwendungsspezifischer Bildsensoren wie z.B. Multiapertur-Bildsensoren, Sensoren mit speziellen Pixelanordnungen
  • Charakterisierung von Multiapertur-Bildsensoren
Weitere Informationen zum Multiapertur-Bildensor
Diese Mulitapertur-Bildsensoren werden im Projekt facetvision entwickelt.
© Fraunhofer IIS/Max Etzold

Multiapertur-Bildsensor für ultra-flache Kameras

Sensoren zur Laufzeitmessung des Lichts (Time-of-Flight)

Mit der Laufzeitmessung des Lichts (Time-of-Flight) kann die Entfernung eines Objekts gemessen werden. Bei der optischen Laufzeitmessung wird detektiert, wann ein ausgesendeter Lichtpuls von einem Objekt reflektiert und wieder zurückgesendet wird. Dies geschieht mit Hilfe der Einzelphotonen-Detektion (Single Photon Avalanche Diode Arrays - SPAD). Dabei treffen einzelne Lichtteilchen (Photonen) auf einen Sensor und lösen eine Elektronenlawine aus, wodurch einzelne Photonen sichtbar werden und eine optische Laufzeitmessung ermöglicht wird.  

Wir entwickeln anwendungsspezifische Time-of-Flight-Bildsensoren (ToF) zur optischen Laufzeitmessung, mit der die Position von Objekten hochgenau bestimmt werden kann. Time-of-Flight-Kameras zur 3D-Objekterkennung arbeiten mit einer hohen Auflösung und hohen Aufnahmegeschwindigkeit. Mit der LiDAR-Technologie (Light Detection and Ranging) kann, ähnlich eines Radars, die Entfernung und zum Teil die Geschwindigkeit eines Objekts in Echtzeit gemessen werden. ToF-Kameras werden z.B. in Fahrerassistenzsystemen im Automobilbereich eingesetzt. Damit ist eine komplette 3D-Erfassung der Umgebung möglich, einschließlich der Bewegung von Fußgängern oder fahrenden Autos. ToF-Bildsensoren werden ebenfalls in der Robotik für Industrie 4.0 eingesetzt (Mensch-Maschine-Interaktion).

Unser Leistungsangebot:

  • Entwicklung von anwendungsspezifischen Time-of-Flight-Sensoren
  • Charakterisierung von ToF-Sensoren
© Fraunhofer IIS

SPAD-Pixel

Charakterisierung von optischen Sensoren und Bildsensoren

Wir verfügen über mehrere Messplätze zur Vermessung unserer eigenen Sensoren sowie der Sensoren unserer Kunden.

Photodioden und optische Sensoren:

  • Messung der Empfindlichkeit und Linearität (A/W) in Abhängigkeit von der Wellenlänge (200 nm – 1100 nm)
  • Messung der Empfindlichkeit in Abhängigkeit von der Polarisation und Bestimmung des Polarisationskontrastes

Alle Messungen können in Abhängigkeit vom Einfallswinkel des Lichtes und bei verschiedenen Temperaturen durchgeführt werden.

Bildsensoren und Pixel:

Die Messungen können nach der Norm EMVA 1288 durchgeführt werden.

  • Messung der Empfindlichkeit (quantum efficiency) und Linearität in Abhängigkeit von der Wellenlänge (200 nm – 1100 nm) bei Monochromkameras, Farbkameras und Multispektralkameras
  • Messung der Empfindlichkeit in Abhängigkeit von der Polarisation und Bestimmung des Polarisationskontrastes bei Polarisationsbildsensoren und -kameras
  • Beleuchtung und Charakterisierung einzelner Pixel: Messung obiger Messgrößen sowie von Übersprechen in Abhängigkeit von der Wellenlänge

Die Pixelcharakterisierung kann für verschiedene Einfallswinkel erfolgen.

© Fraunhofer IIS/Kurt Fuchs

Ausleuchtung eines optischen Sensors

Download

 

Flyer

Multi-Apertur-Bildsensor für 3D-Bildgebung

 

Flyer

Plasmonische Farbsensoren für LED-Monitoring und Colorimetrie

 

Broschüre

Nanostructured Colour and Polarization Sensors in CMOS Technology

 

Broschüre

CMOS-Bildsensoren und Kamerasysteme