kamera micron chip
Transcrição
kamera micron chip
Bildaufnahme in der Zukunft CCD- und CMOS-Sensoren heute und morgen Gerhard Holst, Kelheim Bildsensoren haben sich in privaten wie professionellen Anwendungen etabliert. Doch welcher Sensortyp ist der bessere, CMOS oder CCD? Die Frage ist Anlass zu hitzigen Diskussionen. Eine genaue Analyse zeigt, dass die Sensoren viele gemeinsame Eigenschaften besitzen. Beide Typen, CMOS wie CCD, können je nach Anwendung ihre Vorteile ausspielen. Die vielfältigen Anwendungen bildgebender Systeme sowohl im Privaten wie auch im Professionellen, in Wissenschaft und Industrie, verursachen einen großen Berdarf an digitalen Bildsensoren. In der Wissenschaft dienen Kamerasysteme neben der reinen Dokumentation dazu, Parameter zu messen oder Vorgänge zu visualisieren, die ohne sie nicht sichtbar beziehungsweise nicht zugänglich sind. In der Industrie wird Qualität geprüft, werden Vorgänge und Prozesse und im Sicherheitsbereich Räume überwacht. In mobilen Telefonen sind mittlerweile fast immer Kameras eingebaut, und wer hat zu Hause keine Video- oder Fotokamera? Die Grundlage für die Aufnahme eines Bilds, also einer bestimmten Verteilung von Licht, bilden digitale Bildsensoren, die sich auf Grund ihrer Struktur und des Herstellungsprozesses prinzipiell unterscheiden lassen: in die Gruppe der CCD(Charge-Coupled Devices, hier beschreibt der Name den nahezu verlustlosen Ladungstransport) und der CMOS- (Complementary Metal Oxide on Semiconductor, Tabelle 1. Aktuelle hochwertige Bildsensoren und ihre Unterschiede hier beschreibt der Name den Herstellunsgprozess) Bildsensoren. Seit über 20 Jahren gibt es CCD-Bildsensoren, wohingegen die CMOS-Sensoren sehr viel jünger sind, aber dank einiger Merkmale in der Herstellung in den letzten Jahren zu den CCD-Bildsensoren aufgeschlossen haben. An dieser Stelle soll nicht diskutiert werden, welche dieser Sensoren besser sind. Der Beitrag wird den augenblicklichen Stand der Technik zeigen und einen Ausblick auf die nähere Zukunft geben, vor allem im Hinblick auf aktuelle Trends und Anwendungsgebiete für die verschiedenen Bildsensoren. Bildsensoren – der Stand der Dinge Während aktuelle Trends immer auf höhere Ortsauflösung (bessere Bildqualität) und kleinere Bildpunktgrößen (also mehr Ertrag bei der Bildsensor-Herstellung) abzielen, weil der Wunsch nach hochwertigen Bildern aus noch so kleinen Kameras besteht, gibt es bei Messanwendungen oder auch in der Qualitätskontrolle noch andere wichtige Optimierungsparameter: die Dynamik, das heißt die Anzahl der unterscheidbaren Licht- LASER+PHOTONIK 12 NOVEMBER 2004 SENSORIK oder Grauwerte, und die Bildaufnahmerate für schnelle Vorgänge. Die Unterschiede zwischen aktuellen hochwertigen Bildsensoren verdeutlicht Tabelle 1. Hier sind zwei Interline-ProgressiveScan-CCD-Bildsensoren, ein neuartiger Elektronen vervielfachender emCCD-Bildsensor und zwei CMOS-Bildsensoren mit einigen ihrer technischen Kenndaten aufgeführt. Im Bereich der Taktraten und der Ortsauflösung gibt es zwischen CCDund CMOS-Sensoren keine größeren Unterschiede, die Taktraten liegen alle zwischen 30 und 60 MHz, und Auflösungen von 1 Megapixel sind eher die untere Grenze. Beim Quantenwirkungsgrad (QE), der beschreibt, welche Lichtmenge benötigt wird, um einen digitalen Zahlenwert (meist in ›Counts‹ angegeben) zu erzeugen, rühren die Unterschiede eher von den Erfahrungen in der Herstellung her. Denn auf Interline-CCD-Bildsensoren ist ein Teil der lichtempfindlichen Pixelfläche besetzt vom abgedunkelten Schieberegister, was, vergleichbar mit CMOSSensoren mit ihren Ausleseelementen pro Pixel, zu einem schlechten Füllfaktor führt. Bei CCD-Bildsensoren wird dies durch zusätzliche Mikrolinsen auf den Bildpunkten so gut es geht kompensiert, wohingegen diese Technik bei CMOSBildsensoren noch nicht verbreitet ist. Das Ausleserauschen und der Dunkelstrom der CCD-Bildsensoren sind deutlich besser als bei CMOS, auch wenn die Herstellung der CMOS-Sensoren sich in den letzten Jahren erheblich verbessert hat. Dies liegt zum Teil im Erfahrungs- und Entwicklungsvorsprung bei CCD-Sensoren, aber auch in der Struktur. Im Falle des CCD-Bildsensors gehen alle Daten durch eine oder wenige Ausgangsschaltungen, die natürlich entsprechend optimal und rauscharm gestaltet sind. Beim Tabelle 2. Welcher Sensor ist für welche Anwendung am besten geeignet? CMOS-Sensor haben jeder Bildpunkt oder kleinere Gruppen von Bildpunkten ihre eigenen Ausleseschaltungen, die auf Grund des erforderlichen Aufwands nicht alle im entsprechenden Maß optimiert werden können. Sie würden auch sonst mehr Platz auf Kosten der lichtempfindlichen Fläche eines Bildpunkts einnehmen. Die Fullwell-Kapazität gibt zusammen mit dem Ausleserauschen die Dynamik des jeweiligen Bildsensors vor und beschreibt das Fassungsvermögen eines Bildpunkts für Ladungsträger. Das heißt, wenn mehr Licht auf den Bildpunkt fällt, können nicht mehr Ladungsträger erzeugt und gehalten werden. Hier haben die CMOS-Sensoren mit ihren größeren Pixeln die größeren Kapazitäten. Wegen des höheren Ausleserauschens haben sie dennoch die geringeren Dynamikwerte. Die Leistungsaufnahme, die in Tabelle 1 angegeben ist, bezieht sich nur auf den Bildsensor und nicht auf die notwendigen Ansteuerschaltungen. Denn wenn man die Leistungsaufnahme dieser Schaltungsteile hinzuzieht, schneiden die CMOS-Kamerasysteme natürlich besser ab. Aber im Vergleich der reinen Sensoren gibt es keine größeren Unterschiede. Bei der Anzahl der notwendigen verschiedenen Treiberspannungen zeigt sich der Vorteil der CMOS-Sensoren, die wesent- lich einfacher mit nur einem Spannungspegel anzusteuern sind. Zu guter Letzt ist für den Einsatz der Bildsensoren auch die Anzahl der elektrischen Kontakte von Bedeutung. Hier schneiden die CCD-Bildsensoren durch ihre einzelnen Auslesekanäle besser ab als die CMOS-Sensoren mit ihrer großen Anzahl digitaler Anschlussleitungen. In der Tabelle sind Frame-Transfer-Bildsensoren nicht enthalten. Sie werden zwar im größten Teil der erhältlichen digitalen Fotoapparate eingesetzt, da sie wegen ihres hohen Füllfaktors sehr gute QEWerte haben. Aber sie benötigen einen externen mechanischen Verschluss, um kurze Belichtungszeiten zu realisieren, was für den Einsatz in Fotoapparaten kein Problem darstellt, denn solche Bauteile hatten sie ja schon, aber für die Aufnahme von Bildserien eher nicht geeignet ist. Trends und aktuelle Entwicklungen Wohl angetrieben von den Wünschen und Anforderungen der Automobilindustrie an bildverarbeitende Fahrassistenzsysteme sind in den letzten Jahren CMOSSensoren entwickelt worden, die die Aufnahme und Wiedergabe eines großen Lichtdynamikbereichs gestatten. Beispiele sind der HDRC- (High-Dyna- » Bild 1. Herkömmliche Aufnahmen mit Belichtungszeitoptimierung im Vergleich zum Dual-Slope-Verfahren. Links: herkömmliche Aufnahme mit einem CMOSSensor, auf außen belichtet; Mitte: herkömmliche Aufnahme mit einem CMOS-Sensor, auf innen belichtet; rechts: mit dem Dual-Slope-Verfahren aufgenommenes Bild (Quelle: FillFactory) LASER+PHOTONIK 13 NOVEMBER 2004 SENSORIK Bild 2. Swiss-Ranger-SR-2-3D-Kamera vom CSEM. Links: die Kamera mit Infrarot-LEDs als Lichtquellen; Mitte: Lichtintensitäts-Aufnahme mit der SR-2Kamera; rechts: Entfernungsbild derselben Szene, aufgenommen mit der SR-2-Kamera (Quelle: CSEM, Zürich) mic-Range-) CMOS-Bildsensor von IMS Vision (www.hdrc.com), Stuttgart, mit seiner logarithmischen Empfindlichkeit und das Dual-Slope-Ausleseverfahren für CMOS- Sensoren (FillFactory, Mechelen / Belgien). Mit diesen Sensoren kann man im Bild Kennlinien realisieren, die zwar ein 10- oder 12-bit-Ausgangsbild liefern, aber den darstellbaren Lichtsignalbereich vergrößern. Ein klassisches Beispiel ist der Kontrastumfang beim Aus-dem-Tunnel-Fahren. Beide Verfahren sind in den 90er Jahren des letzten Jahrhunderts entwickelt worden und finden jetzt endlich vielseitige Anwendungen. Bild 1 vergleicht herkömmliche Aufnahmen mit Belichtungszeitoptimierung auf den Innenbereich des Raums oder den Außenbereich mit dem Dual-Slope-Auslesen. Es ist gut zu erkennen, dass Dual Slope eine gut erkennbare Darstellung dieser schwierigen Lichtsituation ermöglicht, was sonst das nachträgliche Vereinen zweier Bilder mit verschiedenen Belichtungen erfordert hätte. Eine andere interessante Entwicklung bei CMOS-Bildsensoren ist das technische 3D-Sehen. Hierfür wurden Ende der 90er Jahre neuartige Fotodetektoren entwickelt, die es ermöglichen, pro Bildpunkt das eintreffende Lichtsignal zeitlich aufzuteilen. Ein neues Empfangselement wurde geschaffen. Prof. Dr.-Ing. Rudolf Schwarte von der Universität Siegen nannte es Photo-Mixing Device (PMD), weil es eine Demodulation im Lichtempfänger ermöglicht. Er entwickelte mit seinem Team eine Fotodiode, in der man anhand eines externen Modulationssignals entscheiden kann, ob die erBild 3. Frame-Transfer-emCCD-Bildsensor und die Bilder, die man zu den verzeugten Ladungsträger zur schiedenen Zeitpunkten in der zeitlichen Auslesekette sehen würde. 1: Das linken oder zur rechten einfallende Licht wird in Ladungsträger umgewandelt. 2: Die Ladungsträger werden in den abgedunkelten Speicherbereich geschoben. 3: Zeilenweise Anschlusselektrode abgewerden die Ladungsträger seriell in den Verstärkungsbereich geschoben. 4: führt werden. Somit funkDie Ladungsträger werden durch Stoßionisation verstärkt. 5: Im Ausgangstioniert dieser Detektor verstärker werden die Ladungsträger in Spannungssignale umgewandelt, um wie ein optischer Diffedann digitalisiert zu werden LASER+PHOTONIK 14 NOVEMBER 2004 renzempfänger. Am CSEM (Centre Suisse d'Electronique et de Microtechnique) in Zürich wurde parallel dazu ein ähnliches Bauteil entwickelt, das allerdings CMOSund CCD-Technologie vereint. Erzeugte Ladungsträger werden hier ebenfalls über ein externes Steuersignal reihum in einen von bis zu vier CCD-›Töpfen‹, die um die Fotodiode angeordnet sind, dirigiert. Mit beiden Konzepten ist es möglich, Entfernungen direkt zu messen. Hierzu wird beispielsweise sinusförmig moduliertes Licht ausgesandt. Dieses Licht wird von Hindernissen reflektiert, und ein Teil gelangt zurück zum Detektor. In Abhängigkeit vom Abstand und somit von der Laufzeit des Lichtsignals ist nun die Phasenlage des sinusförmigen Lichts, verglichen zum ausgesandten Licht, verschoben. Mit den beschriebenen Detektoren kann man die Phasenlage messen und über die Lichtgeschwindigkeit auf den zurückgelegten Weg und somit die Entfernung zurückführen. Mittlerweile wurden auch erste Kameras mit CMOSBildpunkten, welche auf diesen Konzepten beruhen, entwickelt, sodass man Bilder aufnehmen kann, bei denen jeder Bildpunkt die Information der Entfernung trägt (Bild 2). Die Technologie findet großes Interesse in der Automobilindustrie (Sitzplatzbelegung und Airbagsteuerung) und in der Robotik, wo man bisher zur Entfernungsbestimmung auf Laserscanner angewiesen ist. Auch wenn in den letzten Jahren das Thema ›Smart-Sensors‹ auch bezüglich der Bildsensoren in aller Munde war, wird es hier ausgeklammert, weil es sich letztlich um normale Bildsensoren mit einer für ein bestimmtes Applikationsproblem SENSORIK angepassten Bildverarbeitung handelt, die auf dem Chip integriert wurde. Dies lohnt sich zwar für Anwendungen mit hohen Stückzahlen, ersetzt aber zumeist nur zusätzliche Schaltungen, die sonst nachgeschaltet werden müssten, und ist wenig universell. Bei den CCD-Bildsensoren wurde ebenfalls Ende der 90er Jahre, gleichzeitig bei Texas Instruments und E2V Technologies, ein Phänomen bei Bildsensoren entdeckt, das bis dahin bei Avalanche-Fotodioden bekannt war, die Stoßionisation (Bild 3). Bei diesen, emCCD (em = Electron Multiplication) genannten Bildsensoren wurde dem eigentlichen Ausleseschieben bei einem Frame Transfer CCD eine längere Kette von Auslesezellen nachgeschaltet, wobei die einzelnen Ladungspakete bei höheren Spannungen als sonst durchgeschoben wurden (siehe Bild 3). Hier ergab sich statistisch verteilt eine Verstärkung des Signals auf dem Chip. Somit kann das Signal vor dem Auslesen verstärkt werden, sodass für das Messereignis das Ausleserauschen vernachlässigt werden kann. Seit 2 bis 3 Jahren gibt es die ersten Kameras mit diesen emCCD-Bildsensoren (TI: ›TC285‹ und E2V: ›CCD87‹ und ›CCD97‹), die in die Domäne der Bildverstärker-Kameras vorstoßen und diese für Niedriglicht-Anwendungen wohl verdrängen werden. Da sie pixelweise verstärken, ist die Ortsauflösung im Bild genauso gut wie der Bildsensor selbst und wird nicht, wie beim Bildverstärker durch den Phosphorschirm, verschmiert. Zudem können die Bildsensoren durch eine Übersteuerung nicht wie der Bildverstärker zerstört werden. Mit den ersten so genannten ›Back-Illuminated‹-emCCD-Bildsensoren (E2V: CCD97), bei denen der Chip von der Substratseite her angeschliffen wurde und von hinten beleuchtet wird (keine Bild 4. Dynamik verschiedener Bildsensoren. CCD: ›Sony ICX 285‹ und ›Kodak 2001‹; emCCD: ›Texas Instruments TC285‹ und ›E2V Technologies CCD97‹ (Back Illuminated); CMOS: ›FillFactory IBIS5‹, ›Micron MV-13‹ und ›IMS Vision HDRC‹ Lichtverluste durch die Elektrodenstrukturen auf der Chip-Oberseite), konnten QE-Werte von bis zu 95 Prozrnt realisiert werden. Nunmehr ist der Einzelphotonennachweis mit digitalen Kameras möglich. Bild 4 zeigt einen Vergleich der Dynamikbereiche der verschiedenen beschriebenen Bildsensoren in Abhängigkeit der Anzahl der Photonen, die nötig sind, um ein Bild zu erzeugen. KONTAKT PCO AG, Wissenschafts- und Forschungsabteilung, 93309 Kelheim, Tel. 0 94 41 /20 05 -36, Fax 0 94 41 /20 05 -20, www.pco.de Hier kann man klar erkennen, dass die CCD-Bildsensoren besser für Aufnahmesituationen mit wenig Licht geeignet sind. Hierbei machen vor allem die emCCDBildsensoren auch Bildverarbeitung im absoluten Niedriglichtbereich möglich. Dagegen ist der große Dynamikbereich des logarithmischen HDRC-CMOS-Bildsensors, gerade wenn viel Licht zur Verfügung steht, deutlich. Welcher Sensor ist der richtige? Die beschriebenen Eigenschaften verdeutlichen, dass die Frage, welcher Sensor, CCD oder CMOS, der bessere sei, pauschal nicht zu beantworten ist. Auch wenn sich an ihr immer wieder hitzige Debatten entzünden, muss sie lauten: Welcher Sensor ist für welche Anwendung am besten geeignet? Den Versuch einer Antwort unternimmt Tabelle 2. In Fotoapparaten, Handys und Spielzeugen wird die Zahl der CMOS-Bildsen- soren zunehmen, da ihre Bildqualität sich verbessert hat. Derzeit haben die CCDSensoren noch den größten Marktanteil. In professionellen Spiegelreflexkameras kommen ebenfalls beide Typen zum Einsatz, hier setzt zum Beispiel der Hersteller Nikon CCD-Bildsensoren von Sony ein, wohingegen Canon selbst CMOS-Sensoren fertigt. Bei den wissenschaftlichen Anwendungen kommt es auf die experimentelle Problematik an: Ist es eine Niedriglichtanwendung, werden CCD-Kamerasysteme verwendet; soll das System für Photonenrauschen-begrenzte Aufnahmen eingesetzt werden, kommen auch CMOS-Kameras infrage. Bei Hochgeschwindigkeitsaufnahmen, also Bildsequenzen mit sehr hoher Bildfolge, gibt es nur noch CMOS-Bildsensoren, weil die Auslesestruktur der CCD-Sensoren solche Bildraten nicht gestattet. Hingegen werden auch in Zukunft die Niedriglichtanwendungen, bei denen es auf hohen Quantenwirkungsgrad und niedrigstes Rauschen ankommt, den CCD-Bildsensoren vorbehalten bleiben. Interessant wird es sein, wie sich die CMOS-Sensoren zur Entfernungsmessung weiterentwickeln werden. Fazit CCD- und CMOS-Bildsensoren teilen viele Eigenschaften und sind daher für gleiche Anwendungen geeignet – vor allem für Konsumenten-Anwendungen wie Fotoapparate, Handys und Spielzeug. CMOSBildsensoren sind weniger geeignet für Niedriglicht-Anwendungen wegen ihres geringeren Quantenwirkungsgrads, des höheren Ausleserauschens und der stärkeren Inhomogenität. Zudem stört der höhere Dunkelstrom in solchen Anwendungen. CCD-Bildsensoren sind ihrerseits wenig geeignet für Hochgeschwindigkeits-Anwendungen, weil sie nicht so hohe Bilddatenraten ermöglichen, da eine Parallelisierung des Ausleseprozesses nicht möglich ist, und weil anwachsender ›Smear‹ bei kurzen Belichtungszeiten störend ist. Ebenfalls sind CCD-Bildsensoren ungeeignet, wenn zusätzlich spezielle Funktionen auf dem Chip gefordert sind oder spezielle Modulationsmöglichkeiten, wie im Beispiel der 3D Messung, benötigt werden. « Dr. Gerhard Holst ([email protected]) ist Leiter der Wissenschaftsund Forschungsabteilung bei PCO in Kelheim. LASER+PHOTONIK 15 NOVEMBER 2004