kamera micron chip

Transcrição

kamera micron chip
Bildaufnahme
in der Zukunft
CCD- und CMOS-Sensoren
heute und morgen
Gerhard Holst, Kelheim
Bildsensoren haben sich in privaten wie professionellen Anwendungen etabliert. Doch
welcher Sensortyp ist der bessere, CMOS oder
CCD? Die Frage ist Anlass zu hitzigen Diskussionen. Eine genaue Analyse zeigt, dass die
Sensoren viele gemeinsame Eigenschaften
besitzen. Beide Typen, CMOS wie CCD, können
je nach Anwendung ihre Vorteile ausspielen.
Die vielfältigen Anwendungen bildgebender Systeme sowohl im Privaten wie auch
im Professionellen, in Wissenschaft und
Industrie, verursachen einen großen Berdarf an digitalen Bildsensoren. In der
Wissenschaft dienen Kamerasysteme neben der reinen Dokumentation dazu, Parameter zu messen oder Vorgänge zu visualisieren, die ohne sie nicht sichtbar
beziehungsweise nicht zugänglich sind.
In der Industrie wird Qualität geprüft,
werden Vorgänge und Prozesse und im Sicherheitsbereich Räume überwacht. In
mobilen Telefonen sind mittlerweile fast
immer Kameras eingebaut, und wer hat
zu Hause keine Video- oder Fotokamera?
Die Grundlage für die Aufnahme eines
Bilds, also einer bestimmten Verteilung
von Licht, bilden digitale Bildsensoren,
die sich auf Grund ihrer Struktur und des
Herstellungsprozesses prinzipiell unterscheiden lassen: in die Gruppe der CCD(Charge-Coupled Devices, hier beschreibt
der Name den nahezu verlustlosen Ladungstransport) und der CMOS- (Complementary Metal Oxide on Semiconductor,
Tabelle 1. Aktuelle hochwertige Bildsensoren und ihre Unterschiede
hier beschreibt der Name den Herstellunsgprozess) Bildsensoren. Seit über 20
Jahren gibt es CCD-Bildsensoren, wohingegen die CMOS-Sensoren sehr viel jünger
sind, aber dank einiger Merkmale in der
Herstellung in den letzten Jahren zu den
CCD-Bildsensoren aufgeschlossen haben.
An dieser Stelle soll nicht diskutiert werden, welche dieser Sensoren besser sind.
Der Beitrag wird den augenblicklichen
Stand der Technik zeigen und einen Ausblick auf die nähere Zukunft geben, vor
allem im Hinblick auf aktuelle Trends und
Anwendungsgebiete für die verschiedenen Bildsensoren.
Bildsensoren – der Stand der Dinge
Während aktuelle Trends immer auf höhere Ortsauflösung (bessere Bildqualität)
und kleinere Bildpunktgrößen (also
mehr Ertrag bei der Bildsensor-Herstellung) abzielen, weil der Wunsch nach
hochwertigen Bildern aus noch so kleinen Kameras besteht, gibt es bei Messanwendungen oder auch in der Qualitätskontrolle noch andere wichtige Optimierungsparameter: die Dynamik, das heißt
die Anzahl der unterscheidbaren Licht-
LASER+PHOTONIK
12
NOVEMBER 2004
SENSORIK
oder Grauwerte, und die Bildaufnahmerate für schnelle Vorgänge. Die Unterschiede zwischen aktuellen hochwertigen
Bildsensoren verdeutlicht Tabelle 1.
Hier sind zwei Interline-ProgressiveScan-CCD-Bildsensoren, ein neuartiger
Elektronen vervielfachender emCCD-Bildsensor und zwei CMOS-Bildsensoren mit
einigen ihrer technischen Kenndaten
aufgeführt. Im Bereich der Taktraten und
der Ortsauflösung gibt es zwischen CCDund CMOS-Sensoren keine größeren Unterschiede, die Taktraten liegen alle zwischen 30 und 60 MHz, und Auflösungen
von 1 Megapixel sind eher die untere
Grenze. Beim Quantenwirkungsgrad (QE),
der beschreibt, welche Lichtmenge benötigt wird, um einen digitalen Zahlenwert (meist in ›Counts‹ angegeben) zu erzeugen, rühren die Unterschiede eher
von den Erfahrungen in der Herstellung
her. Denn auf Interline-CCD-Bildsensoren
ist ein Teil der lichtempfindlichen Pixelfläche besetzt vom abgedunkelten Schieberegister, was, vergleichbar mit CMOSSensoren mit ihren Ausleseelementen pro
Pixel, zu einem schlechten Füllfaktor
führt. Bei CCD-Bildsensoren wird dies
durch zusätzliche Mikrolinsen auf den
Bildpunkten so gut es geht kompensiert,
wohingegen diese Technik bei CMOSBildsensoren noch nicht verbreitet ist.
Das Ausleserauschen und der Dunkelstrom der CCD-Bildsensoren sind deutlich
besser als bei CMOS, auch wenn die Herstellung der CMOS-Sensoren sich in den
letzten Jahren erheblich verbessert hat.
Dies liegt zum Teil im Erfahrungs- und
Entwicklungsvorsprung bei CCD-Sensoren, aber auch in der Struktur. Im Falle
des CCD-Bildsensors gehen alle Daten
durch eine oder wenige Ausgangsschaltungen, die natürlich entsprechend optimal und rauscharm gestaltet sind. Beim
Tabelle 2. Welcher
Sensor ist für welche
Anwendung am
besten geeignet?
CMOS-Sensor haben jeder Bildpunkt oder
kleinere Gruppen von Bildpunkten ihre
eigenen Ausleseschaltungen, die auf
Grund des erforderlichen Aufwands nicht
alle im entsprechenden Maß optimiert
werden können. Sie würden auch sonst
mehr Platz auf Kosten der lichtempfindlichen Fläche eines Bildpunkts einnehmen.
Die Fullwell-Kapazität gibt zusammen
mit dem Ausleserauschen die Dynamik
des jeweiligen Bildsensors vor und beschreibt das Fassungsvermögen eines
Bildpunkts für Ladungsträger. Das heißt,
wenn mehr Licht auf den Bildpunkt fällt,
können nicht mehr Ladungsträger erzeugt und gehalten werden. Hier haben
die CMOS-Sensoren mit ihren größeren
Pixeln die größeren Kapazitäten. Wegen
des höheren Ausleserauschens haben sie
dennoch die geringeren Dynamikwerte.
Die Leistungsaufnahme, die in Tabelle 1 angegeben ist, bezieht sich nur auf
den Bildsensor und nicht auf die notwendigen Ansteuerschaltungen. Denn wenn
man die Leistungsaufnahme dieser Schaltungsteile hinzuzieht, schneiden die
CMOS-Kamerasysteme natürlich besser ab.
Aber im Vergleich der reinen Sensoren
gibt es keine größeren Unterschiede. Bei
der Anzahl der notwendigen verschiedenen Treiberspannungen zeigt sich der
Vorteil der CMOS-Sensoren, die wesent-
lich einfacher mit nur einem Spannungspegel anzusteuern sind.
Zu guter Letzt ist für den Einsatz der
Bildsensoren auch die Anzahl der elektrischen Kontakte von Bedeutung. Hier
schneiden die CCD-Bildsensoren durch
ihre einzelnen Auslesekanäle besser ab
als die CMOS-Sensoren mit ihrer großen
Anzahl digitaler Anschlussleitungen. In
der Tabelle sind Frame-Transfer-Bildsensoren nicht enthalten. Sie werden zwar
im größten Teil der erhältlichen digitalen
Fotoapparate eingesetzt, da sie wegen
ihres hohen Füllfaktors sehr gute QEWerte haben. Aber sie benötigen einen
externen mechanischen Verschluss, um
kurze Belichtungszeiten zu realisieren,
was für den Einsatz in Fotoapparaten
kein Problem darstellt, denn solche Bauteile hatten sie ja schon, aber für die
Aufnahme von Bildserien eher nicht geeignet ist.
Trends und aktuelle Entwicklungen
Wohl angetrieben von den Wünschen und
Anforderungen der Automobilindustrie
an bildverarbeitende Fahrassistenzsysteme sind in den letzten Jahren CMOSSensoren entwickelt worden, die die Aufnahme und Wiedergabe eines großen
Lichtdynamikbereichs gestatten. Beispiele sind der HDRC- (High-Dyna- »
Bild 1. Herkömmliche Aufnahmen mit Belichtungszeitoptimierung im Vergleich zum Dual-Slope-Verfahren. Links: herkömmliche Aufnahme mit einem CMOSSensor, auf außen belichtet; Mitte: herkömmliche Aufnahme mit einem CMOS-Sensor, auf innen belichtet; rechts: mit dem Dual-Slope-Verfahren aufgenommenes Bild (Quelle: FillFactory)
LASER+PHOTONIK
13
NOVEMBER 2004
SENSORIK
Bild 2. Swiss-Ranger-SR-2-3D-Kamera vom CSEM. Links: die Kamera mit Infrarot-LEDs als Lichtquellen; Mitte: Lichtintensitäts-Aufnahme mit der SR-2Kamera; rechts: Entfernungsbild derselben Szene, aufgenommen mit der SR-2-Kamera (Quelle: CSEM, Zürich)
mic-Range-) CMOS-Bildsensor von IMS
Vision (www.hdrc.com), Stuttgart, mit
seiner logarithmischen Empfindlichkeit
und das Dual-Slope-Ausleseverfahren für
CMOS- Sensoren (FillFactory, Mechelen /
Belgien). Mit diesen Sensoren kann man
im Bild Kennlinien realisieren, die zwar
ein 10- oder 12-bit-Ausgangsbild liefern,
aber den darstellbaren Lichtsignalbereich
vergrößern. Ein klassisches Beispiel ist
der Kontrastumfang beim Aus-dem-Tunnel-Fahren. Beide Verfahren sind in den
90er Jahren des letzten Jahrhunderts
entwickelt worden und finden jetzt endlich vielseitige Anwendungen. Bild 1 vergleicht herkömmliche Aufnahmen mit
Belichtungszeitoptimierung auf den Innenbereich des Raums oder den Außenbereich mit dem Dual-Slope-Auslesen. Es
ist gut zu erkennen, dass Dual Slope eine
gut erkennbare Darstellung dieser
schwierigen Lichtsituation ermöglicht,
was sonst das nachträgliche Vereinen
zweier Bilder mit verschiedenen Belichtungen erfordert hätte.
Eine andere interessante Entwicklung
bei CMOS-Bildsensoren ist
das technische 3D-Sehen.
Hierfür wurden Ende der
90er Jahre neuartige Fotodetektoren entwickelt,
die es ermöglichen, pro
Bildpunkt das eintreffende Lichtsignal zeitlich aufzuteilen. Ein neues Empfangselement wurde geschaffen. Prof. Dr.-Ing.
Rudolf Schwarte von der
Universität Siegen nannte
es Photo-Mixing Device
(PMD), weil es eine Demodulation im Lichtempfänger ermöglicht. Er entwickelte mit seinem Team
eine Fotodiode, in der man
anhand eines externen
Modulationssignals entscheiden kann, ob die erBild 3. Frame-Transfer-emCCD-Bildsensor und die Bilder, die man zu den verzeugten Ladungsträger zur
schiedenen Zeitpunkten in der zeitlichen Auslesekette sehen würde. 1: Das
linken oder zur rechten
einfallende Licht wird in Ladungsträger umgewandelt. 2: Die Ladungsträger
werden in den abgedunkelten Speicherbereich geschoben. 3: Zeilenweise
Anschlusselektrode abgewerden die Ladungsträger seriell in den Verstärkungsbereich geschoben. 4:
führt werden. Somit funkDie Ladungsträger werden durch Stoßionisation verstärkt. 5: Im Ausgangstioniert dieser Detektor
verstärker werden die Ladungsträger in Spannungssignale umgewandelt, um
wie ein optischer Diffedann digitalisiert zu werden
LASER+PHOTONIK
14
NOVEMBER 2004
renzempfänger. Am CSEM (Centre Suisse
d'Electronique et de Microtechnique) in
Zürich wurde parallel dazu ein ähnliches
Bauteil entwickelt, das allerdings CMOSund CCD-Technologie vereint. Erzeugte
Ladungsträger werden hier ebenfalls über
ein externes Steuersignal reihum in einen
von bis zu vier CCD-›Töpfen‹, die um die
Fotodiode angeordnet sind, dirigiert. Mit
beiden Konzepten ist es möglich, Entfernungen direkt zu messen. Hierzu wird
beispielsweise sinusförmig moduliertes
Licht ausgesandt. Dieses Licht wird von
Hindernissen reflektiert, und ein Teil gelangt zurück zum Detektor. In Abhängigkeit vom Abstand und somit von der
Laufzeit des Lichtsignals ist nun die Phasenlage des sinusförmigen Lichts, verglichen zum ausgesandten Licht, verschoben. Mit den beschriebenen Detektoren kann man die Phasenlage messen
und über die Lichtgeschwindigkeit auf
den zurückgelegten Weg und somit die
Entfernung zurückführen. Mittlerweile
wurden auch erste Kameras mit CMOSBildpunkten, welche auf diesen Konzepten beruhen, entwickelt, sodass man Bilder aufnehmen kann, bei denen jeder
Bildpunkt die Information der Entfernung trägt (Bild 2). Die Technologie findet großes Interesse in der Automobilindustrie (Sitzplatzbelegung und Airbagsteuerung) und in der Robotik, wo man
bisher zur Entfernungsbestimmung auf
Laserscanner angewiesen ist.
Auch wenn in den letzten Jahren das
Thema ›Smart-Sensors‹ auch bezüglich
der Bildsensoren in aller Munde war, wird
es hier ausgeklammert, weil es sich letztlich um normale Bildsensoren mit einer
für ein bestimmtes Applikationsproblem
SENSORIK
angepassten Bildverarbeitung handelt,
die auf dem Chip integriert wurde. Dies
lohnt sich zwar für Anwendungen mit hohen Stückzahlen, ersetzt aber zumeist
nur zusätzliche Schaltungen, die sonst
nachgeschaltet werden müssten, und ist
wenig universell.
Bei den CCD-Bildsensoren wurde ebenfalls Ende der 90er Jahre, gleichzeitig bei
Texas Instruments und E2V Technologies,
ein Phänomen bei Bildsensoren entdeckt,
das bis dahin bei Avalanche-Fotodioden
bekannt war, die Stoßionisation (Bild 3).
Bei diesen, emCCD (em = Electron Multiplication) genannten Bildsensoren wurde dem eigentlichen Ausleseschieben bei
einem Frame Transfer CCD eine längere
Kette von Auslesezellen nachgeschaltet,
wobei die einzelnen Ladungspakete bei
höheren Spannungen als sonst durchgeschoben wurden (siehe Bild 3). Hier ergab sich statistisch verteilt eine Verstärkung des Signals auf dem Chip. Somit
kann das Signal vor dem Auslesen verstärkt werden, sodass für das Messereignis das Ausleserauschen vernachlässigt
werden kann.
Seit 2 bis 3 Jahren gibt es die ersten
Kameras mit diesen emCCD-Bildsensoren
(TI: ›TC285‹ und E2V: ›CCD87‹ und
›CCD97‹), die in die Domäne der Bildverstärker-Kameras vorstoßen und diese für
Niedriglicht-Anwendungen wohl verdrängen werden. Da sie pixelweise verstärken,
ist die Ortsauflösung im Bild genauso gut
wie der Bildsensor selbst und wird nicht,
wie beim Bildverstärker durch den Phosphorschirm, verschmiert. Zudem können
die Bildsensoren durch eine Übersteuerung nicht wie der Bildverstärker zerstört
werden. Mit den ersten so genannten
›Back-Illuminated‹-emCCD-Bildsensoren
(E2V: CCD97), bei denen der Chip von der
Substratseite her angeschliffen wurde
und von hinten beleuchtet wird (keine
Bild 4. Dynamik verschiedener Bildsensoren. CCD:
›Sony ICX 285‹ und
›Kodak 2001‹; emCCD:
›Texas Instruments TC285‹
und ›E2V Technologies
CCD97‹ (Back Illuminated); CMOS: ›FillFactory
IBIS5‹, ›Micron MV-13‹
und ›IMS Vision HDRC‹
Lichtverluste durch die Elektrodenstrukturen auf der Chip-Oberseite), konnten
QE-Werte von bis zu 95 Prozrnt realisiert
werden. Nunmehr ist der Einzelphotonennachweis mit digitalen Kameras möglich. Bild 4 zeigt einen Vergleich der
Dynamikbereiche der verschiedenen beschriebenen Bildsensoren in Abhängigkeit der Anzahl der Photonen, die nötig
sind, um ein Bild zu erzeugen.
KONTAKT
PCO AG, Wissenschafts- und
Forschungsabteilung,
93309 Kelheim,
Tel. 0 94 41 /20 05 -36,
Fax 0 94 41 /20 05 -20,
www.pco.de
Hier kann man klar erkennen, dass die
CCD-Bildsensoren besser für Aufnahmesituationen mit wenig Licht geeignet sind.
Hierbei machen vor allem die emCCDBildsensoren auch Bildverarbeitung im
absoluten Niedriglichtbereich möglich.
Dagegen ist der große Dynamikbereich
des logarithmischen HDRC-CMOS-Bildsensors, gerade wenn viel Licht zur Verfügung steht, deutlich.
Welcher Sensor ist der richtige?
Die beschriebenen Eigenschaften verdeutlichen, dass die Frage, welcher Sensor, CCD oder CMOS, der bessere sei, pauschal nicht zu beantworten ist. Auch
wenn sich an ihr immer wieder hitzige
Debatten entzünden, muss sie lauten:
Welcher Sensor ist für welche Anwendung
am besten geeignet? Den Versuch einer
Antwort unternimmt Tabelle 2.
In Fotoapparaten, Handys und Spielzeugen wird die Zahl der CMOS-Bildsen-
soren zunehmen, da ihre Bildqualität sich
verbessert hat. Derzeit haben die CCDSensoren noch den größten Marktanteil.
In professionellen Spiegelreflexkameras
kommen ebenfalls beide Typen zum Einsatz, hier setzt zum Beispiel der Hersteller Nikon CCD-Bildsensoren von Sony ein,
wohingegen Canon selbst CMOS-Sensoren
fertigt. Bei den wissenschaftlichen Anwendungen kommt es auf die experimentelle Problematik an: Ist es eine Niedriglichtanwendung, werden CCD-Kamerasysteme verwendet; soll das System für
Photonenrauschen-begrenzte
Aufnahmen eingesetzt werden, kommen auch
CMOS-Kameras infrage. Bei Hochgeschwindigkeitsaufnahmen, also Bildsequenzen mit sehr hoher Bildfolge, gibt es
nur noch CMOS-Bildsensoren, weil die
Auslesestruktur der CCD-Sensoren solche
Bildraten nicht gestattet. Hingegen werden auch in Zukunft die Niedriglichtanwendungen, bei denen es auf hohen
Quantenwirkungsgrad und niedrigstes
Rauschen ankommt, den CCD-Bildsensoren vorbehalten bleiben. Interessant
wird es sein, wie sich die CMOS-Sensoren
zur Entfernungsmessung weiterentwickeln werden.
Fazit
CCD- und CMOS-Bildsensoren teilen viele
Eigenschaften und sind daher für gleiche
Anwendungen geeignet – vor allem für
Konsumenten-Anwendungen wie Fotoapparate, Handys und Spielzeug. CMOSBildsensoren sind weniger geeignet für
Niedriglicht-Anwendungen wegen ihres
geringeren Quantenwirkungsgrads, des
höheren Ausleserauschens und der stärkeren Inhomogenität. Zudem stört der
höhere Dunkelstrom in solchen Anwendungen. CCD-Bildsensoren sind ihrerseits
wenig geeignet für Hochgeschwindigkeits-Anwendungen, weil sie nicht so
hohe Bilddatenraten ermöglichen, da
eine Parallelisierung des Ausleseprozesses
nicht möglich ist, und weil anwachsender
›Smear‹ bei kurzen Belichtungszeiten
störend ist. Ebenfalls sind CCD-Bildsensoren ungeeignet, wenn zusätzlich spezielle Funktionen auf dem Chip gefordert
sind oder spezielle Modulationsmöglichkeiten, wie im Beispiel der 3D Messung,
benötigt werden.
«
Dr. Gerhard Holst
([email protected]) ist Leiter der Wissenschaftsund Forschungsabteilung bei PCO in Kelheim.
LASER+PHOTONIK
15
NOVEMBER 2004

Documentos relacionados