Hintergrund-Informationen zum Artikel ” Neue Bilder für die

Transcrição

Hintergrund-Informationen zum Artikel ” Neue Bilder für die
Hintergrund-Informationen zum Artikel
Neue Bilder für die Medizin?“
”
Hans-Christian Hege
August 2005
Zusammenfassung
Der Artikel stellt Hintergrundinformationen zu dem Artikel Neue Bilder für die Medi”
zin?“ von Günter Ziegler in den DMV-Mitteilungen, Bd 13, Heft 3, 2005, zur Verfügung.
Es werden die Themen Historisches zu Röntgenstrahlen“, Röntgenbasierte Bildgebung“,
”
”
Bildregistrierung“, Bildsegmentierung“ und Visualisierung“ im spezifischen Kontext der
”
”
”
medizinischen Bildgebung angesprochen. Weiterführende Literatur wird jeweils angegeben.
Über jedes dieser Themen lassen sich Bücher schreiben (und sind geschrieben worden). Es
handelt sich somit nur um punktuelle Information, ohne Anspruch auf Systematik oder gar
Vollständigkeit. Aus der Vielfalt der heute zur Verfügung stehenden Bildgebungsverfahren
in der medizinischen Diagnostik werden die paradigmatischen röntgenbasierten Verfahren
herausgegriffen.
1
Historisches zur Nutzung von Röntgenstrahlen
Am 8. Nov. 1895 entdeckte Wilhelm Conrad Röntgen in seinem Labor an der Universität Würzburg eine die meisten Materialien durchdringende Strahlenart und nannte sie
X-Strahlen“(siehe z.B. [4]). Andere Naturwissenschaftler, die auch mit Kathodenstrahlen
”
und Gasentladungsröhren experimentierten, wie Heinrich Hertz, Johann Wilhelm Hittorf,
Heinrich Geissler und Philip Lenard, hatten zwar auch schon unwissentlich derartige Strahlen erzeugt und deren Wirkungen beobachtet, aber versucht, die Beobachtungen anders zu
erklären [1]. Erst Röntgen erkannte, dass es sich um eine neue“ Strahlenart handelt.
”
Angesichts der die Menschheit seit Beginn ihrer Existenz begleitenden Alltagserfahrung,
dass man durch materielle Gegenstände – bis auf wenige wohlbekannte Ausnahmen – nicht
hindurchsehen kann, war dies eine revolutionäre Entdeckung, deren eindrückliche Wirkung
auf die Öffentlichkeit wir heute nur noch schwer nachvollziehen können.
Die zweite Aufnahme, die Röntgen machte – von der Hand seiner Frau –, ging in wenigen
Wochen um die Welt. Das Anwendungspotential der epochalen Entdeckung wurde sofort
erkannt und entsprechend schnell erfolgte, wie man es heute nennen würde, der Technologietransfer:
08. Nov. 1895
Röntgen entdeckt in seinem Labor in Würzburg die X-Strahlen und berichtet in einem Brief seinem ehemaligen Studenten und Freund Prof.
Franz Exner in Wien von dem Sensationsfund; dadurch macht schon vor
der offiziellen Bekanntgabe der Entdeckung durch Röntgen selbst (am
23.Jan.1896 in Würzburg) die Sensation die Runde.
08. Dez. 1895
In Wien finden die ersten Röntgenversuche statt.
28. Dez. 1895
Am Physikalischen Institut in Wien macht der Arzt Gustav Kaiser die
ersten drei medizinisch indizierten Röntgenaufnahmen der Welt.
05. Jan. 1896
Die österreichische Tageszeitung Die Presse“ verkündet unter dem Titel
”
Eine sensationelle Entdeckung“ auf der Titelseite die Entdeckung der
”
Strahlen.
1
23. Jan. 1896
In der Wiener Klinischen Wochenschrift“ erscheint das erste Angio”
gramm der Welt. In einer österreichischen Tageszeitung erscheint die
erste Verkaufsanzeige (!) für Röntgenapparate. Röntgen hält in Würzburg einen öffentlichen Vortrag mit live action: er durchleuchtet die Hand
des Klinikdirektors, worauf dieser den Vorschlag machte, die Strahlen als
Röntgenstrahlen“ zu bezeichnen. (Zwei Wochen später meldete sich so”
gar der Kaiser, der sich sonst nie für Naturwissenschaften interessierte,
mit dem Wunsch nach einer Vorführung.)
06. Mär. 1897
Der Österreicher Leopold Freund in veröffentlicht in der Wiener Medizinischen Wochenschrift einen Artikel mit dem Titel: Ein mit Röntgen”
Strahlen behandelter Fall von Naevus pigmentosus piliferus“ – der erste
beschriebene Fall, bei dem Röntgenstrahlen zu Heilzwecken angewendet
wurden.
Schon im ersten Zeitungsartikel Eine sensationelle Entdeckung“ in der östereichischen
”
Tageszeitung Die Presse“ vom 5. Jan. 1896, der über die neu entdeckte Strahlenart berich”
tete, stehen medizinische Anwendungen im Vordergrund. Am Ende dieses Artikels heißt es
geradezu prophetisch:
Ünd lässt man der Phantasie weiter die Zügel schießen, stellt man sich vor, dass
es gelingen würde die neue Methode des photographischen Processes mit Hilfe
der Strahlen aus den Crookes‘schen Röhren so zu vervollkommnen, dass nur eine
Partie der Weichtheile des menschlichen Körpers durchsichtig bleibt, eine tiefer
liegende Schichte aber auf der Platte fixiert werden kann, so wäre ein unschätzbarer
Behelf für die Diagnose zahlloser anderer Krankheitsgruppen als die der Knochen
gewonnen. [. . . ] Wir gestehen, dass dies Alles überkühne Zukunftsphantasien sind.
Aber - wer im Anfange dieses Jahrhunderts gesagt hätte, das Enkelgeschlecht werde
von der Kugel im Fluge getreue Bilder fertigen und mit Hilfe eines elektrischen
Apparates Zwiegespräche über den großen Ozean hin und wider führen können,
hätte sich auch dem Verdachte ausgesetzt, dem Irrenhause entgegenzureisen.“
Ein Faksimile des insgesamt lesenswertens Artikels, der auch das Zeitkolorit einfängt, ist
online verfügbar [2].
Das Wissen um die Röntgenstrahlen verbreitete sich in atemberaubendem Tempo um
den Erdball und eine stürmische Entwicklung setzte ein. Bereits im ersten Jahr wurden eine
Reihe von Anwendungen, vorrangig in der Medizin, ausprobiert, wie etwa Angiografie, Dentalaufnahme, Aufnahme vom lebenden Herzen, Thoraxaufnahme und Ganzkörperaufnahme.
Viele technische Ideen kamen auf und wurden auch gleich umgesetzt – von der Röntgenfotoplatte bis hin zur Röntgen-Stereoaufnahme (siehe z.B. [3]). Die Entdeckung Röntgens
traf auf enormes gesellschaftliches Interesse. So wurden auf Partys Röntgenapparate aufgestellt und Fotos von Händen oder anderen Körperteilen der Gäste gemacht und anschließend
ausgiebig bestaunt. Selbst in Schuhgeschäften fand die neue Entdeckung Anwendung: der
Kunde konnte sich die Position seiner Füße in den neuen Schuhen ansehen. Karikaturen, die
Personen als in Kleidern steckende Gebeine abbildeten, machten die Runde.
In der Medizin setzte sich die Verwendung von Röntgenstrahlen für diagnostische und
therapeutische Zwecke innerhalb kurzer Zeit durch. Es entstand ein neues medizinisches
Fach, die Radiologie. Lehrwerke wurden verfasst, siehe z.B. [5, 6]. Der Blick ins Innere des
menschlichen Körpers durch Röntgen“ wurde schnell zur klinischen Normalität.
”
Früh wurde auch der klinische Bedarf an einer dreidimensionalen Bildgebung erkannt.
Schon im Frühjahr 1896 baute der (mit fast 700 Patenten unfaßbar erfindungsreiche) amerikanische Elektroingenieur, Erfinder, Unternehmer, Geschäftsmann und Mitgründer von
General Electric, Elihu Thomson [8], ein Gerät zur Erzeugung von Röntgenstrahlen und
demonstrierte die Verwendung von stereoskopischen Röntgenbildern für die Diagnose von
Knochenbrüchen sowie die Lokalisation von Fremdkörpern im menschlichen Körper. Am 11.
März 1896 publizierte er diese Resultate unter dem Titel Stereoscopic Roentgen Pictures“
”
2
[7]. Im selben Monat zeigten die Franzosen A. Imbert und H. Bertin-Sans der Acdademie of
Science in Paris eindrucksvolle Stereogramme von zwei Mäusen [9].
1914 schlug der Röntgenpionier K. Mayer aus Posen vor, durch Bewegen der Röntgenquelle – bei festgehaltenem Detektor und Patient – überlagernde Schatten aus störenden
Körperregionen auszulöschen, und publizierte dies 1916 unter dem Titel (übersetzt) Diffe”
rentielle radiologische Diagnose bei Krankheiten des Herzens und der Aorta“ [10]. Mehrere
Erfinder tasteten sich – unabhängig voneinander, da sie jeweils nur die nationale Fachliteratur lasen – an die Idee heran, dass artefaktfreie Schichtbilder nur durch eine synchrone
Bewegung von beispielsweise Röntgenquelle und Röntgendetektor erreicht werden können.
1915 entwickelte der Italiener C. Baese eine Methode, die diese Idee nutzte, um mittels Röntgenaufnahmen Projektile in Körpern schußverletzter Soldaten zu lokalisieren und ließ sich
das Verfahren 1915/16 in Italien und England patentieren. Exakt dieselbe Idee entwickelte
1917 auch der Pariser A. Bocage. Er perfektionierte sie und reichte 1921 ein Patentgesuch
ein, das 1922 bewilligt wurde. Nachdem er Dermatologe geworden war, scheint er aber das
Interesse an einer Weiterentwicklung verloren zu haben, vielleicht fehlten ihm auch die finanziellen Mittel. Auch die jährlichen Patentgebühren zahlte er nicht mehr, so dass das
Patent schließlich an die Öffentlichkeit viel. Auf Grundlage seiner Ideen entwickelte erst viel
später M.G. Massiot ein Produkt, das als Biotome“ 1937 auf den Markt kam. 1922 hat”
te auch der holländische Ingenieur und damalige Medizinstudent Bernard G. Ziedses Des
Plantes (1902-1993), dieselbe Idee. 1928 griff er sie wieder auf und entwickelte bis 1931 in
Utrecht mit der Planigraphie“ das erste Schichtaufnahmeverfahren, das durch lineare, zir”
kulare oder spiralförmige Bewegung geometrisch einwandfreie Bilder erzeugte. Es gelang ihm
finanzielle Mittel zu erhalten und bis August 1931 ein genial konstruiertes Tomographiegerät
fertig zu stellen [11]. Darüberhinaus erfand er stereoskopische Techniken und die Subtraktionsangiographie. Diese großartige Erfindungsleistung faßte er in seiner 1934 erschienenen
Doktorarbeit zusammen [12]. Im gleichen Jahr publizierte er die ersten klinischen Resultate
zu Untersuchungen am Schädel und der Wirbelsäule. Wieder ist es die französische Firma
Massiot, die die Ideen aufgriff und zu einem Produkt weiterentwickelte. 1947 konstruierten
Ingenieure der Firma auf Basis dieser Entwicklungen einen multidirektionalen Tomographen,
den sie Polytom nannten. Nachdem die Firma Teil von Philips Medical Systems wurde, wurde hieraus das Philips Polytome – ein Standardgerät in den Kliniken bis zum Aufkommen
der Computertomographie in den siebziger Jahren.
Tomografische Aufnahmetechniken, bei der sich durch eine geeignete Relativbewegung
von Röntgenquelle und -detektor nur eine Schicht des durchstrahlten Objekts auf dem Film
scharf abzeichnet, und die keine numerischen Beechnungen erfordern, werden heute als klas”
sische Tomographie“ oder Verwischungstomographie“ bezeichnet.
”
Trotz dieser Erfindungen und vieler weiterer gründlichen Vorarbeiten in den 30er- bis
60er-Jahren kam der wirkliche Durchbruch in der Tomographie erst mit der Verfügbarkeit
leistungfähiger Computer. Eine ausführlichere Darstellung der Entwicklungen bis zum Aufkommen der Computertomographie in den 70er-Jahren findet sich in [16, 15] und [13, 14].
2
2.1
Röntgenbasierte Bildgebung in der Medizin – heute
Das Grundprinzip
Bei allen röntgenbasieren Bildgebungsverfahren werden in einer Röntgenröhre elektromagnetische Wellen - die Röntgenstrahlen - erzeugt. Die Strahlung entsteht, wenn in dem Hochvakuum der Röntgenröhre Elektronen aus einer Glühkathode durch eine Hochspannung (meist
25 bis 150 kV) beschleunigt werden, auf eine metallische Anode treffen und gebremst werden. An diesem Prinzip hat sich seit der Erfindung nichts wesentlich verändert. Lediglich die
Zuverlässigkeit, die Leistung und der Wirkungsgrad der Röhren wurden erheblich verbessert.
Die Röntgenstrahlen durchdringen das biologische Gewebe, wobei sie je nach Gewebeart
(Muskeln, Knochen, Fett usw.) unterschiedlich abgeschwächt werden. Der Grad der Absorption wird durch die Dichte des Stoffes und Ordnungszahl der darin enthaltenen chemischen
3
Elemente bestimmt. Weiches Gewebe absorbiert die Strahlen nur in geringem Maß, hartes
Gewebe (Knochen- und Zahnmaterial) schwächt die Strahlung stärker ab.
Die Wechselwirkung von elektromagnetischer Strahlung mit Materie wird durch ein exponentielles Schwächungsgesetz beschrieben. Für monoenergetische, kurzwellige Röntgenstrahlung gilt die Transmissionsgleichung von Lambert-Beer:
Z
I(l) = I(0) exp(−
l
µE (x) dx)
(1)
0
wobei I(0) und I(x) die emittierte bzw. in der Entfernung l von der Röntgenquelle detektierte
Intensität des Röntgenstrahls bedeuten und das Integral entlang des geradlinigen Strahlweges berechnet wird. Der lokale Schwächungskoeffizient hängt von der Energie E und dem
durchstrahlten Material (bei inhomogenen Objekten also dem Ort x) ab.
Die unterschiedlich abgeschwächten Röntgenstrahlen werden mit fotografischem Röntgenfilm, wiederverwendbaren Speicherfolien (digitale Lumineszenzradiographie) oder Halbleiterdetekoren (Direktradiographie) erfasst. Eine hohe auf den Röntgenfilm treffende Strahlung
führt auf dem entwickelten Filmnegativ zu dunklen Flächen, eine niedrige Strahlung dagegen
zu weißen Flächen. Knochen erscheinen daher weiß, Muskeln grau, Haut und Luft schwarz.
Analog verfährt man bei der Darstellung digital erfaßter Röntgenbilder.
Falls kein genügend starker Kontrast von Natur aus vorhanden ist, kann man versuchen, ihn zu erzeugen, und zwar durch Kontrastmittel (Flüssigkeiten hoher Dichte mit chemischen Elementen sehr hoher Ordnungszahl, wie z.B. Barium oder Jod), die in Organe,
Körperhöhlen, Blutgefäße appliziert werden. Luft, die praktisch keine Röntgenstrahlung absorbiert, erscheint schwarz am Bild und wirkt als negatives Kontrastmittel“.
”
Normalerweise wird nur 1% der Röntgenstrahlung vom Röntgenfilm absorbiert. Daher
werden sogenannte Verstärkerfolien vorgeschaltet. Diese sind aus Materialien (meist Elemente der Seltenen Erden) aufgebaut, welche einerseits eine hohe Kerladungszahl und damit
einen hohen Röntgen-Absorptionskoeffizienten aufweisen und andererseits die Eigenschaft
der Fluoreszenz haben, d.h. der Umsetzung von Röntgenlicht in sichtbares Licht, für welches
Filme empfindlicher sind.
Eine Alternative ist die Verwendung von Speicherfolien, in denen sich die Röntgenenergie längere Zeit speichern und mit einem Laser zeilenweise auslesen läßt. Solche Detektoren
bieten zwei wesentliche Vorteile: einerseits eine bessere Auflösung der Helligkeitsstufen: 4000
versus ca. 100 bei durchschnittlichem Film, und andererseits eine höhere Empfindlichkeit
und dadurch etwa auf die Hälfte reduzierte Strahlenbelastung. Hinzu kommen die Materialersparnis, die Möglichkeiten der digitalen Archivierung und der Übermittlung von Bilddaten
an andere Ärzte und Krankenhäuser, sowie der fast unbegrenzten Möglichkeiten der digitalen Nachbearbeitung. So können Unter- und Überbelichtungen korrigiert werden, Konturen
von Organen betont werden (etwa durch Hervorhebung von Regionen mit starken Grauwertgradienten), Kontraste angehoben werden und kleine Grauwertintervalle gespreizt werden,
um mehr Detailstrukturen sichtbar zu machen. Dafür wird heutzutage fertige Auswertesoftware verwendet, die per Knopfdruck entsprechende Bildtransformationen durchführt –
mit voreingestellten, optimierten Parametern, abgestimmt auf bestimmte Organregionen und
diagnostische Fragestellungen.
2.2
2.2.1
Bildgebungsverfahren
Konventionelle Röntgenaufnahme (Projektionsradiographie)
Beim konventionellen Röntgen werden die geschwächten Röntgenstrahlen in einer Bildebene
erfaßt. Für den meisten diagnostischen Fragestellungen ist es notwendig, Aufnahmen in zwei
Ebenen anzufertigen, um etwa einen Knochenbruch räumlich einordnen zu können. Alle Objekte entlang des Strahlweges tragen gemäß Gl. (1) zur Schwächung des Strahles bei, d.h.
werden übereinander projiziert. Die nicht vorhandene räumliche Tiefenauflösung erschwert
die Interpretation. Ein längeres Training sowie gutes Wissen über die Anatomie und Pathologien sind notwendig, um diagnostische Feinheiten aus Projektionsbildern herauszulesen.
4
2.2.2
Röntgendurchleuchtung
Bei der sogenannten Durchleuchtung kann die relative Position von Patient und Röntgenröhre/Detektor kontinuierlich verändert werden. Hierzu verwendet man ein spezielles
Röntgengerät, das niedrig dosierte Strahlung erzeugt und die im Körper des Patienten abgeschwächte Strahlung mit empfindlichen Halbleiterdetekoren mißt und die Signale nach
Verstärkung direkt sichtbar macht. Die aktuelle Perspektive wird in Echtzeit gezeigt. Dies
ermöglichst es dem Arzt, dorthin zu fahren“, wo der interessante Bereich am besten sicht”
bar ist und Körperabschnitte des Patienten in Bewegung auf einem Monitor zu beobachten. So können zeitliche Abläufe, wie Bewegungen (etwa bei Gelenkuntersuchzungen) oder
Körperfunktionen (etwa im Magen-Darm-Trakt) betrachtet werden, typischerweise nach oder
während der Gabe von Kontrastmitteln.
2.2.3
Computertomographie (CT)
In der Computertomographie wird die räumliche Verteilung µE (x) der Objekte aus vielen
Projektionsbildern, die aus verschiedenen Blickrichtungen digital aufgenommen berechnet.
Ein Computertomograph ist typischerweise wie folgt aufgebaut: Um die Körperachse des
Patienten kreist eine Röntgenröhre und emittiert bei vorgegebenen Winkelpositionen Röntgenstrahlen. Durch geeignete Blenden bilden diese einen schmalen Fächer in einer Ebene
senkrecht zur Drehachse. Gegenüber der Röntgenröhre befinden sich mitrotierende Detektoren (typischerweise einige hundert), die registrieren wieviel Strahlung den Patienten durchdrungen hat. Auf diese Weise werden Projektionswerte
I(l)
=
p = − ln
I(0)
l
Z
µE (x) dx =: RµE
(2)
0
bestimmt, die die Radontransformierte [17] der gesuchten Verteilung µE (x) darstellen. Mathematisch hat man also das inverse Problem zu lösen, aus Linienintegralen einer Verteilung dieselbe zu bestimmen. Sind für verschiedene (endlich viele) Winkel θ die Projektionen p bekannt, lässt sich die unbekannte Funktion unter Verwendung der inversen RadonTransformation R−1 näherungsweise berechnen:
µE (x) ≈ R−1 p
(3)
– so jedenfalls die Hoffnung. Auch bei idealen, praktisch nicht erreichbaren Bedingungen, etwa
beliebig viele Messungen und kein Vorhandensein von Rauschen, ist intuitiv klar, dass für
eine genaue Rekonstruktion, ausreichend“ viele Projektionen bestimmt werden müssen. Eine
”
hinreichende Bedingung an die Bahnkurve des Röntgenfokus (der Röntgenquelle) ist, dass
sie jede Ebene durch das Objekt mindestens einmal schneidet [21]. Ist diese Voraussetzung
erfüllt, läßt sich die Verteilung µ(x) über die inverse Radon-Transformation, die aus dem
Fourier- oder Cental-Slice-Theorem abgeleitet werden kann, im Prinzip bestimmen (siehe
z.B. [22, 30, 24, 23]).
Wir betrachten gleich den d-dimensionalen Fall. Die Radon-Transformierte der Verteilung µ(x) ist das Integral der Verteilung über (d − 1)-dimensionale Hyperebenen mit der
Flächennormalen n
Z
Rµ(r, n) = δ(x · n − r)µ(x)dd x.
(4)
Im 2D-Fall ist dies identisch mit den gemessenen Projektionsdaten (Linienintegralen). Im
3D-Fall müssen die Ebenen-Integrale von µ(x) erst noch aus den Projektionsdaten bestimmt
werden.
Die 1D-radiale Fourier-Transformation der Radon-Werte
Fr (Rµ(r, n)(ωr ) = Rµ(r, n)e−irωr dr
(5)
ist
d-dimensionalen Fourier-Transformierten der Verteilung Fn µ(ω) =
R identisch mit der
µ(x)exp(−ix · ω)dn r für alle Werte ω = ωr n. Für die 2D-Computertomographie lautet
5
die Inversionsformel
Z
1
1
f (x) = − 2
dn( 2 ) ∗ Rf (r, n))r=x·n
4π
r
Z
1
=
dnFr−1 (|ωr |) · Fr (Rf (r, n)))|r=x·n
2
(6)
wobei ∗ die Faltung bezeichnet. Die Faltung im Ortsraum läßt sich mit dem Faltungstheorem
auch als eine Multiplikation im Ortsfrequenzraum ausdrücken, wobei die Funktionen im Sinne
von Distributionen zu interpretieren sind. Die inverse Radontransformation kann demnach
als sogenannte gefilterte Rückprojektion (filtered backprojection, FBP) realisiert werden. In
Praxis wird dies in der Regel auch getan. Dabei wird jede Projektion mit einem aus der
Abtastgeometrie (analytisch) abgeleiteten Filter bearbeitet und anschließend entlang des
Strahlweges durch das 2D-Schichtbild zurück verschmiert. Die Beiträge aller Projektionen
werden im jeweiligen Bildpunkt akkumuliert.
Beim Standard-, Einzelschicht oder 2D-CT wird die untersuchte Körperregion durch einzelne, aufeinander folgende Schichtbilder dargestellt. Nach jeder Rotation wird der Tisch mit
dem Patienten eine Schichtdicke weiter durch die Gantry“ (Gehäuse, in dem sich die Röhre
”
und der Detektor befinden) geschoben, worauf eine neue Umdrehung und Aufnahme eines
Querschnitts beginnt. Dieser Vorgang wird so lange wiederholt, bis die ganze Körperregion
abgescannt ist.
Beim technisch deutlich aufwendigeren Spiral-CT rotiert die Röhre durchgehend bei kontinuierlichem Tischvorschub, so dass sich eine helixförmige Abtastung des erfaßten Volumens
ergibt. Das Verfahren ist deutlich schneller, wodurch sich die Untersuchungszeit verringert
und somit weniger Bewegungs- bzw. Atmungsartefakte ergeben. Außerdem ist eine lückenlose Abtastung, d.h. eine höhere Auflösung in axialer Richtung möglich. Zur Rekonstruktion
werden weiterhin Algorithmen aus der 2D-CT verwendet, ergänzt um eine Meßdateninterpolation in axialer Richtung.
Beim modernen Kegelstrahl-, Cone-Beam-, oder 3D-CT werden mehrzeilige, flächige Sensoren verwendet. Dadurch werden zwei Nachteile von Einzelschicht- und Spiral-CT behoben:
es wird ein höherer Anteil der Röntgenröhre emittierten Strahlung genutzt (weniger muß
ungenutzt ausgeblendet werden), und die im Vergleich zur transversalen Ortsauflösung (im
Schichtbild) geringe axiale Ortsauflösung (senkrecht zum 2D-Schichtbild) wird erhöht. Mit
modernsten 64-zeiligen Spiral-CTs sind fast isotrope Voxel erreichbar, so dass auch kleinere
Objekte und Läsionen sicher erfaßt werden können. Alternativ kann man den Untersuchtungsvorgang beschleunigen. Mit solchen Geräten ist es möglich, innerhalb weniger Sekunden
auch bewegte Organe wie das Herz detailgetreu zur Darstellung zu bringen.
Allerdings ist beim Cone-Beam-CT das Inversionsproblem ungleich komplexer, da nun
zur Rekonstruktion eines Schichtbildes nicht nur die Strahlen der Bildebene, sondern auch
schräg durch sie hindurchgehende Strahlen berücksichtigt werden müssen. Zwar läßt sich
auch für den 3D-Fall die Radon-Rücktransformation angeben [22, 24, 23], doch können die
Radon-Werte nicht mehr auf direktem Wege aus den Meßdaten berechnet werden: statt Linienintegralen werden Flächenintegrale mit (in Polarkoordinaten) dem Maß r dr dφ benötigt.
Bei 4-Zeilern konnte man sich wegen der kleinen Öffnungswinkel noch mit approximativen
Algorithmen behelfen, die Modifikationen der herkömmlichen Spiral-CT-Algorithmen bzw.
des Feldkamp-Algorithmus [27] darstellten. Für 16-Zeiler und die heute aktuellen 64-Zeiler
mußten aber neue Algorithmen entwickelt werden. Die Theorie zur Cone-Beam-CT ist zwar
weit entwickelt und in den letzten Jahren gab es auch erhebliche Fortschritte bei den Algorithmen. Dennoch sind die Möglichkeiten noch nicht ausgereizt und exakte“ 3D-Algorithmen
”
sind weiter Gegenstand der Forschung.
Bei allen CT-Varianten wird das 3D-Feld der Absorptionskoeffizienten µ(x) diskret (tpyischerweise auf einem regulären Voxelgitter) berechnet und bildlich als Grauwert dargestellt.
Eine typische Auflösung in der Scan-Ebene ist heute 5122 Pixel; höhere Auflösungen sind im
Kommen. Während bei Standard-CTs Schichtabstände von mehrere mm üblich waren, sind
mit mehrzeiligen Spiral-CTs in z-Richung, also orthogonal zur Scan-Ebene, auch Auflösungen
von unter einem mm möglich, so dass sich fast isotrope Voxel ergeben.
6
Anhand der so gewonnenen Schichtbilder lassen sich Lokalisation, Ausdehnung und Beschaffenheit des Gewebes viel besser beurteilen als mit konventionellen Röntgenbildern. Die
Computertomographie ist daher heute eines der wichtigsten Diagnoseverfahren und wird
auch zur genauen Vorbereitung von Operationen bzw. zur Überwachung von interventionellen Eingriffen (z.B. Punktionen) verwendet. Sie bildet auch in der Strahlentherapie die
Grundlage für eine präzise Planung und Behandlung.
Der Informationsgewinn bei CTs gegenüber herkömmlichen Röntgenaufnahmen hat jedoch einen Preis: zwar wird pro Tomogramm weniger Strahlung benötigt als für eine konventionelle Röntgenaufnahme, jedoch sind im allgemeinen zur Erfassung des relevanten Körpervolumens viele Schichten erforderlich, so dass eine deutlich höhere Strahlungsdosis resultiert.
Aus diesem Grund (und weil gewisse Fälle, z.B. Knochenbrüche im klassischen Röntgenbild
besser beurteilt werden können), hat die Computertomographie herkömmliche Röntgenaufnahmen nicht komplett verdrängt.
Insbesondere Spiral-CTs mit der höheren räumlichen Auflösung bieten auch eine gute Grundlage für Visualisierungsverfahren, die ganze Volumina oder rekonstruierte OrganOberflächen darstellen. Heute ist es auch möglich, Aufnahmen des schlagenden Herzens zu
machen, indem man parallel zur CT-Aufnahme einen Elektrokardiographen (EKG) mitlaufen
läßt, der während der Messung den Herzschlag registriert. Dann kann der Rechner anschließend Daten aus verschiedenen Projektionen, aber der gleichen Herzphasen, zu jeweils einer
3D-Aufnahme verbinden. Insgesamt ergibt sich so ein 4D-Datensatz.
2.3 Die Bedeutung der Mathematik in der Entwicklung der Computertomographie
Der Physiker Allan M. Cormack führte im Jahr 1963 die ersten computertomografischen
Rekonstruktionen durch und publizierte die Resultate [18, 19] ohne von den Arbeiten Radons
zu wissen. Wie er in seiner Nobelpreisrede [20] sagte, war er bei Literaturrecherchen und
Befragungen von Mathematikern zum Problem der Berechnung von Funktionen aus ihren
Linienintegralen nicht fündig geworden und erfuhr er erst 14 Jahre später von Radons Arbeit
sowie darauf aufbauenden Publikationen. Seitdem diese Arbeit (wieder) bekannt wurde, wird
sie aber als das mathematische Fundament der Computertomographie betrachtet.
Die Bedeutung der Mathematik für die Entwicklungen in der Computertomographie ist
offenkundig und unbestritten. Zunächst galt es, die von Cormack entwickelten Algorithmen
deutlich zu beschleunigen. Naive Algorithmen auf Basis der Inversionsformeln helfen nicht,
schließlich handelt es sich um ein schlecht gestelltes Problem, das eine geeignete Regularisierung erfordert. Einige Jahre mathematischer Forschung waren erforderlich, bis ausgereifte,
praxistaugliche Algorithmen verfügbar wurden. Vergleicht man die ersten Algorithmen mit
den besten unserer Tage, wird der enorme Fortschritt sichtbar.
Neben der schon genannten Cone-Beam-Problematik, gibt es weitere Probleme bzw. Limitierungen bei der tomographischen Rekonstruktion:
Rauschen versus Auflösung. Das Ziel ist, möglichst unverrauschte Bilder bei möglichst hoher Auflösung und möglichst niedriger Strahlendosis zu erhalten. Typische Auflösungen, die
von modernen Spiral-CT-Scannern in der klinischen Praxis bei normaler Strahlenbelastung
erreicht werden, sind derzeit ca. 1 mm in der transversalen Ebene und ca. 3 mm Schichtdicke
z in der axialen Richtung. Die Auflösungsbegrenzung hat zu tun mit einem Tradeoff zwischen
Bildqualität (die wir hier als invers zum Rauschen
√ σ betrachten) und der Strahlendosis D
die dem Patient zugemutet werden kann: σ ∝ 1/ zD Es gibt also natürliche Grenzen, die
sich auch durch noch so clevere Algorithmik nicht überwinden lassen. Dennoch sind bei der
Algorithmenentwicklung schwierige Abwägungen zu treffen, z.B. zwischen der Genauigkeit
der Rekonstruktion und ihrer Robustheit gegenüber den immer vorhandenen Datenfehlern.
Strahlaufhärtung. Die CT-Rekonstruktion setzt eigentlich monoenergetische Röntgenstrahlung voraus. Die in der Praxis verwendeten Röntgenquellen liefern aber polyenergetische
Strahlung. Niederenergetische Photonen werden stärker absorbiert, so dass beim Durchqueren von absorbierenden Materialien vorzugsweise hochenergetische Photonen übrig bleiben –
und der Strahl gehärtet“ wird (beam hardening). Für ein gegebenes Energiespektrum mit
”
7
Spektraldichte S(E) ergibt sich die detektierte Intensität zu
Z
I(l) =
Z
l
µE (x) dx) dE
S(E) exp(−
(7)
0
Rekonstruiert wird für eine vorgegebene effektive Energie“. Für den einfachen Fall homo”
gener Objekte lassen sich relativ einfach Algorithmen entwickeln, die sich iterativ an die
Dichteverteilung herantasten, welche man mit einer monoenergetischen Röntgenquelle mit
einer definierten effektiven Energie“ sehen würde. Für inhomogene Objekte ist dies schwie”
riger.
Metallartefakte. Metallische Fremdkörper, wie Zahnfüllungen oder implantierte Schrauben, führen zu sehr störenden, streifenförmigen Artefakten. Eine Möglichkeit diese zu verhindern, ist die Lokalisierung der von Metallobjekten verursachten Störungen in den gemessenen
Rohdaten und Kompensation mittels eines an die Geometrie des Tomographen angepassten
Verfahrens. Diese und andere Möglichkeiten sind Gegenstand der Forschung.
Eingeschränkter Winkelbereich. Rekonstruktion bei eingeschränktem Winkelbereich war
ein heißes Thema in den letzten Jahren.
Mit jedem größeren Schritt in der Entwicklung der Computertomographie traten technischen Schwierigkeiten auf und stellten sich neue mathematische Probleme. So wurden für die
jüngste Geräte-Generation, die Cone-Beam-Tomographen oder Mehrzeiler“, die zum ersten
”
Mal echte 3D-Rekonstruktionsalgorithmen erforderten, mathematische Entwicklungen notwendig, die zum Teil noch nicht abgeschlossen sind. Einen aktuellen Überblick zum Stand
der Technik in der Computertomographie bietet [28]. In dem Artikel, der viele technische
und anwendungsbezogenen Details erwähnt, heißt es: A key challenge for image reconstruc”
tion with multi detector row CT is the cone angle of the measurement rays; this requires
novel reconstruction techniques such as 3D back projection, AMPR, or weighted hyperplane
reconstruction“. Für jüngste Resultate zur Cone-Beam-Rekonstruktion siehe z.B. die Arbeit
[29] und Referenzen darin. Zusammenfassend kann man sagen, dass das Gebiet der tomografischen Rekonstruktion weiterhin ein lebendiges Forschungsgebiet der Mathematik ist, siehe
z.B. [23] und [25, 26].
Die Arbeiten auf Seite der Mathematik werden von der Informatik unterstützt. So wurden etwa parallele Spezialrechner entwickelt, um die Rekonstruktionen, schnell genug durchzuführen. Wegen der wachsenden Auflösungen stellt der Rechenaufwand, trotz inzwischen
hochentwickelter Algorithmik, heute wie früher, ein Problem dar. Gegenwärtig versucht man
unter anderem, die Algorithmen auf Architekturen mit kostengünstigen FPGAs oder noch
preiswerteren Grafikchips abzubilden.
Abschließend noch ein Zitat von Radon aus seiner Antrittsrede als Rektor der Universität Wien im Jahr 1954 – 2 Jahre vor seinem Tod und 7 Jahre bevor die erste Arbeit von
Cormack zu tomografischer Rekonstruktion erschien bzw. 16 Jahre bevor seine Arbeit und
deren fundamentale Bedeutung für die tomographische Rekonstruktion entdeckt wurde:
Oft liegen die Dinge so, dass mathematische Theorien in abstrakter Form vorlie”
gen, vielleicht als unfruchtbare Spielerei betrachtet, die sich plötzlich als wertvolle
Werkzeuge für physikalische Erkenntnisse entpuppen und so ihre latente Kraft in
ungeahnter Weise offenbaren.“
3
Grundinformationen zum Thema Bildregistrierung“
”
Aufgabe der Registrierung ist es, zwei oder mehr Datensätze durch Anwendung geometrischer
Transformationen bestmöglich aufeinander abzubilden. Im Falle der Bildregistrierung müssen
geometrische Transformationen gefunden werden, die in den Bildern implizit enthaltenen,
miteinander korrespondierenden Objekte möglichst gut zur Deckung bringen.
Bei 3D-Bilddaten betrachtet man in jedem Schritt des Verfahrens die Voxelwerte der zu
registrierenden Bilder und versucht durch Maximierung eines Ähnlichkeitsmaßes die beste
8
geometrische Transformation zu finden. Registriert werden Grauwertbilder (CT, MR, konfokale Mikroskopie), aber auch daraus abgeleitete Repräsentationen, wie Labelfelder (d.h.
segmentierte Bilder), Distanzfelder (d.h. Felder, die in jedem Punkt des Raumes den minimalen Abstand zu Oberflächen angeben, etwa von rekonstruierten Organen), oder auch
Geometrien (wie etwa triangulierte Oberflächen von Organen). Je nachdem, ob die zu registrierenden Daten vom gleichen Typ sind, unterscheidet man mono- und multi-modale
Registrierung.
Die starre Bildregistrierung erlaubt nur Translation und Rotation, während bei der affinen Bildregistrierung zusätzlich Skalierung und Scherung möglich sind. In vielen Fällen
reicht eine affine Transformation für eine zufriedenstellende Korrespondenz nicht aus, z.B.
wenn eine anatomische Struktur im Verlauf der Bildgebung deformiert wird – etwa durch
Atmung bei Thoraxaufnahmen. In diesen Fällen werden Freiform-Registrierung und elastische Registrierung (auf Basis physikalischer Organeigenschaften) eingesetzt. Deformationen
größeren Ausmaßes gilt es bei der Abbildung anatomischer Strukturen verschiedener Individuen aufeinander (Intersubjektregistrierung), z.B. in vergleichenden Studien, zu berechnen.
Ein Registrierungsverfahren ist durch drei Ingredienzen charakterisiert: ein Ähnlichkeitmaß, eine Klasse von zugelassenen geometrischen Transformationen inklusive einschränkenden Regularisierungsvorschriften und ein Optimierungsverfahren zur Bestimmung der optimalen geometrischen Transformation.
Die Bestimmung der gesuchten geometrischen Transformation erfolgt durch Minimierung
eines Funktionals, das neben einer Energie (Metrik), die die Unähnlichkeit misst, auch Regularisierungsterme (elastische Energie, approximative Volumenerhaltung) enthält, um das
Deformationsfeld zu glätten.
Das Maß der Korrespondenz wird mittels anwendungsspezifischer Metriken bestimmt. Bei
unimodalen Daten werden euklidischer Abstand der Grauwerte bzw. für segmentierte Bilder Labelkonsistenz verwendet. Werden Daten registriert, deren Grauwertverteilungen eine
lineare Beziehung aufweisen, z.B. T1/T2-gewichtete MRT-Daten, eignet sich die Grauwertkorrelation als Metrik. Liegt keine lineare Beziehung vor, z.B. bei multimodaler Registrierung,
verwendet man häufig informationstheoretische Abstandsmaße. Die zugrundeliegende Überlegung bzw. Annahme ist, dass die statistische Abhängigkeit zwischen den Pixelwerten (die
hier als Zufallsvariable aufgefasst werden) durch perfekte Registrierung maximiert werden.
Die statistische Abhängigkeit kann z. B. durch Mutual Information“, normalized Mutual
”
”
Information“, Renyi-Entropie“ und Renyi-Divergenz“ gemessen werden.
”
”
Die Parameter der optimalen geometrischen Transformation werden durch Gradientenverfahren, typischerweise in einem Multiskalenverfahren, gefunden.
Probleme sind die Wahl günstiger Ähnlichkeitsmaße in Abhängigkeit von den jeweils vorliegenden Bildcharakteristiken, wie auch die Wahl der zugelassenen geometrischen Transformationen und der Regularisierungsparameter. Welche Verzerrungen sind noch erlaubt und
welche nicht mehr? Das hängt natürlich sehr von der Anwendung ab. Das Hauptproblem
aber ist der hohe Rechenaufwand für das Optimierungsverfahren. Einen guten und aktuellen Überblick über die algorithmischen Aspekte der Bildregistrierung bieten die Arbeiten
[31, 33].
Im Folgenden einige Basisinformationen zu mutual information“. Die Größe wurde be”
reits von Shannon 1948 [34] eingeführt. Er verwendete hierfür den Begriff rate of transmis”
sion“, also Übertragungsrate“. Heute wird die Größe ins Deutsche mit Transinformation“
”
”
übersetzt (dem Duden ist der Terminus allerdings nicht bekannt). Auch Bezeichnungen wie
relative Information“ und Synentropie“ (bzw. die englischen Analoga) sind gebräuchlich.
”
”
Als Ähnlichkeitsmaß für die Bildregistrierung wurde die Größe fast zeitgleich und unabhängig
von verschiedenen Autoren eingeführt. Die ersten waren wohl Collignon et al. [37, 38].
9
3.1
Exkurs: Informationstheorie
Shannon definierte die Entropie H einer gegebenen Information I über einem Alphabet Z
durch
X
H(I) = −
p(z) log p(z)
(8)
z∈Z
wobei p(z) die Wahrscheinlichkeit ist, mit der das Zeichen z aus dem Alphabet Z im Informationtext I auftritt. Die Zahl H(I) gibt den durchschnittlichen Informationsgehalt eines
Symbols der Quelle an.
Da sich Logarithmen zu verschiedenen Basen nur um einen konstanten Faktor unterscheiden, ist es egal, welche Basis man verwendet – einzig die Einheit in der man den Informationsgehalt angibt wird dadurch festgelegt. Verwendet man den Logarithmus zur Basis 2, so
gibt H(I) an, wieviele binäre Unterscheidungen (Bits) im Mittel nötig sind, um den Wert
eines Symbols aus Z zu ermitteln. Multipliziert man H mit der Anzahl der Zeichen im Informationstext, ergibt dies die Anzahl der Bits, die zur Darstellung der Information mindestens
notwendig sind.
In der Informationstheorie löst man die Betrachtung vom Anwendungskontext: Sei X
eine diskrete Zufallsvariable, die Werte x ∈ X mit der Wahrscheinlichkeit p(x) annimmt,
dann ordnet man dem Ereignis X = x die
Ungewissheit(x) = − log p(x)
(9)
zu. Wieder ist die Einheit Bit, falls die Basis des Logarithmus 2 ist. Damit ergibt sich die
mittlere Ungewissheit, oder mittlere Information, oder auch Entropie eines Ereignisses der
Zufallsvariable X zu
X
H(X) = h− log p(x)ip = −
p(x) log p(x).
(10)
x∈X
Der Wertebereich der Entropie H hängt von X ab und ist [0, log |X | ]. Sind alle Beobachtungswerte identisch, so ist die Entropie (Ungewissheit) minimal: H = 1 · log 1 = 0. Sind die
Ereignise alle gleich wahrscheinlich, ist die Entropie (Ungewissheit) maximal: H = log |X |.
Für den zweidimensionalen Fall definiert man die gemeinsame Entropie von Zufallsvariablen X, Y
XX
H(X, Y ) = −
p(x, y) log p(x, y),
(11)
x∈X y∈Y
wobei p(x, y) die Verbundwahrscheinlichkeit für das gemeinsame Eintreten der Ereignisse
X = y und Y = y ist. H(X, Y ) gibt also die mittlere Ungewissheit oder mittlere Information
von Verbundereignissen (X = x, Y = y) an.
Die Wahrscheinlichkeit, eine 0 oder 1 in der geordneten Zeichenkette 1010101010... zu
finden, ist genauso groß, wie in einer Zeichenkette, die durch statistisch unabhängige Ereignisse (etwa wiederholten Münzwurf) entstanden ist. Daher ist die Shannonsche Entropie für
beide Zeichenketten identisch, obwohl man intuitiv die erste Zeichenkette als weniger zufällig
bezeichnen würde. Eine angemessene Definition der Entropie einer Zeichenkette liefert die
bedingte Entropie.
Die bedingte Entropie der Zufallsvariablen X relativ zu Y ist die Unsicherheit über X,
die verbleibt wenn Y bereits bekannt ist. Sind X und Y voneinander unabhängig, dann
bleibt die Entropie von X auch bei Kenntnis von Y vollständig erhalten. Sind X und Y aber
voneinander abhängig, dann kann die bedingte Entropie kleiner sein als im unabhängigen
10
Fall. Formal ist die bedingte Entropie H(X|Y ) definiert durch:
X
H(X|Y ) =
p(y)H(X|Y = x)
y∈Y
=
X
p(y)(−
y∈Y
=
X
p(x|y) log p(x|y))
x∈X
p(y)(−
y∈Y
= −
X
X p(x, y)
log p(x|y))
p(y)
x∈X
XX
p(x, y) log p(x|y) ,
(12)
y∈Y x∈Y
wobei p(x, y) = p(y, x) die Wahrscheinlichkeit für das gemeinsame Auftreten der Ereignisse
x und y ist.
Aus p(x, y) = p(x) p(y|x) folgt log p(x, y) = log p(x) + log p(y|x). Durch Erwartungswertbildung auf beiden Seiten erhält man
H(X, Y ) = H(X) + H(Y |X) ,
(13)
was sich wie folgt lesen lässt: die Ungewissheit über beide Zufallsvariablen X und Y ist gleich
der Ungewissheit über Y plus der Ungewissheit über Y bei gegebenem Wert von X.
Analog ergibt sich:
H(X, Y ) = H(Y ) + H(X|Y ) .
(14)
Die relative Entropie von p bezüglich q ist definiert als
D(p | q) =
X
p(x) log
x∈X
p(x)
q(x)
(15)
und wird auch Kullback-Leibler-Divergenz genannt. Unter Verwendung der Jensen-Ungleichung
– hf (X)i ≤ f (hXi) für konvexe Funktionen f – ergibt sich, dass D(p | q) ≥ 0 ist, wobei die
Gleichheit dann und nur dann angenommen wird, wenn p(x) = q(x) für alle x. Somit gilt
f 6= q ⇒ D(p | q) > 0 und D(p | q) = 0 ⇔ p = q. D(p | q) ist jedoch nicht symmetrisch, also
keine Metrik. Die relative Entropie D(p | q) ist ein Maß für die Unterschiedlichkeit von Wahrscheinlichkeitsverteilungen p und q. Ihr Wert gibt an, wieviele Bits im Mittel verschwendet
werden, wenn eine auf der Verteilung q basierende Kodierung auf Ereignisse angewendet
wird, die der Verteilung p folgen.
Die sogenannte Mutual Information oder auch Transinformation gibt die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen an. Sie ist definiert als:
I(X; Y )
= D(p(x, y) | p(x) p(y))
XX
p(x, y)
=
p(x, y) log
.
p(x)p(y)
(16)
x∈X y∈Y
Es gilt I(X; Y ) = I(Y ; X) und I(X; Y ) ≥ 0, wobei der Minimalwert 0 genau dann angenommen wird, wenn X und Y statistisch unabhängig sind. Aus der Definition folgt
I(X; Y ) = H(X) − H(X|Y ) ,
(17)
d.h. I(X; Y ) gibt an, wie sich die Ungewissheit über X durch die Kenntnis von Y mindert,
und umgekehrt. I(X; Y ) misst den Anteil der Information, der jeweils in der anderen Zufallsvariablen enthalten ist. Sind die Zufallsvariablen X und Y statistisch unabhängig, ist
I(X; Y ) = 0. Sind sie identisch, d.h. kann nach Kenntnis von X nichts Neues mehr über Y
erfahren werden (und umgekehrt); I(X; Y ) ist dann gleich der durch X (oder Y ) vermittelten
Information, also gleich der Entropie von X (oder Y ).
Mit der Beziehung H(X, Y ) = H(Y ) + H(X|Y ) erhält man
I(X; Y ) = H(X) + H(Y ) − H(X, Y ) .
11
(18)
Es gelten also die Äquivalenzen
I(X; Y )
= H(X) − H(X|Y )
= H(Y ) − H(Y |X)
= H(X) + H(Y ) − H(X, Y ).
Bei der Verwendung von Mutual Information zur Bewertung von Überlagerungen kann es vorkommen, dass homogene Bildanteile, z.B. der Hintergrund einen zu starken Einfluss ausüben
[41]. Um diesem Problem zu begegnen wurde in [41] die sogenannte normalized mutual
”
information“
H(X)
+
H(Y
)
˜
(19)
I(X;
Y)=
H(X, Y )
eingeführt. Wie die gewöhnliche“ Mutual Information I wächst I˜ mit wachsendem H(X),
”
wachsendem H(Y ) und fallendem H(X, Y ). I˜ hat sich besonders bei der Registrierung multimodaler Daten, die große Schwankungen in der Überlappung hatten, als sehr robust im
Vergleich zu I erwiesen.
Das Thema Ähnlichkeitsmaße ist sicher nicht abgeschlossen. So sind z.B. Maße denkbar, die neben den Originalbildern auch definierte Bildeigenschaften berücksichtigen, die
in Vorverabeitungsschritten extrahiert wurden, oder Vorwissen über Bildcharakteristiken,
womöglich gar über Bildinhalte. Man darf aber nicht vergessen, dass gerade die weitgehende
Freiheit von Annahmen über Bildcharakteristiken und -inhalte auch ein Vorteil der informationstheoretischen Verfahren ist.
Standardwerke zur Informationstheorie sind die Bücher von Cover/Thomas und Mackay
[39, 40]. Auch Rényi [36] gibt eine Einführung in das Gebiet (hier wird Mutual Information
relative Information“ genannt). Wirklich lohnenswert ist das Studium der Originalpublikati”
on von Shannon, die inzwischen auch online verfügbar ist [35]. Ein mathematisch orientiertes
Werk zur Bildregistrierung ist das Buch Modersitzki [32].
4
Grundinformationen zum Thema Bildsegmentierung“
”
Dieses Feld ist bekanntermaßen ein riesiges, inzwischen hochkomplexes . . . . Bis auf einige allgemeine Vorbemerkungen soll daher nur das Mumford-Shah-Funktional zur Sprache
kommen.
4.1
Problem der Bildsegmentierung
Bildsegmentierung meint die sinnvolle“ Aufteilung eines Bildes in Objekte, d.h. die Zuord”
nung von Bildpunkten zu Objekten oder auch die Zusammenfassung von Bildpunkten zu
Objekten. Das bedeutet, dass z. B. in einer MRT-Aufnahme der Wirbelsäule die Wirbelknochen, Rückenmark, Bandscheiben, Muskeln usw. korrekt unterschieden werden.
Diese Aufgabe wird von Laien hoffnungslos unterschätzt, da wir Menschen ohne bewusste geistige Anstrengung auch komplexe Objekte erkennen. Es ist uns nicht bewusst, welche
phänomenalen Leistungen unser visuelles Sehsystem mit seinem hochleistungsfähigen Mustererkennungsapparat und dem nachgeschalteten kognitiven Apparat permanent erbringt
(siehe z. B. [42, 43]).
Aus mathematischer Sicht ist die Bildsegmentierung vorrangig ein Modellierungsproblem,
seltener ein rein algorithmisches. In den nunmehr ca. 50 Jahren Forschung zur Bildanalyse
entstanden sehr unterschiedliche Ansätze zur Bildsegmentierung. Anders, als oft kolportiert,
gibt es für viele Segmentierungsaufgaben, die eine Erkennung von bestimmten Objekten in
Bildern mit definierten Eigenschaften und garantierter Qualität fordern, verlässliche Verfahren. Viele Aufgaben in der industriellen Qualitätssicherung fallen in diese Kategorie. Es
ist aber richtig, dass die Leistungen der heutigen computerbasierten Vision-Systeme himmelweit entfernt sind von denjenigen biologischer Sehsysteme. Dementsprechend sind noch
viele Aufgaben offen. Insbesondere in der medizinischen Bildgebung sind die automatischen
12
Segmentierungsverfahren in sehr vielen Fällen bei weitem nicht ausreichend leistungsfähig.
Die einfachsten Segmentierungsverfahren sind Schwellwertverfahren, die nur die Grauwerte von Bildpunkten betrachten. Methode dieser Art haben offensichtliche Grenzen, da die
Abbildung von Grauwerten auf – in der Medizin – Gewebe- und Organtypen nicht eindeutig
ist und die Bilder aufnahmetechnisch mit Artefakten (z. B. Rauschen) behaftet sind. Leistungsfähigere Klassifikatoren berechnen für jede Bildpunkt Merkmale aus den Grauwerten
der Nachbarschaft, ordnen diese in sog. Feature-Vektoren und versuchen in dem mehrdimensionalen Merkmalsraum Gruppen zu bilden.
Kantenfinder versuchen die Grenzen zwischen den Objekten im Bild zu finden, etwa anhand auffällig starker Grauwertänderungen. Typischerweise sind die Algorithmen nicht parameterfrei. D.h. in Abhängigkeit von der Problemklasse sind Parameter einzustellen, oder
durch andere Verfahren zu schätzen. Probleme treten bei Kantenfindern dadurch auf, dass
nicht jeder Grauwertgradient eine Objektgrenze bedeutet und dass die Objektgrenzen in
einem Bild sehr unterschiedliche Charakteristiken haben. Daher gibt es oftmals keine Parameterkonstellation für den Kantenfinder, der diesen alle gewünschten Kanten verlässlich
detektieren lässt. Hinzu kommt, dass zwischen zwei Objekten häufig keine erkennbare Kante
im Bild existiert.
Schwierigkeiten bereitet auch, dass die detektierten Kantenstücke nicht unbedingt geschlossene Linienzüge bilden. Diesem Problem begegnet man mit sogenannten aktiven Kon”
turen“ (s.u.).
Ein anderer Ansatz ist die sogenannte Morphologie. Hier wird versucht, Objekte über
ihre Form zu finden. Masken mit der Form des gesuchten Objektes werden über das Bild
geführt bis hohe Übereinstimmung gefunden wird. In den meisten Anwendungsfällen verhindern aber Form- und Abbildungsvariabilität sowie perspektivische Verzerrungen eine sichere
Identifikation. Auch ist es in vielen Anwendungen nicht a priori bekannt, welche Objekte mit
welcher Form in einem Bild zu finden sein sollen.
In Region-Growing-Verfahren werden, ausgehend von vorgebenen Startpunkten, benachbarte Pixel aufgrund von Ähnlichkeiten zusammengefaßt, so dass zusammenhängende Gebiete entstehen. Problem hier sind das automatische Setzen von Startpunkten und insbesondere
dass sich sich die Merkmale – zumindest partiell – zu wenig unterscheiden, so daß auch eigentlich zu trennende Gebiete zusammengefasst werden.
Eine weitere Klasse sind statistische Verfahren, z. B. solche, die auf Hidden-MarkovModellen beruhen; siehe z.B. [56].
Aktive Konturen oder snakes“ sind elastische (d − 1)-dimensionale Konturen, die sich
”
aufgrund eines Energiefunktionals in das elastische Eigenschaften der Kontur und auf den
Bilddaten basierende Energieterme eingehen, im Bild bewegen und an Kanten haften bleiben. Mit diesem Verfahren können auch Regionen eingegrenzt werden, bei denen stellenweise
die Kanteninformation nicht deutlich vorhanden ist. Repräsentiert man die Konturen durch
Level-Sets einer höherdimensionalen Funktion, lassen sich auch topologische Veränderungen
einfach erfassen.
Funktionale Ansätze dieser Art, bei der die Segmentierung als Variationsproblem formuliert wird, wurden insbesondere von mathematisch orientierten Forschern stark verfolgt.
Eine besonders prominente Rolle spielten dabei das Mumford-Shah-Funktional und davon
abgeleitete Funktionale.
Allen Verfahren gemeinsam ist, dass sie semantikfrei arbeiten: sie finden eigentlich keine
Objekte in den Bildern, sondern nur Hinweise auf Objekte. Ob ein gefundener Kandidat
ein sinnvolles Objekt ist oder nicht, kann keines der Verfahren feststellen. Objekterkennung
13
würde einen Rückgriff auf a-priori-Wissen über die Objekte voraussetzen. Einzig die Morphologie geht in diese Richtung, hat jedoch mit erheblichen anderen Nachteilen zu kämpfen.
4.2
Mumford-Shah-Funktional
Gegeben sei verrauschtes Bild in Ω ⊂ Rn (n = 2, 3) mit der Grauwertverteilung g ∈ L2 (Ω).
Die Segmentierungsaufgabe wird wie folgt aufgefasst: Finde eine Menge von Kanten K ⊂ Ω
und ein idealisiertes glattes Bild u ∈ C 1 (Ω\K). Hierfür schlugen Mumford und Shah [44, 45]
die Minimierung des Funktionals
Z
Z
c
2
n−1
E(u, K) := α
k∇ u(x)k dx + β H
(K) +
|u(x) − g(x)|2 dx
(20)
Ω\K
Ω
vor. Hn−1 bezeichnet das (n − 1)-dimensionale Hausdorffmaß von K, das die Länge“ der
”
Menge K misst. α > 0 und β > 0 sind zwei Parameter, die drei Beiträge gewichten: Der erste
Term von E sorgt dafür, dass u außerhalb der Kantenmenge möglichst glatt ist, der zweite
Summand stellt sicher, dass die Kantenmenge K möglichst klein ist und durch den letzten
Summanden wird erreicht, dass u möglichst wenig vom Originalbild g abweicht.
Die Bedeutung des Funktionals rührt daher, dass einen Vielzahl von gängigen Algorithmen zur Kantendetektion als diskretisierte und (zum Teil stark) vereinfachte Varianten zur
Minimierung von E(u, K) (oder Variationen hiervon) interpretiert werden können [46]. Das
Mumford-Shah-Funktional kann daher als allgemeines Modell zur kantenbasierten Bildsegmentierung gesehen werden. Ebenso ist es ein Prototyp für variationsbasierte kantenerhaltende Glättung.
Um die Existenz von Lösungen zu beweisen, wurde von De Giorgi et al. [47] eine schwache Formulierung vorgeschlagen, in der K die Sprungmenge einer SBV-Funktion (special
bounded variation) u ist.
Die numerische Behandlung des Variationsproblems ist schwierig, da sie die Berechnung von geometrischen Eigenschaften einer unbekannten Menge von Unstetigkeitsflächen
erfordert. Üblicherweise versucht man das Problem durch eine Folge von unterschiedlichen
regularisierten Variationsproblemen zu approximieren und dabei sicherzustellen, dass die
Extremwerte/Minimierer gegen Extremwerte/Minimierer des Mumford-Shah-Funktionals konvergieren (Γ-Konvergenz, s. [48]).
Die Entwicklung von Approximationsschemata und Algorithmen ist in vollem Gange,
siehe z. B. [49, 51, 52, 50]. Auch Erweiterungen des Variationsansates werden immer wieder
vorgeschlagen. So wird z. B. in [53] ein Verfahren beschrieben, das neben der Zerlegung
in Regionen mit glatten Komponenten auch oszillatorische Komponenten (Texturen) und
quadratingrable Komponenten (Rauschen) liefert.
Bildregistrierung und -segmentierung sind miteinander verknüpfte Probleme. Daher gibt
es Versuche, die Probleme simultan zu lösen. Für einen Ansatz mit Mumford-Shah-ähnlichen
Energiefunktionalen siehe [54].
Aus Anwendungssicht war Segmentierungverfahren, die auf dem Mumford-Shah-Ansatz
beruhen, kein durchschlagender Erfolg beschieden. Einerseits enhält das Funktional freie Parameter (die relativen Gewichte der Energieterme) für die es meines Wissens bisher noch
keine Schätzverfahren gibt und andererseits zielt der Ansatz auf eine globale Lösung, sozusagen eine minimale Erklärung“ des Bildes durch Konturen und Regionen. Das globale
”
Modell ist robust, aber etwas grob. Verfeinerte Modelle könnten differenziertere Ergebnisse
liefern sind aber mit noch mehr Parametern behaftet, die auch geschätzt werden müssten
[55].
Ein sehr lesenswerter Aufsatz, in dem das Problem der Mustererkennung, Segmentierung
und Objekterkennung aus mathematischer Sicht – vor dem Hintergrund vieler Entwicklungen
der letzten 20 Jahre – beleuchtet wird, ist der Mumford’s Artikel zur ICM 2002 [56].
14
5
3D-Visualisierung
Um Daten zu visualisieren, müssen Dateneigenschaften auf optische Größen abbildet werden – wie etwa Farbe, Textur, oder technischer: orts- ggf. auch zeitabhängige Reflektions-,
Absorptions-, Emissions- und Streueigenschaften. In dieser Abbildung liegt eine große Freiheit und zugleich die Kunst. Das mit optischen Eigenschaften ausgestattete Modell“ wird
”
dann mehr oder weniger an optischen Gesetzen orientiert gerendert“. Hohe Bildqualität be”
deutet in den meisten Fällen auch hohen Rechenaufwand. Zwar werden heute leistungsstarke
Grafikkarten eingesetzt, deren Rechenleistung die einer CPU um eine Mehrfaches übertreffen kann, doch wachsen auch die Datensätze, so dass Interaktivität oft schwer zu erreichen
ist und die Komplexität von Algorithmen sowie die Performance der Implementierungen ein
zentrales Thema bleiben. Einen Überblick über viele Themen, die in den letzten Jahren in
der Wissenschaftliche Visualisierung behandelt wurden, gibt [57].
5.1
Darstellung von Schichtbildern
Medizinische Schichtbilder werden typischerweise als Grauwertbilder dargestellt, es sei denn,
zusätzliche Informationen kommen hinzu, die den Einsatz von Farbe sinnvoll machen.
Zunächst ein triviales Faktum, das oft für Mißverständnisse sorgt und daher hier erklärt
werden soll. Die CT-Werte werden – historisch bedingt – in der sogenannten Hounsfield”
Skala“ 1 mit Werten aus dem Intervall [−1024, 3071] angegeben. Die 4096 Werte lassen sich
mit 12 Bits repräsentieren. Der Hounsfield-Wert ergibt sich aus der Röntgenschwächung µ
gemäß
CT = (µ/µW asser − 1) · 1000
in Hounsfield-Einheiten HE ,
(21)
d.h. CTW asser = 0 HE und, da Luft fast keine Röntgenstrahlung absorbiert, CTLuf t =
−1000 HE. In der bildlichen Darstellung wird der Minimalwert überlicherweise schwarz dargestellt, der Maximalwert weiß. Lungengewebe liegt aufgrund des großen Luftgehalts im
Intervall [−900 − 500] HE, was im Bild dunkel erscheint. Muskelfasern weisen Werte aus
[0 , ≈ 100]HE auf, das ergibt ein mittleres Grau. Knochen erscheinen sehr hell. Maximalwerte von ca. 3000 HE können in kontrastmittelgefüllten Bereichen erreicht werden.
Das menschliche Sehsystem kann allerdings nur 40-100 Graustufen unterscheiden. Bei
vielen Untersuchungen sind jedoch oft nur Werte aus einem Teilintervall von [−1024, 3071]
relevant. Um diese visuell trennen zu können, bildet man das jeweils relevante Teilintervall
auf den gesamten Grauwerte-Bereich ab (und setzt Werte außerhalb auf Schwarz bzw. Weiß).
Die Radiologen sprechen von Fensterung“. Je kleiner die Weite des Fensters, umso größer
”
die Kontrastanhebung. So gibt es für verschiedene Aufgaben verschiedene Fenster, z.B. sogenannte Lungenfenster“ (Weite 1500 HE-Werte, Zentrum bei -650 HE), Hirnfenster“ (100
”
”
HE/30 HE), Weichteilfenster“, (350 HE/50 HE), und Knochenfenster“ (2000 HE/500 HE).
”
”
Die angegebenen Werte sind Richtwerte und werden je nach spezifischem Anwendungsfall
leicht variiert.
Mit den heutigen computergrafischen Methoden lassen sich problemlos Schichten interaktiv und beliebig, d.h. auch schräg, durch das 3D-Volumen legen, jedenfalls sofern der 3DBilddatensatz in den Hauptspeicher des Rechners paßt. Zur besseren Orientierung werden
häufig mehrere, zum Teil unterschiedlich orientierte Schichten zugleich im Volumen dargestellt.
5.2
Darstellung von 3D-Volumina
Zur Darstellung von räumlichen Objekten, wie etwa Organsystemen in 3D gibt es im wesentlichen zwei Techniken: Oberflächendarstellungen oder Volumendarstellung (Volume-Rendering).
Beide Themen füllen Bücher und werden hier nur ganz kurz angerissen.
1
Benannt nach dem englischen Ingenieur Godfrey Hounsfield, der 1972 den ersten Computertomographen
vorstellte, dafür 1979 mit Alan M. Cormack den Nobelpreis erhielt und den Grundstein zu allen weiteren Schnittbildtechniken, wie Magnetresonanz und PET legte.
15
Die Oberflächen werden typischerweise durch Dreiecksnetze repräsentiert. In Medizinischen Anwendungen stellen sie meistens Grenzflächen von Organen oder Organbestandteilen
dar. Da sich in einem Raumpunkt mehrere Grenzlächen treffen können, können sich topologisch relativ komplexe Situationen ergeben. Im einfachsten Falle stellen die Grenzflächen
Isoflächen (level sets) von 3D-Grauwert-Bilddaten dar. Häufig lassen sich Knochenoberflächen so gewinnen, zumindest approximativ. Eine Beschreibung von hocheffizienten Algorithmen auf Basis des berühmten Marching Cubes-Algorithmus findet sich in [58]. In den
meisten Fällen lassen sich die Grenzflächen so aber nicht gewinnen, sondern erfordern eine
vorhergehende Bildsegmentierung. In diesen Fällen stellen die Dreiecksflächen – typischerweise geglättete – Randflächen zwischen unterschiedlich klassifizierten Gewebetypen dar.
Sehr häufig verwendet man in der Medizin Volumenrendering [59]. Hierbei werden, nach
Zuordnung von optischen Größen auf einzelne Voxel, selbstleuchtende, halbtransparente
Wolken“ simuliert. Um aussagekräftige Bilder zu erhalten, muss man einerseits eine gu”
te Merkmalserkennung durchführen (z.B. eine partielle Segmentierung) und andererseits den
Merkmalen passende optische Eigenschaften zuweisen. Die Entwicklung von besonders geeigneten multidimensionalen Transferfuktionen (s. [60]), etwa für medizinische Anwendungen,
ist ein aktuelles Forschungsthema.
Der Lichtransfer durch das so präparierte Volumen wird durch lineare Transporttheorie
beschrieben. Nimmt man eine drastische Vereinfachung vor und verzichtet auf die Berücksichtigung von Streueffekten, die in der Datenvisualisierung ohnehin eher Verwirrung stiften, so
läßt sich die Bildberechnung auf die Berechnung von sehr vielen (O(#Pixel)) Linienintegralen
entlang der Lichtwege durch das Volumen zurückführen. Um solche Bilder so schnell zu berechnen, dass man interaktiv Drehen, Zoomen usw. kann, muss ein hoher Aufwand getrieben
werden. Nur mit ausgeklügelten Algorihmen und hochleistungsfähiger Grafikhardware läßt
sich dies erreichen – für Datensätze mittlerer Größe. Für große Volumendatensätzen, wie sie
moderne bildgebende Verfahren teilweise liefern, versucht man, mit hierarchischen und progressiven Verfahren die Interaktivität zu erhalten. Entsprechende Verfahren sind Gegenstand
der aktuellen Forschung.
6
Hinweise auf aktuelle Literatur aus der Radiologie
Hier werden drei Literaturhinweise auf aktuelle medizinische Schriften gegeben, in denen von
3D-Visualisierungsverfahren substantiell Gebrauch gemacht wird:
Das gerade erschiene Buch [61] führt in den aktuellen Stand der Computertomographie
in der Kardiologie ein und enthält eine Reihe von Beispielen, die die Anwendung moderner
3D-Visualisierungsverfahren illustrieren.
Die online verfügbare Habilitationsarbeit [62] zeigt am Beispiel otologischer Fragestellungen, wie hochauflösende Akquisitionstechniken und modernen Volumenvisualisierung (in
Kombination mit den primären Schnittbilddaten), zum Verständnis von komplexen pathoanatomischen Veränderungen beitragen können.
In der ebenso online verfügbare Dissertation [63] wird ein Visualisierungsprotokoll zur 3DDarstelung der Hirnnerven V-VIII erarbeitet – ein Vorgehen, das in viele Bereich der Medizin
Einzug halten wird. Denn verläßliche Resultate setzen eine normierte visuelle Sprache“, d.h.
”
normierte Bilderzeugungsverfahren voraus.
Zur Illustration, dass moderne 3D-Visualisierungstechniken tatsächlich Einzug in die Medizin halten, hier noch die Ankündigung eines Workshops (im Rahmen des 4. Kongresses der
Deutschen Akademie für Hals-Nasen-Ohren-Heilkunde, Kopf- und Hals-Chirurgie, DA-HNO,
im Mai 2005): Nach kurzer anatomisch-topografischer Einführung mit der theoretischen
”
Darstellung der sicheren chirurgischen Landmarken im Felsenbein werden anhand von radiologischen 3D-Rekonstruktionen pathologische Befunde am Labyrinth, im Mittelohr und
im inneren Gehörgang demonstriert. Mittels 3D-Videodemonstration werden die praktisch
wichtigen transmastoidalen Zugänge zu Mittel- und Innenohr, Nervus facialis, Labyrinth, Foramen jugulare und innerem Gehörgang aufgezeigt und die relevanten Operationsmethoden
diskutiert....“
16
Literatur
[1] Ch. Deckers, R. Van Tiggelen: Were X-rays produced before the discovery by Röntgen?
Organe de la Societe Royale Belge de Radiologie JBR-BTR, 84(5), 2001, pp. 220-222.
[2] http://www.wissenschaftskalender.at/kalender/1228/augen1228a.html
[3] U. Buch, The Progress in Radiology in 1896, in: The Radiology History & Heritage
Charitable Trust, An Occasional Newsletter, No. 10, Winter 1998, http://www.rhhct.
org.uk/news/10.html
[4] Deutsches Röntgen-Museum, Remscheid, http://www.roentgen-museum.de
[5] L. Freund: Grundriß der gesamten Radiotherapie für praktische Ärzte, Berlin, Urban &
Schwarzenberg, 1903, 423 S.
[6] F. Dessauer: Kompendium der Röntgenaufnahme und Röntgendurchleuchtung – Band
1: Die Röntgentechnik, Band 2: Das Aufnahme- und Durchleuchtungsverfahren. Leipzig,
Nemnich, 1915.
[7] E. Thomson: Stereoscopic Roentgen Pictures. Electr Eng., 21, 256 (1896).
[8] Elihu Thomson Papers (1865-1944), American Philosophical Society, Philadelphia, PA,
http://www.amphilsoc.org/library/mole/t/thomson.pdf
[9] A. Imbert, und H. Bertin-Sans: Photographies stereoscopiques obtenues avec les rayon
X. C.R. Acad. Sci. Paris, 786 (1896)
[10] K. Mayer: Radyologiczne rzpoznanie rozniczkowe chorb serca i aorty. Gebethner and
Co., Kraków, 1916.
[11] B.G. Ziedses des Plantes: Een bijzondere methode voor het maken van Röntgenphotos
van schedel en wervelkolom. Ned Tijdschr Geneesk, 1931, 75: 5218-5222.
[12] B.G. Ziedses des Plantes: Planigraphie en subtractie. Röntgenographische differentiatiemethode. Thesis, Utrecht 1934.
[13] R. Van Tiggelen: In search for the third dimension: from radiostereoscopy to threedimensional imaging. Organe de la Societe Royale Belge de Radiologie JBR-BTR, 85(5),
2002, pp. 266-270. online verfügbar unter: http://www.radiology-museum.be/Pdf/
article 0081.pdf
[14] R. Van Tiggelen and E. Pouders: Ultrasound and computed tomography: spin-offs of
the world wars. Organe de la Societe Royale Belge de Radiologie JBR-BTR, 86(4), 2003,
pp. 235-241.
[15] S. Webb: Historical experiments predating commercially available computed tomography. Br J Radiol. 65(777) (1992), pp. 835-837.
[16] S. Webb: From the watching of shadows: the origins of radiological tomography A.
Hilger, Bristol 1990
[17] J. Radon: Über die Bestimmung von Funktionen durch ihre Integralwerte längs gewisser
Mannigfaltigkeiten. Ber. Verh. Sächs. Akad. Wiss., 69 (1917), pp. 262-277.
Nachgedruckt in P. Gruber et al. (eds.): Johann Radon: Gesammelte Abhandlungen.
Verlag der Österreichischen Akademie der Wissenschaften, Wien; Birkhäuser, 1987
[18] A.M. Cormack: Representation of a function by its line integrals, with some radiological
applications. J. Appl. Phys. 34, (1963), pp. 2722-2727.
[19] A.M. Cormack: Representation of a function by its line integrals, with some radiological
applications. ii. J. Applied Physics 35, (1964), pp. 2908-2913.
[20] A. McCormack: Early Two-Dimensional Reconstruction and Recent Topics Stemming
from it. Nobel Price Lecture 1979. http://nobelprize.org/medicine/laureates/
1979/cormack-lecture.pdf
[21] H. Tuy: An Inversion Formula for Cone-Beam Reconstruction SIAM J. Appl. Math.
43:3, (1983), pp. 546–552
[22] F. Natterer: The Mathematics of Computerized Tomography. Teubner-Wiley 1986. Reprinted in SIAM Classics in Applied Mathematics.
[23] F. Natterer and F. Wübbeling: Mathematical Methods in Image Reconstruction. SIAM
2001.
17
[24] G. T. Herman, A. K. Louis, and F. Natterer, Eds., Mathematical Methods in Tomography, Lecture Notes in Mathematics. New York: Springer-Verlag, 1990.
[25] http://www.num.uni-sb.de/iam/index.php
[26] http://www.num.uni-sb.de/iam/schuster.php
[27] L. A. Feldkamp, L. C. Davis, and J. W. Kress, Practical cone-beam algorithm, J. Opt.
Soc. Am. A 1, (1984), pp. 612–619
[28] T. G. Flohr, S. Schaller, K. Stierstorfer, H. Bruder, B. M. Ohnesorge, U. J. Schoepf
MultiDetector Row CT Systems and Image-Reconstruction Techniques Radiology 235
(2005), pp. 756–773.
[29] Y. Ye, S. Zhao, H. Yu, and G. Wang: A General Exact Reconstruction for Cone-Beam
CT via Backprojection-Filtration, IEEE Trans. Med. Imag. 24:9, 2005, pp. 1190–1198.
[30] A. C. Kak und M. Slaney: Principles of Computerized Tomography. New York, IEEE
Press, 1987. Reprint by SIAM, 2001.
[31] B. Fischer, and J. Modersitzki: Large scale problems arising from image registration. GAMM Mitteilungen, 27(2):104-120, 2004. http://www.math.uni-luebeck.de/
mitarbeiter/modersitzki/Pubs/GAMM-2005/FM-GAMM-2004-11-29.pdf
[32] J. Modersitzki: Numerical Methods for Image Registration (Numerical Mathematics
and Scientific Computation, Oxford University Press, 2004
[33] Clarenz, U. and Droske, M. and Henn, S. and Rumpf, M. and Witsch, K. Computational
methods for nonlinear image registration. Universität Duisburg, Preprint 2005 http:
//numerik.math.uni-duisburg.de/research/papers/public/ClDrHeRuWi04.pdf to
appear in: Mathematical methods in image registration, Series: Mathematics in Industry,
Springer
[34] C.E. Shannon: A mathematical theory of communication. The Bell System Technical
Journal, XXVII:379–423, 623–656, 1948.
[35] C.E. Shannon: A mathematical theory of communication. The Bell System Technical Journal, 27 (1948), pp. 379–423, 623–656, Reprinted with corrections from The
Bell System Technical Journal. http://cm.bell-labs.com/cm/ms/what/shannonday/
shannon1948.pdf
[36] A. Rényi: Wahrscheinlichkeitsrechnung mit einem Anhang über Informationstheorie.
Deutscher Verlag der Wissenschaften, Berlin, 1977.
[37] A Collignon, F. Maes, D. Delaere, D. Vandermeulen, P. Suetens, and G. Marchal: Automated Multi-Modality Image Registration Based on Information Theory. Information
Processing in Medical Imaging, pages 262-274, 1995.
[38] A. Collignon, A. Vandermeulen, P. Suetens, and G. Marchal: 3D Multi-modality Medical
Image Registration Based on Information Theory, Computational Imaging and Vision,
3 (1995), pp. 263-274.
[39] T.M. Cover and J.A. Thomas: Elements of Information Theory, Wiley, 1991. (zweite
Auflage erscheint im Okt. 2005)
[40] D.J.C. Mackay: Information Theory, Inference, and Learning Algorithms, Cambridge
University Press, 2002
[41] C. Studholme, D. Hill, and D. Hawkes: An overlap invariant entropy measure of 3D
medical image alignment. Pattern Recognition, 32:71–86, 1999.
[42] I. Rock: Perception, Scientific American Library, 1995.
[43] D.H. Hubel: Eye, Brain and Vision, Scientific American Library, 1995.
[44] D. Mumford and J. Shah: Boundary detection by minimizing functionals. In Proc. IEEE
Conference on Computer Vision and Pattern Recognition, San Francisco, 1985.N, Vol.
38, N◦ 2, pp. 291-320
[45] D. Mumford and J. Shah: Optimal approximations by piecewise smooth functions and
associated variational problems, Comm. Pure Appl. Math. 42, pp. 577 - 685 (1989).
[46] J.-M. Morel and S. Solimini, Variational Methods in Image Segmentation, Birkhäuser
(1995).
18
[47] E. De Giorgi, M. Carriero and A. Leaci: Existence theorem for a minimum problem
with discontinuity set, Arch. Rat. Mech. Anal. 108, pp. 195-218 (1989).
[48] G. Dal Maso: An introduction to Γ-convergence, Birkhäuser Boston, Boston, MA (1993).
[49] X. Feng and A. Prohl, Analysis of gradient flow of a regularized mumford-functional
for image segmentation and image inpainting, Mathematical Modelling and Numerical Analysis, 38:2 (2004), pp. 291-320 http://www.ima.umn.edu/preprints/may2003/
1920.pdf
[50] J. Shen: Γ-Convergence Approximation to Piecewise Constant Mumford-Shah Segmentation, in: J. Blanc-Talon et al. (Eds.): ACIVS 2005 (Int’l Conf. Advanced Concepts
Intell. Vision Systems), Lect. Notes Comp. Sci. 3708 , pp. 499-506, 2005.
[51] S. Esedoglu, Y-H. Tsai: Threshold dynamics for the piecewise constant Mumford-Shah
functional. UCLA CAM Report 04-63 (October 2004). http://www.math.ucla.edu/
∼esedoglu/Papers Preprints/esedoglu tsai.pdf
[52] J. Lie, M. Lysakery and X.-C. Tai: A Binary Level Set Model and some Applications to
Mumford-Shah Image Segmentation. To appear in IEEE Transection on image processing. Also UCLA, Applied Mathematics, CAM-report-04-31. http://www.mi.uib.no/
∼tai/papers/cam04-31.pdf
[53] J. Shen: Piecewise H −1 + H 0 + H 1 images and the Mumford-Shah-Sobolev model for segmented image decomposition http://www.math.umn.edu/∼jhshen/Mars/
ShenVision0705.pdf
[54] M. Droske and W. Ring: A Mumford-Shah Level-Set Approach for Geometric Image
Registration DFG-SP 1114 Preprint, April 2005. http://www.math.uni-bremen.de/
zetem/DFG-Schwerpunkt/preprints/pdf/099.pdf
[55] A. Desolneux, L. Moisan, and J.-M. Morel: A theory of digital image analysis. Book in
preparation.
[56] D. Mumford: Pattern theory: The mathematics of perception. in Proc. ICM (Beijing 2002), Higher Ed. Press, Beijing 2002, Vol. I, 401-422. http://arxiv.org/math/
0212400
[57] C. Hansen, C. Johnson: The Visualization Handbook, Elsevier, 2005 , 962 S.
[58] Y. Livnat: Accelerated Isosurface Extraction Approaches, in: C. Hansen, C. Johnson:
The Visualization Handbook, Elsevier, 2005 , pp. 39–55
[59] A. Kaufman, K. Mueller: Overview of Volume Rendering in: C. Hansen, C. Johnson:
The Visualization Handbook, Elsevier, 2005 , pp. 127–174
[60] J. Kniss, G. Kindlmann, C.D. Hansen: Multidimensional Transfer Functions for Volume
Rendering, in: C. Hansen, C. Johnson: The Visualization Handbook, Elsevier, 2005 ,
pp. 189–209
[61] U. Joseph Schoepf (ed.): CT of the Heart, Humana Press 2005, Totowa NJ
[62] R. Klingebiel: Evaluation neuer radiologischer Bildgebungstechniken in der otologischen
Diagnostik, Habilitationsschrift, Humboldt-Universität zu Berlin, Medizinische Fakultät
- Universitätsklinikum Charité, 2002 http://edoc.hu-berlin.de/habilitationen/
klingebiel-randolf-2002-10-01
[63] C.N. Heine: Dreidimensionale Darstellung der Hirnnerven V-VIII mittels virtueller Zisternoskopie, Dissertation, Medizinische Fakultät der Charité, Universitätsmedizin
Berlin,
2004
http://edoc.hu-berlin.de/dissertationen/
heine-christian-nicolaus-2004-09-23
19