Digitale Bildanalyse

Verarbeitung digitaler Bilder From Wikipedia, the free encyclopedia

Mit digitaler Bildanalyse werden Merkmale (Kenngrößen, features) aus digitalen Bildern extrahiert. Unter Merkmalen versteht man dabei unter anderem Kennzahlen, Vektoren und Funktionen, die dazu dienen, die Bildinhalte hinsichtlich spezifischer Anwendungen zu interpretieren und gegebenenfalls weiter zu verarbeiten. Merkmale können auch semantische Informationen sein. Zur digitalen Bildanalyse gehört somit auch das Lesen von Texten mit optischer Zeichenerkennung (optical character recogniton, OCR), Strichcode (barcode), Produktidentifizierungsnummern (unique device identification, UDI) usw. Eine besondere Rolle spielt die räumliche Interpretation von Merkmalen, die an linearen oder ebenen Schnitten durch räumliche Strukturen (z. B. Mikrostrukturen von Materialien) bildanalytisch bestimmt werden (Stereologie).

Die digitale Bildanalyse ist ein integraler Bestandteil eines Systems aus optischer Bildgebung, Bildaufnahme (mit einem Zeilen- oder Flächensensor), digitaler Bildverarbeitung und Visualisierung von Bildinhalten. Häufig ist die digitale Bildanalyse ein Zwischenschritt in diesem System, z. B. bei der Beurteilung der Bildschärfe, des Kontrasts und von Shading oder der Bestimmung einer geeigneten Binarisierungsschwelle (Otsu-Schwelle) für die Segmentierung von Bildinhalten. Dennoch beansprucht die digitale Bildanalyse eine gewisse Eigenständigkeit, wenn es um die Quantifizierung von Objekten, Strukturen oder Mustern in digitalen Bildern geht.

Die Analyse digitaler Bilder basiert in meist auf Binärbildern, die durch eine vorangehende Segmentierung aus Grauton- oder mehrkanaligen Bildern erhalten werden. In einigen Fällen erübrigt sich jedoch eine Segmentierung, z. B. bei der bildanalytischen Bestimmung der spektralen Leistungsdichte (power spectral density, PSD) eines Bildes oder der Haralick-Koeffizienten (gray tone co-occurrence texture features)[1].

Abbildung 1: Das Bildanalysesystem Quantimet 720 von Cambridge Instruments Ldt. aus dem Jahr 1975 mit Epidiaskop (links) und Tischrechner (Hewlett Packart 9830, rechts)

Die digitale Bildanalyse ist von der Bildanalyse in der bildenden Kunst abzugrenzen, bei der es um die kritische Beurteilung der Gestaltungsmerkmale eines Werkes aus künstlerischer Sicht geht.

Geschichte

Initiiert wurde die digitale Bildanalyse durch den Wunsch, aufwändige Messmethoden der Mineralogie, Petrographie und Metallographie zu automatisieren. Dazu gehören die mühevolle Zählung von Objekten in mikroskopischen Bildern. Mit der Methode des „Wägens“ (Achille Ernest Oscar Joseph Delesse, 1847) und der Punktanalyse (Ellis Thomson, 1930 und Alexander Alexandrowitsch Glagolev, 1931) wurden Volumenanteile der Phasen von Gesteinen, Mineralien und Metallen bestimmt.[2][3][4] Einen Sonderfall stellt die Linearanalyse dar (August Rosiwal, 1898), mit der neben Volumenanteilen auch spezifische Grenzflächen und Korngrößen gemessen werden können.[5] Die Methode der Linearanalyse (d. h. der Linienschnittmethode) mündete in die Entwicklung erster kommerzieller Bildanalysegeräte (Linearanalysatoren), mit denen Materialproben auf einem Probentisch mäanderförmig über einem Fotometer geführt und das Fotometersignal elektronisch ausgewertet wurde (z. B. ab 1969 das Epiquant[6][7] der Jenoptik GmbH, Jena). Gerätetechnisch mündete diese Entwicklung schnell in eine Sackgasse, aber die Linienschnittmethode fand Eingang in einige industrielle Standards wie z. B. die DIN 50601[8] zur Bestimmung der mittleren Korngröße von polykristallinen Materialien und ist daher noch immer von Bedeutung.

Ein Meilenstein waren die ersten Videosysteme, zunächst reine Analogsysteme wie ab 1962 das Quantitative Television Microscope (QTM A) von Metals Research Ltd. (später IMANCO Ldt., dann Cambridge Instruments Ldt. und schließlich Leica Gruppe)[9]. Sein Nachfolger, das Quantimet B[10], war das erste kommerziell erfolgreiche Bildanalysesystem. Es wurde ursprünglich zur Reinheitsgradbestimmung von Stählen entwickelt und fand schnell auch in der Biologie, Medizin zur Zählung von Zellen (u. a. Blutzellen) und Züchtungsforschung (Chromosomenanalyse) Verwendung. Das erste vollständig digitale Bildanalysesystem war das Quantimet 720, ein von einem PC gesteuerten Hardwaresystem.[9]

Wesentliche Fortschritte brachte die vor allem von Georges François Paul Marie Matheron (* 2. Dezember 1930, † 7. August 2000) und Jean Paul Frédéric Serra (* 1940 in Algerien) am Ecole de Mines de Paris entwickelte Mathematische Morphologie, die einen maßgeblichen Einfluss auf die Gerätetechnik hatte[11]. Das betrifft vor allem das Leitz Texturanalysesystem (Leitz TAS plus, mit hexagonalem Pixelraster)[12], aber auch das Quantimet 720. Diese Entwicklung wurde schnell von anderen Mikroskopherstellern adaptiert, z. B. ab 1968 das System QMS von Bausch & Lomb (Rochester, New York) und seit 1974 das OmniMet von Buehler[13] (Illinois Tool Works, ITW).

Mit der Verfügbarkeit der ersten graphikfähigen Workstations (Sun, Apollo, VaxStation) waren ab der frühen 1980er Jahren Softwaresysteme für die Bildanalyse verfügbar, die immer preiswerter wurden und schnell an die Anforderungen spezifischer Applikationen angepasst werden konnten. Getrieben wurde die Entwicklung der digitalen Bildanalyse auch durch die Verbreitung neuer Präparations- und Bildaufnahmetechniken, z. B. Ionendünnung (focussed ion beam, FIB) kombiniert mit Rasterelektronenmikroskopie (scanning electron microscopy, SEM), Elektronenrückstreubeugung (electron backscatter diffraction, EBSD) bis hin zur Mikrotomographie und Konfokalmikroskopie (confocal laser scanning microscopy, CLSM oder laser scanning confocal microscopy, LSCM).

Einen wichtigen Beitrag zur Entwicklung der Digitalen Bildanalyse leistete die Stereologie, mit der aus bildanalytischen Messungen z. B. in linearen oder ebenen Schnitten durch eine 3-dimensionale Struktur auf dessen Merkmale geschlossen werden kann. In diesem Zusammenhang wird auf die Arbeit der Internationalen Gesellschaft für Stereologie und Bildanalyse (International Society for Stereology & Image Analysis, ISSIA) sowie deren Zeitschrift Image Analysis & Stereology verwiesen. Begleitet wurde die Entwicklung der Digitalen Bildanalyse durch Erkenntnisse der Digitalen, Stochastischen und Integralgeometrie.

Merkmale und ihre Bestimmung

Beeinflusst durch die Entwicklung von Bildanalysesystemen und ihre breite Anwendbarkeit gibt es eine große Vielfalt von Merkmalen mit denen Bildinhalte charakterisiert werden. Einen Schlüssel zur Systematik bilden die Basismerkmale eines Objekts , unter dem eine kompakte und topologisch reguläre 2- oder 3-dimensionale Menge mit hinreichend glattem Rand verstanden wird. In der Sprache der Integralgeometrie sind Basismerkmale bis auf konstante Faktoren die so genannten Quermaßintegrale, die sich durch besondere Eigenschaften auszeichnen. Das System der Basismerkmale ist in gewissem sinne vollständig, denn jedes weitere Merkmal mit denselben Eigenschaften ist eine Linearkombination der Basismerkmale (Satz von Hadwiger) und somit redundant. Von besonderer Bedeutung für die Bildanalyse ist, dass die Basismerkmale additiv sind und daher aus lokaler Bildinformation bestimmt werden können, was Algorithmen der Bildanalyse effizient macht.

Von den Basismerkmalen leiten sich weiter Merkmale ab, z. B. die Merkmale der konvexen Hülle von oder Merkmale des Bestandteils (z. B. einer Phase) von einer Struktur.

Bildanalytisch bestimmt werden Merkmale an digitalen Bildern. Statt eines Objekts (also einer kontinuierlichen Menge) steht für die algorithmische Bestimmung lediglich eine Diskretisierung des Objekts (also das Samplings des Objekts auf einem Punktgitter) zur Verfügung. Die Qualität eines bildanalytischen Algorithmus wird durch die Abweichung des Objektmerkmals von seinem Messwert beurteilt.

Analyse 2-dimendionaler Bilder

Die Methoden der Digitalen Bildanalyse sind an die Art der Bildinhalte gebunden. Im Folgenden werden Bilder von einzelnen Objekten und Bilder von Strukturen unterschieden.

Merkmale von Objekten

Die Bestimmung der Merkmale eines diskretisierten Objekts (also des Samplings einer kompakten Teilmenge des auf einem Punktgitter) setzt die Erkennung topologisch getrennter Objekte in Binärbildern durch eine Konturfolge oder ein Labeling von Zusammenhangskomponenten voraus, wobei der Konturfolgealgorithmus (also die Erzeugung des Freemanschen Kettencodes) und das Labeling streng genommen der Bildverarbeitung (und nicht der Bildanalyse) zuzuordnen sind. Sowohl die Konturfolge als auch das Labeling sind an eine Wahl der Nachbarschaft der Pixel gebunden (4-er, 6-er oder 8er-Nachbarschaft).

Die Qualität einer bildanalytischen Methode wird anhand der Differenz zwischen den Merkmalen von und den an Diskretisierungen von bestimmten Merkmalen beurteilt.

Basismerkmale

Die Basismerkmale eines Objekts (in der Sprache der Integralgeometrie die Quermaßintegrale) sind bis auf konstante Faktoren

  • – die Fläche (area),
  • – der Umfang und
  • – die Euler-Zahl (d. h. die Euler-Poincaré-Charakteristik).
Abbildung 2: Gaußdigitalisierung eines Objekts (digitales Binärbild, links), rechts: Typen der -Umgebungen der Pixel (pseudokoloriert, rechts)
Tabelle der Gewichten zur Berechnung der Basismerkmale

Diese drei Merkmale sind in gewissem Sinne vollständig. Jedes weiter Merkmal mit den oben genannten Eigenschaften ist eine Linearkombination der drei Basismerkmale (Satz von Hadwiger) und daher redundant. Basismerkmale zeichnen sich dadurch aus, dass sie sich aufgrund ihrer Additivität aus lokaler Bildinformation bestimmen lassen, also aus der Konfiguration der -Umgebungen der Pixel[14], siehe Abbildung 2 (rechts). Die Basismerkmale errechnen sich aus der gewichteten Summe der Pixelumgebungen, wobei die Gewichte für quadratische Pixel der Tabelle entnommen werden können. Für die Berechnung des Umfangs sind die Gewichte für ein Rendering des diskretisierten Objekts angegeben. Alternative Gewichte, die im Allgemeinen zu einer höheren Genauigkeit der Umfangsbestimmung führen, können mit einer diskreten Version der der Crofton-Formel erhalten werden.[14] In Abbildung 3 ist ein Test zur Genauigkeit der Umfangsbestimmung dargestellt. Die Gewichte zur Berechnung der Euler-Zahl hängen von der Wahl der Nachbarschaft der Pixel ab.

Abbildung 3: Test der Genauigkeit der Umfangbestimmung mit den Gewichten , die durch die Crofton-Fromel erhalten wurden: Gauß-Digitalisierung von Quadraten der Kantenlänge 20 μm mit zufälliger Lage (Pixelgröße 1 μm). Die Quadrate wurden mit dem Wert des gemessenen Umfangs pseudokoloriert.

Unter idealen Bedingungen (ausreichender Kontrast der Abbildung und fehlerfreie Segmentierung) können für den relative Fehler der Flächenbestimmung Grenzen angegeben werden. Aus der lokalen Steiner-Formel folgt

wobei die Pixelgröße bezeichnet.[14] Mit zunehmender lateraler Auflösung, d. h. kleiner werdender Pixelgröße , konvergiert die gemessene Fläche also gegen den exakten Wert. Die Flächenmessung ist also multigrid-konvergent. Für Messungen des Umfangs und der Euler-Zahl gilt das im Allgemeinen nicht.

Aus den Basismerkmalen lassen sich weitere Merkmale berechnen, unter anderem:

  • – die Rundheit (roundness, circularity, isoperimetrischer Formfaktor, folgt aus der isoperimetrischen Ungleichung) und
  • – der Durchmesser des flächengleichen Kreises (Äquivalentdurchmesser).

Für die Rundheit gilt für alle Objekte , und für kreisförmige Objekte ist .

Die Euler-Zahl ist gleich 1 minus die Anzahl der Löcher im Objekt und daher eine topologische Kennzahl. Sie lässt sich als alternierende Summe der Tangentenzahlen , , und des Objekts darstellen,

.

Ohne Beschränkung der Allgemeinheit werden nur horizontale Tangenten an den Rand von betrachtet. Dabei bezeichnen die Tangentenzahlen vom Typ :

  • Typ 1 – Tangenten an konvexe Teile des Randes , wobei das Innere von lokal (d. h. in einer Umgebung eines Tangentialpunktes) unterhalb der Tangente liegt (obere Endpunkte, upper end points),
  • Typ 2 – Tangenten an einen konkaven Teil von , wobei der Bildhintergrund von (d. h. die Komplementärmenge von ) lokal unterhalb der Tangente liegt (obere Verzweigungspunke, upper branch points oder upper fork points),
  • Typ 3 – Tangenten an einen konkaven Teil von , wobei lokal unterhalb der Tangente liegt (untere Verzeigungspunkte) und
  • Typ 4 – Tangenten an konvexe Teile des Randes , wobei das Innere von lokal oberhalb der Tangente liegt (untere Endpunkte).

Den Tangentanzahlen kommt in der Bildanalyse eine eigenständige Bedeutung zu, z. B. bei der Bestimmung der Anzahl von Verzweigungspunkten (fork count) von Objekten oder deren Skelette, wobei für Skelette noch Kreuzungspunkte (junction points) zu berücksichtigen sind.[15][16][17] Die Zählung von Endpunkten findet Anwendung bei der Zählung sich gegenseitig überlappender, gerader Fasern in Bildern veraschter Faserverbundwerkstoffe[18] oder der Spuren radioaktiver Strahlung in Bildern von Festkörperspurdetektoren (solid state nuclear track detectors, SSNTD).

Zu den additiven Merkmalen eines Objekts zählen auch die integrierte Helligkeit (integrierte Extinktion) und die integrierte quadratische Helligkeit, die sich als Summe bzw. Quadratsumme der Grauwerte der Pixel eines Objekts bestimmen lassen. Daraus können die mittlere Extinktion und die Standardabweichung der Extinktion berechnet werden.

Momente

Weitere bildanalytisch einfach bestimmbare Merkmale sind nichtzentrierte und zentrierte Momente. Dazu gehören der geometrische Schwerpunkt und die Halbachsenlängen der an ein Objekt angepassten Ellipse sowie die Richtung der großen Halbachse.

Ist ein kompaktes Objekt und ein Punkt mit den Koordinaten und , dann sind

und

die Koordinaten des Schwerpunkts von , der dessen Lage im Bild charakterisiert (und einer der wenigen Merkmale darstellt, die mit Subpixelgenauigkeit[19] gemessen werden können).

Aus den zentrierten zweiten Momenten:

,
und

lassen sich die Parameter der an das Objekt angepassten Ellipse berechnen. Sind und die Eigenwerte der Matrix

,

dann sind und die beiden Halbachsenlängen der Ellipse.[14]

Merkmale der konvexen Hülle

Zu den Merkmalen der konvexen Hülle[20] eines Objekts zählen

  • – die Fläche der konvexen Hülle und
  • – der Umfang der konvexen Hülle.

Die Euler-Zahl der konvexen Hülle ist gleich 1.

Die konvexe Hülle der Pixel eines Objekts ist ein Polygon , dessen Kantenzug effektiv z. B. mit dem Graham-Scan-Algorithmus aus den Randpixeln der Diskretisierung von berechnet werden kann. Allerdings sind die Fläche und der Umfang kleiner als bzw. . Zur Berechnung von und werden daher die Korrekturformeln

bzw.

verwendet, wobei die Pixelgröße ist.[14] Diese Formeln sind Spezialfälle der Steiner-Formel.

Gebräuchlich in der Digitalen Bildanalyse sind auch die Kennzahlen:

  • und – die Konvexität,
  • – die Rundheit der konvexen Hülle,
  • – die Breite (Feretscher Durchmesser, Kaliber-Durchmesser) als Funktion der Richtung mit ,
  • – die mittlere Breite,
  • – die minimale Breite,
  • – die maximale Breite und
  • – der Streckungsgrad (aspect ratio),

die sich direkt aus dem Polygonzug der konvexen Hülle berechnen lassen. Die Differenz wird als konvexes Defizit bezeichnet.

Die mittlere Breite ist proportional zum Umfang der konvexen Hülle, (Cauchy-Formel). Die Konvexitäten und nehmen Werte zwischen 0 und 1 an. Für konvexe Objekte ist . Für die Rundheit der konvexen Hülle gilt analog zu oben , wobei für kreisförmige Objekte wieder ist. Es ist auch mit für Gleichdicke (z. B. für des Reuleaux-Dreieck).

Bei der bildanalytischen Bestimmung der Breite als Funktion der Richtung wird zunächst die Stützfunktion des Polygons (z. B. bezüglich des Schwerpunkts der Eckpunkte von ) für berechnet, also der kleinste Abstand zwischen dem Schwerpunkt und der Tangente (d. h. der Stützgeraden) an , die senkrecht zur Richtung ist. Die Stützfunktion von ist eine stückweise Kosinusfunktion, die durch ihre Koeffizienten repräsentiert werden kann. Aus der Stützfunktion von erhält man die Breite von ,

.

Außerdem gilt

und ,

wobei die erste Ableitung von bezeichnet.[21][22]

Merkmale 2-dimensionaler Strukturen

Ein wichtiges Teilgebiet der Digitalen Bildanalyse ist die Bestimmung von Merkmalen an Bildern zufälliger Strukturen (z. B. Mikrostrukturen von Materialien, meist ebene Schnitte durch 3-dimensionale Mikrostrukturen), die makroskopisch homogen (d. h. räumlich stationär) sind. Makroskopisch homogen bedeutet in diesem Zusammenhang, dass das Verteilungsgesetz der zufälligen Struktur invariant bezüglich Verschiebungen ist. Bis auf Fluktuationen enthalten Bilder, die von verschiedenen Stellen der Struktur aufgenommen wurden, identische Information über die Struktur.

Bestehen die Strukturen aus voneinander unterscheidbaren Bestandteilen (z. B. Phasen), die sich mit präparativen oder optischen Methoden hinreichend gut kontrastieren lassen, so dass sie in den erhaltenen Bildern segmentierbar sind (z. B. durch eine einfache Binarisierung bezüglich einer Binarisierungsschwelle), dann können an einem entsprechenden Binärbild:

  • – der Flächenanteil (area fraction) eines Bestandteils, d. h. der Erwartungswert der Fläche des Bestandteils bezogen auf die Fläche des Bildausschnittes,
  • – die spezifische Randlänge, d. h. die Randlänge pro Flächeneinheit und
  • – die spezifische Euler-Zahl, d. h. die Eulerzahl pro Flächeneinheit

bildanalytisch bestimmt werden.[11] Besteht eine 2-dimensionale Struktur aus topologisch einfachen Objekten (also Objekten ohne Löcher), dann ist die mittlere Anzahl der Objekte pro Flächeneinheit.

Ähnlich wie die Bestimmung der Basismerkmale von Objekten können , und aus lokaler Bildinformation, d. h. aus den -Umgebungen der Pixel des Binärbildes berechnet werden.[14]

Von Bedeutung sind auch verallgemeinerten Größen- und Abstandsverteilungen, unter anderem die sphärische Granulometrie oder die sphärische Kontaktverteilung, die sich mithilfe der Opening- bzw. Distanztransformation des Binärbildes bildanalytisch bestimmen lassen.

Besteht ein Bestandteil der Struktur aus einzelnen Objekten (Teilchen) oder lässt sich der Bestandteil durch die Vorgabe von inhaltlicher oder formaler Kriterien mit Methoden der Bildverarbeitung in einzelne Objekte zerlegen, dann können Mittelwerte, Standardabweichungen oder Verteilungen von Merkmalen der im Bild enthaltenen Objekte bestimmt werden, z. B. die Verteilung der mittleren Breite (d. h. des mittleren Feretschen Durchmessers) oder der Rundheit der im Bild enthaltenen Objekte. Dabei sind im Allgemeinen Bildrandkorrekturen vorzunehmen (Miles-Lantuéjoul correction[23] oder Horovitz-Thomson procedure).

Die Bestimmung der Merkmale von Objekten dient auch ihrer bildanalytischen Klassifikation, wobei Klassen von Objekten durch Grenzen ihrer Merkmale determiniert.

Analyse 3-dimensionaler Bilder

Quellen 3-dimensionaler Bilddaten sind neben der Computertomographie (CT) auch die Konfokalmikroskopie und die Ionendünnung kombiniert mit Rasterelektronenmikroskopie (FIB mit SEM). Dabei werden Sequenzen von 2-dimensionalen Bildern erhalten, die als 3-dimensionale Pixelmatrizen aufgefasst werden können, wobei ein Pixel auch als Voxel bezeichnet wird.[24]

Merkmale von Objekten

Eine Voraussetzung für die bildanalytische Bestimmung von Objektmerkmalen ist eine Objekterkennung in einem Binärbild durch ein Oberflächenrendering (also eine Triangolation oder Polygonalisierung der Oberfläche, in gewissem Sinne eine Übertragung der Konturfolge auf 3-dimensionale Bilddaten) oder ein Labeling der Zusammenhangskomponenten.

Zu den Merkmalen eines 3-dimensionalen Objekts (d. h. einer topologisch abgeschlossenen, kompakten Menge mit hinreichend glattem Rand) zählen die Basismerkmale:

  • – das Volumen,
  • – die Oberfläche (surface area),
  • – das Integral der mittleren Krümmung (Germainsche Krümmung) und
  • – das Integral der totalen Krümmung (Gaußsche Krümmung)

(bis auf konstante Faktoren die vier Quermaßintegrale)[24]. Die beiden Krümmungsintegrale bedürfen einer Interpretation. Ist das Objekt konvex, dann ist bis auf einen konstanten Faktor gleich der mittleren Breite von ; es gilt . Für lang gesteckte Objekte (z. B. gekrümmte Fasern mit vaiierendem Querschnitt) ist , wobei die Länge von der Faser bezeichnet.[24] Das Integral der totalen Krümmung ist bis auf einen konstanten Faktor gleich der Euler-Zahl, , und daher eine topologische Invariante.

Neben der mittleren Breite werden noch die Durchmesser bzw. der volumengleichen bzw. oberflächengleichen Kugel verwendet,

, ,

die als Äquivalentdurchmesser oder Sauter-Durchmesser bekannt sind und in der Fluiddynamik eine gewisse Rolle spielen[25].

Aus den ersten drei Basismerkmalen lassen sich drei isoperimetrische Formfaktoren ableiten,

, und ,

die so normalisiert sind, dass für kugelförmige Objekte ist.[24] Abweichungen von beschreiben verschiedene Aspekte der Abweichung von der Kugelform. Allgemein gilt und für konvexe Objekte .

Wegen ihrer Additivität können die Basismerkmale (ähnlich wie in der 2-dimensionalen Bildanalyse) aus lokaler Information, d. h. aus -Konfigurationen der Pixel des Binärbildes bildanalytisch bestimmt werden (marching cube algorithm).[24]

Merkmale 3-dimensionaler Strukturen

Zu den Merkmalen von Bestandteilen (Phasen) makroskopisch homogener 3-dimensionaler Strukturen gehören:

  • – der Volumenanteil (volume fraction),
  • – die spezifische Oberfläche (specific surface area),
  • – das Integral der mittleren Krümmung pro Volumeneinheit und
  • – das Integral der totalen Krümmung pro Volumeneinheit,

die bis auf konstante Faktoren Dichten der Quermaßintegrale sind.[26] Ähnlich wie die Basismerkmale von Teilchen können diese Dichten effektiv aus -Konfigurationen der Pixel des 3-dimensionalen Binärbildes bestimmt werden können.[24]

Der so genannte Struktur-Modell-Index (structure model index, SMI) ist ein Formfaktor für Bestandteile zufälliger Strukturen,

,

der ursprünglich zur Beurteilung von Osteoporose in mikrotomographischen Aufnahmen von Knochenstrukturen verwendet wurde.[27]

Aufgrund der makroskopischen Homogenität der Struktur ist der Volumenanteil gleich dem an einem ebenen Schnitt durch die Struktur bestimmbaren Flächenanteil ,

.

diese einfache, aber wichtige stereologische Gleichung geht auf Auguste Delesse zurück. Ist die Struktur außerdem isotrop, d. h., ist das Verteilungsgesetz der zufälligen Struktur invariant bezüglich Drehungen, gelten zusätzlich die stereologischen Gleichungen

und .

Weitere stereologische Formeln sind u. a. in den Büchern von Sarkis A. Saltykov, Fredrick Nims Rhines, Hans Eckart Exner und Hans Paul Hougardy zu finden.[28][29][30]

Software (Auswahl)

Für die Digitale Bildanalyse gibt es zahlreiche eigenständige, von der Art der Bildgebung weitgehend unabhängige und daher allgemein anwendbare Softwarepakete. Dazu gehören:

  • das System OpenCV[31] (Open Source Computer Vision Library),
  • die Aurora Imaging Library[32] (ehemals Matrox Imaging Library) von Zebra Ltd.,
  • das C++-Toolkit Dlib[33] mit einem Fokus aufmaschinelles Lernen,
  • das in Java geschriebene und damit plattformübergreifende System ImageJ[34],
  • das System Halcon[35] der Firma MVTec Software GmbH,
  • die Software der Fa. Stemmer[36],
  • das System ToolIP[37] des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik,
  • Produkte der Firma PixelFerber[38] für die Mikroskopbildverarbeitung,
  • das Modul LabVIEW Vision im System LabVIEW der National Instruments AG[39] und
  • die Programmbibliothek Caffe, die zahlreiche Algorithmen und Deep-Learning-Architekturen für die Klassifikation und Clusteranalyse von Bilddaten enthält[40].

Stärker an die Abbildungstechnik gebunden sind z. B. Softwareprodukte der Firmen:

Darüber hinaus sind umfangreiche Pakete für die Digitale Bildanalyse in die Systeme:

integriert.

Im Mittelpunkt steht zunehmend die Anwendung von Künstlicher Intelligenz (KI) zur Lösung komplexer Segmentierungsprobleme, der Objekttrennung bis hin zur Bestimmung der für die jeweilige Applikation signifikanten Merkmale.

Weiterführende Literatur

  • Sung Nok Chiu, Dietrich Stoyan, Wilfrid S. Kendall, Joseph Mecke (2013) Stochastic Geometry and its Applications. John Wiley & Sons, Ltd., Chichester, ISBN 978-0-470-66481-0
  • John J. Friel (2000) A Practical Guide to Image Analysis. ASM International, Materials Park, OH, ISBN 978-0-87170-688-1
  • Lawrence O’Gorman, Michael J. Sammon, Michael Seul (2008) Practical Algorithms for Image Analysis, 2nd Ed. Cambridge University Press, Cambridge, ISBN 978-0-521-88411-2
  • Donat-P. Häder (2001) Image Analysis. Methods and Applications, 2nd Ed. CRC Press, Boca Raton, London, New York, Woshington D.C., ISBN 0-8493-0239-0
  • Magdalena Hykšová, Anna Kalousová und Ivan Saxl (2012) Early history of geometric probability and stereology. Image Anal. Stereol. 31, S. 1–16.
  • Reinhard Klette and Azriel Rosenfeld (2004) Digital Geometry. Geometric Methods for Digital Picture Analysis. Morgan & Kaufmann, San Francisco, ISBN 978-1-4933-0372-4
  • Gabriele Lohmann (1998) Volumetric Image Analysis. Wiley & Teubner, Chichester, London, ISBN 978-0-471-96785-9
  • Ramakrishnan Mukundan, Kishore Ranganath Ramakrishnan (1998) Moment Functions in Image Analysis: Theory and Applications. World Scientific, Singapore, ISBN 981-02-3524-0
  • Joachim Ohser und Frank Mücklich (2000) Statistical Analysis of Microstructures in Materials Sciences. John Wiley & Sons, Chichester, ISBN 0-471-97486-2
  • Rolf Schneider (2013) Convex Bodies: The Brunn–Minkowski Theory, 2. Aufl. Cambridge University Press, Cambridge, ISBN 978-0-521-05991-6
  • Rolf Schneider, Wolfgang Weil (2010) Stochastische Geometrie. Vieweg+Teubner Verlag Wiesbaden, ISBN 978-3-519-02740-9
  • Richard Wootton, David Springall, Julia Polak (1995) Image Analysis History. Conventional and Confocal Microscopy. ISBN 0-521-43482-3

Einzelnachweise

Related Articles

Wikiwand AI