Fehlaktivierungen in der funktionellen Magnetresonanztomographie: Ursachen und mathematische Korrekturstrategien anhand von Simulationen und Meßdaten

Fehlaktivierungen in der funktionellen Magnetresonanztomographie: Ursachen und mathematische Korrekturstrategien anhand von Simulationen und Meßdaten

Beschreibung

vor 17 Jahren
Ein ernstes Problem stellt sich bei der Interpretation von
funktionellen Magnetresonanztomographie-Aufnahmen (fMRT), wenn in
den SPMs (Statistical Parametric Maps) Über- oder
Unteraktivierungen auftreten. Es gibt a priori keine Möglichkeit,
um zwischen "realer" neuronaler Aktivität und
Über-/Unteraktivierung, die durch Artefakte hervorgerufen wird, zu
differenzieren. In vielen Fällen – z.B. wenn die Ventrikel als
aktiv klassifiziert werden – kann man davon ausgehen, daß es sich
nicht um neuronale Aktivität handelt, sondern um Noise (Störungen)
in den Meßdaten, welche durch Artefakte hervorgerufen wurden.
Jedoch können auch in allen anderen Fällen bei statistischer
Evaluierung, die auf T- oder Z-Statistik beruht, durch Artefakte
Anomalien in den T- bzw. Z-Werte-Verteilungen hervorgerufen werden.
Wichtige Informationen zur Identifikation und Kompensation von
Noise lassen sich also aus der Verteilung der T- oder Z-Werte
ableiten. Das Ziel dieser Arbeit war, eine Methode zu entwickeln,
die anhand der Charakteristika von T- bzw. Z-Werte-Verteilungen die
Identifikation von Artefakten ermöglicht. Weiterhin sollten neue
Thresholding-Verfahren erarbeitet werden, welche den von Artefakten
hervorgerufenen Noise kompensieren und somit Über- bzw.
Unteraktivierung verringern oder eliminieren. In einem ersten
Schritt wurden die T-Werte-Verteilungen aus Messungen von gesunden
Probanden, die teilweise artefaktbehaftet waren, in Hinblick auf
die Charakteristika Verschiebung, Breite und Deformation
analysiert. Diese empirischen Daten ergaben, daß Anomalien in der
T-Werte-Verteilung kein zu vernachlässigender Ausnahmefall sind.
Mit der neu entwickelten Methode zur Identifikation von Artefakten
konnten bei 98 % der Messungen anomale Charakteristika der
T-Werte-Verteilungen nachgewiesen werden. Eine Analyse der
T-Werte-Verteilung ist demzufolge unbedingt erforderlich, um die
Qualität der Meßergebnisse und somit die Aussagekraft der
Voxelaktivierungen beurteilen zu können. Hierfür stellen die in
dieser Arbeit entwickelten Methoden ein effektives Werkzeug dar. Im
nächsten Schritt wurden anhand von Simulationsdaten die Ursachen
für die Anomalien der T-Werte-Verteilungen untersucht. Es zeigte
sich, daß Verschiebungen, Verbreiterungen oder Deformationen der
T-Werte-Verteilung durch Korrelationen von Artefakten mit dem
Paradigma hervorgerufen wurden. Basierend auf diesen Ergebnissen
wurden Adaptive Thresholding-Verfahren entwickelt, die Anomalien in
der T-Werte-Verteilung und somit Artefakte kompensieren können. Bei
Adaptiven Thresholds wird die verwendete theoretische
Wahrscheinlichkeitsdichtefunktion (Probability Density Function,
PDF) an die empirische T-Werte-Verteilung angepaßt. Die
verschiedenen Adaptiven Thresholds – Shifted, Fitted, Proportional
– unterscheiden sich in der Art und Weise, wie die Anpassung der
PDF an die empirische T-Werte-Verteilung durchgeführt wird. Diese
Verfahren wurden schließlich auf Simulationsdaten und
fMRT-Messungen gesunder Probanden angewandt. Dabei konnte gezeigt
werden, daß Artefakte nicht zwangsläufig eine Verschlechterung der
Ergebnisse bewirken. Es war allerdings erforderlich, ein zu den
Artefakten bzw. Anomalien passendes, Adaptives
Thresholding-Verfahren anzuwenden. Die in dieser Arbeit
entwickelten Shifted Thresholds liefern bei verschobenen
T-Werte-Verteilungen wesentlich bessere Ergebnisse als die
etablierten Standard Thresholding-Verfahren. Daher wird für
zukünftige Untersuchungen die Anwendung von Shifted Thresholds
vorgeschlagen.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: