2011 – Medizinische Physik
Transcription
2011 – Medizinische Physik
3 Ländertagung der ÖGMP, DGMP und SGSMP 2011 – Medizinische Physik Wien, 28.09.-01.10.2011 Abstracts ISBN: 3-925218-89-0 Wissenschaftliches Komitee Leitung: Prof. Dr. Helmar Bergmann Strahlentherapie: Dr. Markus Alber, München Prof. Dr. Dimos Baltas, Offenburg Prof. Dr. Ludwig Bogner, Regensburg Prof. Dr. Wolfgang Enghardt, Dresden Prof. Dr. Dietrich Harder, Göttingen Dr. Norbert Hodapp, Freiburg Prof. Dr. Peter Kneschaurek, München Prof. Dr. Uwe Oelfke, Heidelberg Prof. Dr. Björn Poppe, Oldenburg Prof. Dr. Wolfgang Schlegel, Heidelberg PD Dr. Harald Treuer, Köln Dr. Tilo Wiezorek, Jena Prof. Dr. Ulrich Wolf, Leipzig Prof. Dr. Klemens Zink, Giessen-Marburg Prof. Dr. Dietmar Georg, Wien Dr. Peter Manser, Bern PD Dr. Uwe Schneider, Aarau Röntgendiagnostik: Prof. Dr. Christoph Höschen, Neuherberg/München Prof. Dr. Willi Kalender, Erlangen Dr. Michael Wucherer, Nürnberg Prof. Dr. Peter Homolka, Wien Prof. Dr. Francis Verdun, Lausanne MR-Bildgebung: PD Dr. Michael Bock, Heidelberg Prof. Dr. Gunnar Brix, Neuherberg/München Dr. Günther Schulz, Freiburg Prof. Dr. Uwe Klose, Tübingen Prof. Dr. Laura Schreiber, Mainz Prof. Dr. Ewald Moser, Wien Prof. Dr. Klaus Scheffler, Basel Nuklearmedizin: Prof. Dr. Gerhard Glatting, Ulm Prof. Dr. Jörg van den Hoff Prof. Dr. Michael Lassmann, Würzburg Dr. Michael Mix, Freiburg PD Dr. Klaus Schäfers, Münster Prof. Dr. Sibylle Ziegler, München Dr. Boris Warwitz, Innsbruck Prof. Dr. Fred Corminboeuf, Lausanne Dr. Claudia Kuntner, Seibersdorf Strahlenschutz / QS: Dr. Wolfgang Eschner, Köln PD Dr. Lilli Geworski, Hannover Univ. Doz. Dr. Georg Stücklschweiger, Graz Dr. Gerd Lutters, Aarau Bildverarbeitung: Prof. Dr. Nassir Navab, München Prof. Dr. Wolfgang Birkfellner, Wien 2 Audiologie: Prof. Dr. Dr. Biger Kollmeier Dr. Bernhard Laback Biomedizinische Technik: Prof. Dr. Olaf Dössel Prof. Dr. Winfried Mayr Optik Prof. Dr. Wolfgang Drexler, Wien Prof. Dr. Monika Ritsch-Marte Team Die Veranstaltung findet unter Schirmherrschaft der ÖGMP, DGMP und SGSMP statt. Tagungspräsident: Univ.-Doz. Dipl.-Ing. Dr. Dietmar Georg Medizinische Universität Wien, Univiversitätsklinik für Strahlentherapie, Abteilung für Med. Strahlenphysik Währinger Gürtel 18-20, A- 1090 Wien Präsident der ÖGMP: Dr. Werner Schmidt Institut für Radioonkologie, SMZO Wien -Donauspital, Langobardenstraße 122, A-1220 Wien Wissenschaftliches Programm: Prof. Dr. Helmar Bergmann Medizinische Universität Wien, Zentrum für Medizinische Physik und Biomedizinische Technik, Währinger Gürtel 18-20, A-1090 Wien Lokale Organisation: Prof. Dr. Wolfgang Birkfellner Medizinische Universität Wien, Zentrum für Medizinische Physik und Biomedizinische Technik, Währinger Gürtel 18-20, A-1090 Wien Kongressorganisation: Wiener Medizinische Akademie Alser Strasse 4, A-1090 Wien Telefon: +43 1 405 13 83 0, Fax: +43 1 405 13 83 23 e-mail: medphyswien2011@medacad.org www.medacad.org Industrieausstellung und Sponsoring: Medizinische Ausstellungs- und Werbegesellschaft Freyung 6, A-1010 Wien Telefon: +43 1 536 63 30 Fax: +43.1.535 60 16 e-mail: maw@media.co.at Inhaltsverzeichnis VORTRÄGE ...........................................................................................................................................................................................................................4 Pre-Kongress: Binaurales Hören mit Hörgeräten und Cochleaimplantaten......................................................................................................................4 Session 1: Präzisions-Radiotherapie mittels Photonen I ..................................................................................................................................................6 Session 2: Präzisions-Radiotherapie mittels Photonen II ...............................................................................................................................................10 Session 3: Information und Bildverarbeitung ..................................................................................................................................................................15 Session 4: Instrumentierung und Bildverarbeitung .........................................................................................................................................................18 Session 5: Strahlenschutz und Qualitätssicherung.........................................................................................................................................................21 Session 6: Qualitätssicherungsaspekte bei Spezialverfahren der Strahlentherapie.......................................................................................................24 Session 7: Audiologie - Qualitätsaspekte beim Hören mit Bilateralen Cochleaimplantaten und Hörgeräten .................................................................28 Session 8: Aktuelle Entwicklungen in der Dosimetrie .....................................................................................................................................................30 Session 9: Freie Themen aus dem Bereich der Strahlentherapie ..................................................................................................................................34 Session 10: Audiologie....................................................................................................................................................................................................38 Session 11: Protonen- und Ionentherapie: Neue Anlagen und Technologien ................................................................................................................40 Session 12: Protonen- und Ionentherapie: Präzisionstherapie und biologische Modellierung .......................................................................................43 Session 13: Nuklearmedizin - Quantitative Bildgebung ..................................................................................................................................................46 Session 14: Präklinische Bildgebung ..............................................................................................................................................................................48 Session 15: Radiodiagnostik...........................................................................................................................................................................................49 Session 16: Strahlentherapie - Dosisberechnungsalgorithmen und Monte-Carlo Anwendungen ..................................................................................51 Session 17: Optische Bildgebung - Morphologie, Kontrasterhhung und Gewebsfunktion..............................................................................................55 Session 18: Optische Bildgebung II ................................................................................................................................................................................56 Session 19: Funktionelle und strukturelle Hochfeld MR - aktuelle Entwicklungen..........................................................................................................58 Session 20: Hochfeld MR II.............................................................................................................................................................................................60 Session 21: Rekonstruktion, Visualisierung, Technologien ............................................................................................................................................64 Session 22: Rekonstruktion, Visualisierung II .................................................................................................................................................................65 Session 23: Biochemische und molekulare Informationen im MR-Signal: Spektroskopie und mehr..............................................................................68 Session 24: Biochemische und molekulare Informationen im MR-Signal: X-Kerne und spezielle MRI-Anwendungen..................................................71 Session 25: Biomedizinische Technik I...........................................................................................................................................................................74 Session 26: Biomedizinische Technik II............................................................................................................................................................................76 Session 27: Medizinische Physik in den Entwicklungsländern .......................................................................................................................................81 POSTER ...............................................................................................................................................................................................................................83 Poster 01: MRI und Spektroskopie .................................................................................................................................................................................83 Poster 02: Biomedizinische Technik ...............................................................................................................................................................................85 Poster 03: Freie Themen ................................................................................................................................................................................................88 Poster 04: Bildgebung und Bildverarbeitung...................................................................................................................................................................91 Poster 05: Strahlenschutz ...............................................................................................................................................................................................95 Poster 06: Bildgeführte Radiotherapie (IGRT) ................................................................................................................................................................99 Poster 07: Dosisberechung und Monte-Carlo Anwendungen in der Strahlentherapie .................................................................................................102 Poster 08: Protonen- und Ionentherapie .......................................................................................................................................................................105 Poster 09: Dosimetrie und Qualitätssicherung in der Strahlentherapie ........................................................................................................................113 Poster 10: IMRT - Bestrahlungsplanung, Verifikation und klinische Erfahrung.............................................................................................................125 AUTORENINDEX ...............................................................................................................................................................................................................133 Für in der fortlaufenden Nummerierung fehlende Abstracts wurden keine Texte eingereicht. 3 VORTRÄGE Pre-Kongress: Binaurales Hören mit Hörgeräten und Cochleaimplantaten A.01 Temporal information processing in the binaural auditory system S. van de Par; Acoustics Group, Oldenburg, Germany. The binaural auditory system enables listeners to hear the direction of sound sources but also to better hear the presence of specific sound sources that are presented in background noise such as is demonstrated by the Binaural Masking Level Difference that is observed in basic psycho acoustical studies. This ability to hear the presence of a certain sound source based on binaural cues would be rather useless if in practical situations we were not able to recognize any of the specific characteristic of the target source. Therefore in this presentation some experiments will be discussed that deal with the ability to hear basic characteristics of a target source in the presence of background noise using binaural cues. The first set of experiments deal with tone complexes that are masked by noise that covers the same spectro-temporal interval and which have different interaural parameters. Results show that listeners were able to hear the temporal characteristics of the tone complex at presentation levels where the tone complex could not be heard based on only monaural cues. This indicates that the binaural system is able to temporally process the binaural cues resulting from the target signal. The second experiment investigates with similar tone complexes that are presented in masking noise under what conditions the binaural cues corresponding to the tone complex can be processed such that the correct lateral position of the tone complex is heard by the listeners. Because the components of the tone complex are spectrally unresolved, there is no auditory filter where the tone complex dominates in power over the noise and segregation of the tone complex from the background noise can only be achieved based on fast temporal binaural processing of alternating binaural cues. Results suggest that the binaural system is fast enough to temporally resolve binaural cues at a rate of up to 40 Hz and hear the correct lateral positions of the different stimulus components that are mixed together. To conclude, some suggestions will be derived from these experiments with regard to binaural cue representations that are required in binaural hearing aids. A.02 Wahrnehmung von interauralen Zeitdifferenzen bei Cochleaimpantatträgern und Schwerhörigen B. Laback, P. Majdak; Institut für Schallforschung, Österreichische Akademie der Wissenschaften, Wien, Austria. Die Kodierung der lateralen Position einer Schallquelle basiert auf der Auswertung von binauralen Unterschieden zwischen den an den beiden Ohren eintreffenden Schallwellen. Diese Unterschiede sind interaurale Pegeldifferenzen und interaurale Zeitdifferenzen (ITDs). Insbesondere ITDs sind wichtig für die Lokalisation von Schallquellen, die Sprachwahrnehmung im Störgeräusch, und die räumliche Orientierung in komplexen akustischen Umgebungen. ITDs werden bei tiefen Frequenzen primär im Trägersignal (Feinstruktur) und bei hohen Frequenzen - im Falle von amplitudenmodulierten Signalen - in der Hüllkurve ausgewertet. Personen mit cochleärem Hörschaden zeigen oft reduzierte ITD-Sensitivität im Vergleich zu Normalhörenden. Diese Reduktion betrifft sowohl Feinstruktur- als auch Hüllkurven-ITD, erstere aber in stärkerem Ausmaß. Mögliche Ursachen für reduzierte Feinstruktur-ITD-Sensitivität bei cochleärem Hörverlust sind a) reduzierte Anzahl von Hörnervenfasern und b) Veränderung des spektro-temporalen Anregungsmusters innerhalb eines Frequenzbandes und die dadurch verursachte Störung der Kodierung der zeitlichen Information über die Nervenfasern hinweg. Eine mögliche Ursache für reduzierte Hüllkurven-ITD-Sensitivität ist die mit cochleärem Hörverlust einhergehende Veränderung der Phasenantwort der auditorischen Filter und die damit verbundene suboptimale auditorische Repräsentation der zeitlichen Modulation.Cochleaimpantatträger zeigen ebenfalls starke 4 Reduktion sowie grosse interindividuelle Variabilität der ITD-Sensitivität bei exakter binauraler Kontrolle der Elektrodensignale. Im Falle von ITD zwischen den Einzelpulsen (definiert als Feinstruktur) nimmt die Sensitivität mit steigender Pulsrate rapide ab, ähnlich dem sogenannten binauralen Adaptationseffekt bei der Hüllkurven-ITD-Wahrnehmung bei Normalhörenden. Im Falle von Hüllkurven-ITD tritt eine allgemeine Reduktion der Sensitivität gegenüber Normalhörenden auf. Mögliche Ursachen für die verschiedenen Aspekte der Reduktion der ITDSensitivität bei Cochleaimpantatträger werden derzeit untersucht. Die Wahrnehmung breitbandiger oder multipler Schallquellen stellt aufgrund der bei Schwerhörigen und Cochleaimpantatträgern reduzierten spektralen Auflösung eine besondere Herausforderung dar. Die Wahrnehmung von ITD-Information in einem Frequenzband kann durch Kanalinteraktionen mit gleichzeitig dargebotenen Nachbarkanälen gestört werden. Testbedingungen mit breitrandigen und/oder multiplen Schallquellen wurden bisher aber wenig untersucht. Neben der Einführung in die ITD-Wahrnehmung bei Schwerhörigen und Cochleaimpantatträgern geht der Vortrag auf die praktischen Auswirkungen beim räumlichen Hören und auf die Entwicklung von Strategien zur gezieltem Verbesserung der ITD Wahrnehmung in zukünftigen bilateralen Hörsystemen ein. A.03 Binaurale Hörgeräte in der Praxis: Technologie und Zufriedenheit M. Kinkel; KIND Hörgeräte, Burgwedel, Germany. Das binaurale Hören bildet eine wesentliche Voraussetzung für das räumliche Hören und das Richtungshören und ist damit unabdingbar für das Sprachverstehen in komplexen und lärmbehafteten Hörsituationen. Viele Schwerhörige leiden besonders unter ungenügenden Hörleistungen, besonders unter einem reduzierten Sprachverstehen in solchen Hörsituationen. In der Praxis liegt in den meisten Fällen eine symmetrische, beide Ohren gleichermaßen betreffende Schwerhörigkeit vor. Diese Fälle sollten möglichst auch mit zwei Hörgeräten versorgt werden. Während bisher die Signalverarbeitung in beiden Hörgeräten unabhängig voneinander war ("bilaterale" Versorgung), gibt es mittlerweile Systeme, bei denen beide Hörgeräte drahtlos gekoppelt werden können ("binaurale" Versorgung). Zunächst konnten lediglich die Bedienelemente synchronisiert werden, so dass sich vor allem Vorteile bei der Bedienung der Hörgeräte ergaben. Mittlerweile ermöglicht die zunehmende Bandbreite der Verbindung komplexere Formen der Signalverarbeitung. Im Beitrag werden die technischen Möglichkeiten und Limitationen sowie die daraus entstehenden Vorteile für das Hören in komplexen Hörsituationen dargestellt. Dabei wird besonders auf die Erfahrungen aus der Praxis eingegangen. A.04 Evaluating the spatial quality of binaural hearing aid signal processing algorithms S. Schimmel, M. F. Müller, N. Dillier; Laboratory for Experimental Audiology, ENT Department, University Hospital Zurich, Switzerland. Binaural hearing aids have two main advantages over two independently operating monaural hearing aids. First, binaural hearing aids can handle more complex acoustical scenes, because they have access to microphone signals from either side of the head. Second, they can present the spatial aspects of acoustical scenes as naturally as possible, because they have complete access to all binaural cues in the input signal, and full control over the binaural cues presented to the hearing aid user. The spatial aspects of an acoustical scene are sound source attributes such as the perceived direction, distance, externalization, and width, as well as sound enclosure attributes such as reverberation time and envelopment. To evaluate how binaural signal processing algorithms affect spatial perception, an objective measure of spatial quality is required. Given the binaural input and output signals of an algorithm, such an objective measure would determine how much each of the spatial attributes is affected by the algorithm. In our work, we are developing an objective measure using a data-driven approach based on virtual acoustics and models of binaural signal processing of the auditory system. In this talk, we present a brief overview of the methods and models that we use to study spatial perception. We discuss the binaural cues of realistic signals in more detail, and demonstrate the importance of interaural coherence as a binaural cue. We conclude with an outlook on our future work. A.05 Speech Dereverberation for Hearing Aids with a Binaural Data Link 1,2 1,2 1,2 H. Löllmann , M. Jeub , P. Vary ; Institut für Nachrichtengeräte und Datenverarbeitung, RWTH Aachen, 2 Germany, Institute of Communication Systems and Data Processing, RWTH Aachen University, Aachen, Germany. 1 Persons with hearing aids often experience a substantial loss of listening comfort or speech intelligibility, if they communicate with other persons in noisy or reverberant environments. Therefore, speech enhancement algorithms are a common feature of modern hearing aids. A recent trend is thereby to establish a binaural data link between both hearing aid devices in order to improve the enhancement of acoustically distorted speech signals. While most algorithms for binaural speech enhancement aim for the enhancement of noisy speech, the enhancement of reverberant speech is still in an early stage. In this contribution, we present a two-stage approach for binaural speech dereverberation in hearing aids, which achieves a suppression of early and late reverberant speech. An important feature is that the overall binaural processing does not affect the most important binaural cues, i.e., the interaural time difference (ITD) and the interaural level difference (ILD). This is important for speech enhancement in hearing aids to preserve the ability for source localization in the azimuth plane. The first stage of the algorithm is based on a spectral subtraction where the weights depend on the spectral variance of the late reverberant speech. The computation of this spectral variance in turn requires an estimate of the reverberation time. This is accomplished by an efficient algorithm, which is based on a maximum likelihood (ML) estimation. The output of the first stage is further enhanced by a two-channel Wiener filter in a second step. This filter is derived by a coherence model which takes the shadowing effects of the head into account. The presented algorithms works blindly, i.e., all needed quantities are estimated from the reverberant speech so that no a priori information about the acoustical environment is required. Experiments have shown that the proposed system achieves a significant reduction of early and late reverberation. binaural link which is only possible for very low-power consuming binaural links. References: [1] T. van den Bogaert, et. al.: Speech enhancement with multichannel Wiener filter techniques in multimicrophone binaural hearing aids, Journal of the Acoustical Society of America, vol. 125, no. 1, pp. 360371, Jan. 2009 [2] R. Aichner, et. al.: A Real-Time Blind Source Separation Scheme and its Application to Reverberant and Noisy Acoustic Environments, Signal Processing, vol. 86, pp. 1260-1277, June 2006 [3] K. Reindl, et. al.: Combining Monaural Beamforming and Blind Source Separation for Binaural Speech Enhancement in MultiMicrophone Hearing Aids, in Proc. ITG Conference on Speech Communication, Bochum, Oct. 2010 A.07 Binaurale Signalverarbeitung - Trends der Hörgerätetechnologie V. Hohmann; Medizinische Physik, Universität Oldenburg, Oldenburg, Germany. Mit der (Weiter-)Entwicklung der drahtlosen Signalübertragungstechnik mit minimalem Energiebedarf lassen sich zunehmend komplexe binaurale Signalverarbeitungsstrategien realisieren. Während die ersten kommerziellen Systeme nur einige Signalparameter drahtlos zwischen den Hörgeräten an beiden Ohren übertragen konnten, rückt nun die Übertragung des kompletten Audiosignals in den Bereich des technisch Möglichen. Dieser Vortrag stellt die Perspektiven der binauralen Signalverarbeitung für die Anwendung in Hörgeräten vor, die sich teilweise auf CI-Systeme übertragen lassen. Insbesondere kann in Kombination mit Richtmikrofon-Techniken die Leistung von Störgeräuschunterdrückungssystemen erhöht werden. Zukünftig erscheint auch die Nutzung von Prinzipien der menschlichen auditorischen Szenenanalyse in binauralen Algorithmen möglich. Weiterhin kann die Rückkopplungskontrolle bei akustischer Stimulation verbessert werden. Abschließend kann die Kopplung der Kompressionssysteme rechts und links zu einer Verbesserung des Klangbildes führen. A.06 Binaural Processing in Hearing Aids: Opportunities and Constraints H. Puder; Siemens Audiologische Technik GmbH, Erlangen, Germany. Binaural signal processing in hearing aids, which we define here as an audio signal processing based on the full audio signals of both, left and right, hearing instruments, offers a large potential for increasing the speech quality and intelligibility. First of all, new binaural beamformers can be designed which overcome the known limitation due to the small microphone distance of monaural hearing aid beamformers. These are the microphone noise which limits the directional performance for low frequencies and the broad frontal beam-pattern. One typical target of binaural beamformers is to narrow the frontal beam and increase the directivity index, which is a measure for diffuse noise reduction, and to attenuate competing signals at angles of arrival outside the look direction of about +/- 45°. Wiener filters or blind source separation based approaches have been published in the last years which target this problem [1,2]. Usually monaural beamformers are calculated on both sides first, and the output signals are then exchanged between the hearing aids and used for a binaural processing [3]. Additionally, the binaural approach offers the opportunity to setup a beamformer for small ITE (in-the-ear) hearing aid devices where only one microphone can be integrated and no monaural beamforming is possible. A third opportunity offered by binaural beamforming is to steer the beam to side directions which allows to follow conversations where the conversation partner is located aside such as in car situations or when walking next to each other along a noisy street. Of course all binaural setups require a binaural audio link at a high date rate for wide-band audio signals and a low latency in order to limit the latency of the audio processing. Since such systems are integrated in hearing aids, current consumption is a major issue and has to be considered when designing the audio transmission. A major constraint for binaural beamforming is the preservation of binaural cues, meaning to preserve the phase and amplitude differences of the right and left hearing aid signals after binaural processing. This is the basis for a correct signal localization. Aside the binaural beamformer, the binaural processing offers large opportunities in enhancing the performance of wind noise reduction and feedback cancellation. The basic property which is explored in these setups is that both, wind noise and feedback typically occur independently in both hearing aids. These approaches, however, require a continuous activation of the A.08 Effects of interaural level differences on the externalization of sound T. Dau, J. Buchholz, J. Catic; Centre for Applied Hearing Research, Technical University of Denmark, Kopenhagen, Denmark. Distant sound sources in our environment are perceived as externalized and are thus properly localized in both direction and distance. This is due to the acoustic filtering by the head, torso, and external ears, which provides frequency dependent shaping of binaural cues, such as interaural level differences (ILDs) and interaural time differences (ITDs). Further, the binaural cues provided by reverberation in an enclosed space may also contribute to externalization. While these spatial cues are available in their natural form when listening to real-world sound sources, hearing-aid signal processing - such as wide dynamic range compression - affects the ILDs and thereby potentially reduces the perceived degree of externalization. In the present study, the effect of room reverberation on the spectro-temporal behavior of ILDs was investigated. This was done by analyzing speech played at different distances and recorded on a head-and-torso simulator in a standard IEC 268-13 listening room. Next, the effect of ILD fluctuations on the degree of externalization was investigated in a listening experiment with normalhearing listeners. The experiment was performed in the same standard listening room and a distant speech source was simulated via headphones using individual binaural impulse responses. The speech signal was then processed such that the naturally occurring ILD fluctuations were compressed. This manipulation reduced the perceived degree of externalization in the listening experiment, which is consistent with the physical analysis that showed that a decreased distance to the sound source also reduced the fluctuations in ILDs. A.09 Stimuluseffekte beim Richtungshören mit Cochlea Implantaten in Räumen geben Hinweise für neue Verarbeitungsstrategien B. U. Seeber, S. Kerber; MRC Institute of Hearing Research, Nottingham, United Kingdom. Cochlea Implantate (CIs) ermöglichen vielen tauben Personen Sprache in ruhiger Umgebung zu verstehen. Hintergrundschalle und Raumhall erschweren jedoch das Sprachverständnis oder machen es sogar 5 umöglich. Mit bilateralen CIs verbessert sich das Sprachverstehen zumeist, insbesondere wenn Sprache und Störschall räumlich separiert sind. Bilaterale CIs ermöglichen weiterhin, Schallrichtungen zu bestimmen. Es ist jedoch fraglich, inwieweit die Lokalisation in natürlichen Umgebungen mit Raumhall möglich ist, nicht nur weil die Patienten berichten, dass Raumhall problematisch ist, sondern auch weil die Lokalisation mit CIs überwiegend auf der Auswertung von interauralen Pegeldifferenzen basiert. Bei Normalhörenden sind dagegen interaurale Zeitdifferenzen ausschlaggebend. In der vorliegenden Studie wurde der Einfluss von Raumhall auf die Schalllokalisation mit verschiedenen Stimuli untersucht. Die Untersuchungen fanden in der “Simulated Open Field Environment” statt, einer Laborumgebung in einem reflexionsarmen Raum, mit der das Schallfeld von Räumen wiedergegeben werden kann. Dazu wurden die Schallreflexionen an den Wänden eines üblichen Wohnraumes simuliert und einzeln über Lautsprecher abgespielt, wobei u.a. die Laufzeit, die entfernungsabhängige Dämpfung und die spektralen Effekte bei der Reflexion berücksichtigt wurden. Die Halligkeit des Raumes wurde über das Verhältnis von Direktschall zu reflektierter Energie (DRR) variiert, wobei das Reflexionsmuster konstant gelassen wurde, um Einflüsse der Richtung der frühen Reflexionen auszuschliessen. Es nahmen zehn Probanden mit bilateralen CIs teil. Bereits moderater Raumhall wirkte sich stark auf das Lokalisationsvermögen mit CIs aus. Eine Beeinträchtigung war ab einem DRR von 0 bis +10 dB, je nach Proband, für einen Sprachschall nachzuweisen. Raumhall hatte dagegen keinen Einfluss auf die Lokalisation von normalhörenden Probanden, sofern das DRR grösser als -8 dB war. CI-Träger können somit ca. 10 dB weniger Raumhall tolerieren, was bei der Gestaltung von Lernumgebungen für diese Gruppe berücksichtigt werden sollte. Ein weiterer Vorschlag zur Verbesserung des Richtungshörens in reflexionsbehafteter Umgebung kann von den Ergebnissen für pulsatile Stimuli abgeleitet werden. Einige Patienten zeigten für diese eine deutlich verbesserte Toleranz gegenüber Reflexionen, die bei manchen sogar an die von normalhörenden Probanden heran reichte. Sie konnten offensichtlich Information aus dem scharfen Schallanstieg am Beginn entnehmen, bevor die eintreffenden Reflexionen die binaurale Information veränderten. In neuen Strategien sollte daher der Schallanstieg steiler gemacht werden, um die perzeptive Gewichtung der binauralen Information am Schallbeginn zu erhöhen. Gefördert vom Medical Research Council (UK) und Cochlear Europe. A.10 Audiologische Ergebnisse nach Cochlea Implantation bei Einseitiger Taubheit S. Pok, M. Schlögel, B. Hiermayer, K. Böheim; HNO-Abteilung, Landesklinikum, St. Pölten, Austria. Fragestellung: Evaluation des präund postoperativen Sprachverstehens in Ruhe und Störschall nach Cochlea Implantation bei einseitiger Taubheit. Nachgehen der Frage, ob die elektrische Stimulation eine Auswirkung auf einen chronischen therapieresistenten Tinnitus im ertaubten Ohr hat. Methoden: 10 Patienten mit unilateraler postlingualer Ertaubung mit kontralateralem normalen Gehör bzw. bis maximal mittelgradigen HG-versorgten sensorineuralen Hörverlust wurden inkludiert. Bei 4 Patienten stellte ein quälender therapieresistenter Tinnitus die primäre Motivation zur Cochlea Implantation dar. Erhoben wurde das Sprachverstehen ohne und mit Cochlea Implantat mittels Freiburger Einsilbertest in Ruhe sowie mittels adaptivem Oldenburger Satztest in einem binauralen Test Setup. Die subjektive Beeinträchtigung durch Tinnitus wurde prä- und postoperativ mittels TBF-12 Fragebögen quantifiziert. Ergebnisse: 9 der 10 Patienten tragen ihr CI den ganzen Tag. Alle 10 Patienten erzielen ein offenes Sprachverstehen mit dem CI alleine. Den größten Zugewinn in der bimodalen Testbedingung (CI und kontralaterales akustisches Gehör) weisen diejenigen Patienten auf, welche eine zusätzliche Hörminderung am nicht implantierten Ohr aufweisen. Im Störschall zeigen sich Verbesserungen im Sprachverstehen vor allem in schwierigen (binauralen) Hörbedingungen: bei allen getesteten Patienten lies sich ein Kopfschatteneffekt bis 4 dB (delta SRT50, OLSA Satztest) nachweisen. Mit dem CI kann jedoch im Gegensatz zu unilateralen Hörsituation der Kopfschatteneffekt nicht nur für das akustisch hörende Ohr, sondern auch für das CI-Ohr nachgewiesen werden. Weiters ermöglichte die elektrische Stimulation kann durch das CI kann bei einigen Patienten eine effektive Tinnitus-Unterdrückung. Zusammenfassung: Einseitig ertaubte Patienten mit chronischem therapieresistenten Tinnitus und/oder einer sensorineuralen Schwerhörigkeit am letzthörenden Ohr sind nach unserer bisherigen Erkenntnis mögliche Kandidaten für eine Cochlea Implantation. 6 Session 1: Präzisions-Radiotherapie mittels Photonen I 01.2 State-of-the-Art Lecture: Bildgestützte und adaptive Strahlentherapie - Aktueller Stand und neue Entwicklungen J. Wilbert; Universitätsklinikum Würzburg, Klinik und Poliklinik für Strahlentherapie, Würzburg, Germany. Einleitung: Die Strahlentherapie ist bereits seit langer Zeit eine bildgestützte Therapie. Bereits Ende der 1950er-Jahre gab es Ansätze, die Lagerungsgenauigkeit durch Bildgebung im Bestrahlungsraum zu verbessern, in dem Röntgenröhren an Co-60-Bestrahlungsgeräte montiert [1, 2] bzw. in Linearbeschleuniger integriert wurden [3]. Die erste systematische Studie zur Verringerung der Lagerungsfehler wurde von Haus et al. [4] durchgeführt, wobei an Co-60Bestrahlungseinrichtungen belichtete Röntgenfilme ausgewertet wurden. Von Leong et al. [5] wurde ein System entwickelt, welches die schnelle online Erfassung von Portal-Aufnahmen während der Therapie ermöglichte. Dieses System benutzte einen fluoreszierenden Schirm und eine Kamera zur Bilderfassung. Eine Weiterentwicklung dieser Electronic Portal Imaging Devices (EPID) stellen die auf amorphem Silizium basierenden Detektoren dar [6]. Durch Verwendung des Therapiestrahls ist es somit möglich, die Lage des Isozentrums und der Feldgrenzen relativ zu knöchernen Strukturen hinreichend genau zu bestimmen. Allerdings ist der Tumor in vielen Fällen ein bewegliches Objekt und eine Positionierung des Patienten alleine nach knöchernen Strukturen eine Quelle für Fehler [7]. Eine Möglichkeit auf diese Unsicherheiten zu reagieren ist, die Bestrahlungsfelder um sogenannte Sicherheitssäume zu erweitern um eine ausreichende Erfassung des Tumors sicherzustellen. Damit wird allerdings auch ein erhebliches Volumen gesunden Gewebes mit einer hohen Strahlendosis belastet. Mit Hilfe der bildgestützten Strahlentherapie (image guided radiation therapy IGRT) wird die exakte und reproduzierbare Positionierung des Zielvolumens am Therapiegerät ermöglicht. Diese gesteigerte Präzision erlaubt die Anwendung höherer Dosen zur Verbesserung der Tumorkontrolle unter gleichzeitiger Minimierung des Einflusses auf das Normalgewebe [8]. Die IGRT dient allerdings nicht nur der Korrektur von Setup-Fehlern, sondern erlaubt auch die Kontrolle von Organbewegung und die Erfassung von Veränderungen des Tumors während der Therapie. Techniken der IGRT: Für die IGRT steht mittlerweile eine Vielzahl von Techniken zur Verfügung, die sich nach verschiedenen Gesichtspunkten einteilen lassen [9]: - planare oder volumenbasierte Bildgebung - Verwendung von kV- oder MV-Strahlung sowie Ultraschall - Systeme peripher im Bestrahlungsraum oder direkt am Beschleuniger montiert Jedes dieser Systeme besitzt spezielle Vor- und Nachteile. Planare Systeme ermöglichen zunächst nur eine 2-dimensionale Erfassung der Patientengeometrie. Durch Kombination mehrerer planarer Aufnahmen ist aber eine räumliche Erfassung der Lage des Zielvolumens möglich. Volumenbasierte Systeme weisen eine sehr gute räumliche Auflösung in allen drei Dimensionen auf. Planare Aufnahmen mittels Röntgenstrahlung bedeuten eine geringere Strahlenbelastung des Patienten als bei vergleichbaren MV-Aufnahmen und weisen in der Regel eine bessere Bildqualität auf. Bildgebung mit dem MVTherapiestrahl hat wiederum den Vorteil, dass Bildgebung und Behandlung das gleiche Isozentrum aufweisen. Systeme, die unabhängig vom Bestrahlungsgerät arbeiten, können möglicherweise zur Echtzeit-Verfolgung des Zielgebietes verwendet werden und somit die Berücksichtigung von Bewegungen während der Bestrahlung ermöglichen. Zudem können auch Systeme, die kein direktes Bild des Tumors liefern zur IGRT herangezogen werden. Hierzu zählen Systeme, die mittels Lokalisation implantierter elektromagnetischer Sender Informationen über die Tumorposition liefern [10] oder Photonen emittierende Marker verwenden [11]. Außerdem können Surrogate, etwa die Bewegung der Patientenoberfläche oder der Atemluftstrom, verwendet werden. Allerdings benötigen diese Verfahren ein Modell um aus dem Surrogat die patienten-internen Bewegungen bzw. Veränderungen abzuleiten [12]. Aktuell in der Entwicklung befinden sich Systeme, die MRBildgebung am Linearbeschleuniger integrieren und somit eine hochpräzise real-time IGRT ermöglichen sollen [13]. Adaptionsstrategien: IGRT dient aktuell hauptsächlich dazu, Lagerungsfehler des Patienten vor Beginn der Bestrahlung zu erkennen und zu korrigieren und somit inter-fraktionelle Unsicherheiten der Tumorposition zu minimieren. Wird die Bilderfassung während der Bestrahlung fortgesetzt, lassen sich auch intra-fraktionelle Bewegungen des Tumors ausgleichen. Klinisch bereits realisiert ist die Möglichkeit, das Bestrahlungsgerät der Bewegung nachzuführen [14, 15]. Noch in der Entwicklung befinden sich Systeme, die entweder das Bestrahlungsfeld mittels eines dynamischen Multileafkollimators anpassen [16, 17] oder den Patienten mittels eines robotischen Bestrahlungstisches entgegen der Tumorbewegung verfahren [18, 19]. Zudem erlaubt die IGRT Veränderungen des Tumors zu erkennen und liefert somit die Basis für eine Anpassung des Bestrahlungsplanes. Auch hier sind verschiedene Vorgehensweisen möglich: Bestimmung einer „Dose of the day“ mit Korrektur im weiteren Therapieverlauf, Anpassung des Bestrahlungsplanes bei größeren Veränderungen oder eine tägliche online Planadaption. Anforderungen der IGRT: Die Einführung der IGRT stellt zusätzliche Anforderungen, sowohl an die ärztlichen als auch die physikalischtechnischen Mitarbeiter. Notwendig ist die Festlegung von Korrekturstrategien die beispielsweise die gewünschten Intervalle der Bildgebung, Toleranzbereiche sowie Aktionsschwellen beinhalten. Zudem sind zusätzliche Maßnahmen bei der Qualitätssicherung erforderlich. Dabei ist zu berücksichtigen, dass die IGRT eine komplexe Interaktion verschiedener Systeme darstellt. Qualitätssicherungsmaßnahmen müssen deshalb die gesamte Kette beginnend mit der CT-Bildgebung, über die Bestrahlungsplanung, die Bilderfassung und Positionierung am Bestrahlungsgerät sowie schließlich die Bestrahlung selber erfassen [7, 20-22]. Literatur: 1. Holloway A.F. A localising device for a rotating cobalt therapy unit. Br J Radiol 1958;31:227. 2. Johns H.E. et al. A precision cobalt 60 unit for fixed field and rotation therapy. Am J Roentgenol Radium Ther Nucl Med 1959;81:4-12. 3. Weissbluth M et al. The Stanford medical linear accelerator. Radiology 1959;72:242-53. 4. Haus A.G. et al. A technique for imaging patient treatment area during a therapeutic radiation exposure. Radiology 1970;97:653-6. 5. Leong J. Use of digital fluoroscopy as an on-line verification device in radiation therapy. Phys Med Biol 1986;31:985-92. 6. Herman M.G. et al. Clinical use of electronic portal imaging: report of AAPM Radiation Therapy Committee Task Group 58. Med Phys 2001;28:712-37. 7. Potters L. et al. American Society for Therapeutic Radiology and Oncology (ASTRO) and American College of Radiology (ACR) practice guidelines for image-guided radiation therapy (IGRT). Int J Radiat Oncol Biol Phys. 2010 Feb 1;76(2):31925. 8. Alongi F. et al. Image-guided radiation therapy: a new era for the radiation oncologist? Int J Clin Oncol. 2009 Dec;14(6):5689. 9. Verellen D. et al. A (short) history of image-guided radiotherapy. Radiother Oncol. 2008 Jan;86(1):4-13. 10. Willoughby T.R. et al. Target localization and real-time tracking using the Calypso 4D localization system in patients with localized prostate cancer. Int J Radiat Oncol Biol Phys. 2006;65:528Y534. 11. Shchory T. et al. Tracking accuracy of a realtime fiducial tracking system for patient positioning and monitoring in radiation therapy. Int J Radiat Oncol Biol Phys. 2010;78:12271234. 12. Ruan D et al. Image-guided positioning and tracking. Cancer J. 2011 May-Jun;17(3):155-8. 13. Lagendijk J.J. et al. MRI/linac integration. Radiother Oncol. 2008 Jan;86(1):25-9. 14. Adler Jr J.R. et al. Imageguided robotic radiosurgery. Neurosurgery 44, 1299-1306 (1999); discussion 44, 13061397 (1999). 15. Schweikard A. et al. Robotic motion compensation for respiratory movement during radiosurgery. Comput. Aided Surg. 5, 263-277 (2000). 16. Keall P.J. et al. Motion adaptive x-ray therapy: A feasibility study. Phys. Med. Biol. 46, 1-10 (2001). 17. Neicu T. et al. Synchronized moving aperture radiation therapy (SMART): Average tumour trajectory for lung patients. Phys. Med. Biol. 48, 587-598 (2003). 18. D’souza W.D. et al. Real-time intra-fractionmotion tracking using the treatment couch: A feasibility study. Phys. Med. Biol. 50, 4021-4033 (2005) 19. Wilbert J. et al. Tumor tracking and motion compensation with an adaptive tumor tracking system (ATTS): system description and prototype testing. Med Phys. 2008 Sep; 35(9):3911-21. 20. Klein E. E. et al.: Task Group 142 report: quality assurance of medical accelerators, Med Phys 36 (2009), no. 9, 4197-4212. 21. ACR, "Technical standard for medical physics performance monitoring of image-guided external beam radiation therapy (IGRT)," American College of Radiology, 2009, p. Res 5. 22. AAPM: The Role of In-Room kV X-Ray Imaging for Patient Setup and Target Localization - Report Nr. 104, (2009). 01.3 The impact of advanced radiotherapy techniques on secondary cancer probability and late effects in paediatric Hodgkin lymphoma 1,2 1 1 1 B. Knäusl , C. Lütgendorf-Caucig , J. Hopfgartner , K. Dieckmann , D. 1 Georg ; 1 2 Department of Radiotherapy, MUW, Vienna, Austria, Department of Nuclear Medicine, MUW, Vienna, Austria. Purpose: To explore the potential of advanced radiotherapy techniques for the treatment of paediatric Hodgkin lymphoma (PHL) patients. More specifically PET based PTV definition and intensity modulation was investigated with respect to secondary cancer probability (SCP), normal tissue sparing and late effects of radiotherapy. Material and Methods: Treatment planning was performed for ten PHL patients using the standard planning target volume PTV1 (modifiedinvolved-field technique) and an experimental PTV2 based on interim PET positive lymph nodes. For both PTVs 1.5cm isotopic safety margins were used, reduced to 0.8cm towards organs-at-risk (OARs). The following treatment plans with a prescribed dose of 19.8Gy were created for both PTVs using the TPS XiO 3.4 (CMS): opposing photon (2F), intensity modulated photon (IMXT), single scanned proton (PS) and intensity modulated scanned proton technique (IMPT). The results were evaluated using dose volume histograms and indices assessing target coverage and homogeneity. The main focus of the evaluation was turned 1 on the SCP calculated according to Dasu et al , the late morbidity and long term effects. 3 Results: The size of PTV1 ranged from 429-2704m , PTV2 was on average 71±31% smaller. The best conformity with about 0.85 was reached using the IMPT technique and all treatment plans showed comparable homogeneity. Using PTV2 instead of PTV1 reduced the dose to OARs remarkable. Using protons improved the treatment plan quality in means of normal tissue sparring and minimizing low dose areas. Using PTV2, the SCP was not decreased for IMXT and IMPT, but significantly by about 45% for 2F and PS. SCP was lowest for PS plans, even by a factor of 3 comparing it with IMPT. PS wrt 2F resulted in a significant reduction of the SCP by a factor of 3.5 for both PTVs (figure1). Increased breast cancer in children was reported for a volume receiving 2 more than 4Gy and this was reduced by 70% for the left and 40% for the right breast using PTV2. The new target concept had the strongest influence on the dose to the thyroid. Dmax and Dmean of the thyroid were reduced significantly by 14Gy. Restrictive changes of the lung will not be 3 expected in this study as Dmean was always lower than 8Gy . The dose to the heart was reduced by using PTV2 and protons by 50% and 30%, respectively. Secondary malignancies were mainly reported in volumes receiving less 4 than 6Gy (V6Gy) and this volume increased significantly by about 60% using IMXT and decreased by about 40% using protons. Using PTV2 instead of PTV2 decreased V6Gy by about 60%. Regarding the bones, growth arrest has not to be taken into account as the dose was never higher than 20Gy and all included patients older than 6 years. Conclusion: The dosimetric consequences of the modified target volume hopefully motivate a revision of the current target concept. This planning study suggested the protons, especially PS, to be the most optimal treatment technique for PHL patients and showed the best result concerning normal tissue sparing and SCP. 1 ActaOncol;44:339-47 2 Blood;106:3358-65 3 FrontRadiatTherOncol;55:1145-52 4 StrahlentherOnkol;184:289-95 Figure 1: 7 01.4 Korrelation von Veränderungen in Morphologie und Dosisverteilung bei der Adaptive Radiotherapie im HNO-Bereich 1 1 2 2 2 1 P. Winkler , T. Konrad , G. Lodron , M. Uray , H. Mayer , G. Jakse , R. 1 1 Flitsch , K. S. Kapp ; 1 Universitätsklinik für Strahlentherapie-Radioonkologie, Medizinische 2 Universität Graz, Graz, Austria, Institut für Informations- und Kommunikationstechnologien, JOANNEUM RESEARCH Forschungsges. mbH, Graz, Austria. Einleitung: Morphologische Veränderungen während einer radioonkologischen Therapieserie verursachen Veränderungen in der Dosisverteilung gegenüber dem Zeitpunkt der initialen Bestrahlungsplanung. Diese Veränderungen werden durch eine Übertragung des ursprünglichen Bestrahlungsplans auf CT-Datensätze, die zu einem späteren Zeitpunkt erfasst werden, quantifiziert. Dazu werden die Konturen mittels elastischer Bildregistrierung auf den neuen CT-Datensatz übertragen. Die Morphologie des bestrahlten Volumens unterliegt im Laufe einer Behandlungsserie einer Reihe von verändernden Einflüssen: Schrumpfung oder Schwellung von Geweben, Verkrümmungen und Torsionen aufgrund fehlerhafter Lagerung. Die Wahl der adäquaten Korrekturmaßnahme in der adaptiven Radiotherapie (ART) setzt jedoch Kenntnis über Art und Ausmaß dieser Fehlerquellen voraus. Gegenstand dieser Untersuchung ist eine Machbarkeitsanalyse zur Beantwortung der beiden Fragestellungen (1) in welchem Ausmaß sich die Dosisverteilung an Zielvolumen und Risikoorganen ändert und (2) ob statistische Parameter der Transformationsmatrizen eine Beurteilung der Art der Deformation sowie eine prospektive Aussage über dosimetrische Veränderungen zulassen. Material und Methode: Eine Software zur elastischen Bildregistrierung von CT-Daten im HNO Bereich wurde entwickelt. Diese ermöglicht die Berechnung von Transformationsvektoren, welche die Translation und Deformation des Gewebes zwischen den Datensätzen repräsentieren. Zehn HNO-PatientInnen wurden während der laufenden IMRTBehandlungsserie (nach durchschnittlich 36 Gy) einer zusätzlichen Planungs-CT unterzogen. Die beiden CT-Scans wurden jeweils elastisch aufeinander registriert. Die gewonnenen Transformationsmatrizen wurden einerseits zur Anpassung der Planungskonturen verwendet, andererseits parametrisiert und statistisch ausgewertet. Nach Übertragung des ursprünglichen Bestrahlungsplanes auf die Folge-CT konnte die Korrelation morphologischer Veränderungen mit Änderungen in der Dosisverteilung analysiert werden. Für Zielvolumen (PTV) und Speicheldrüsen wurden die mittlere Dosis sowie die Werte für D2% und D98% (Dosis an 2% bzw. 98% des Volumens) ermittelt, für Rückenmark und Hirnstamm Maximaldosis und D2%. Zur Beurteilung morphologischer Veränderungen können in unserer Software die Voxeldaten des Transformationsvektorfeldes mit optionaler Bandpass-Filterung für die konturierten Volumen statistisch ausgewertet werden. Als Parameter wurden hier Mittelwert und Standardabweichung der Vektorlängen herangezogen. Ergebnisse: Die relativen Volumenänderungen zum Zeitpunkt des wiederholten CT-Scans betrugen im Mittel -5% (PTV) und -17% (Speicheldrüsen), maximal -25% bzw. -35%. Für die PTVs änderten sich sowohl mittlere Dosis als auch D98% nur in geringem Maße (+1.2% bzw. -4.3%). Deutliche Erhöhungen von +14% zeigten sich bei der Maximaldosis am Rückenmark, die mittlere Dosis an den Speicheldrüsen veränderte sich um 6%. In einer ersten Analyse zeigen die morphologischen Veränderungen, repräsentiert durch mittlere Vektorlängen in gefilterten Transformationsvektorfeldern, eine Korrelation mit den beobachteten dosimetrischen Veränderungen (Abbildung 1). Diskussion: Mit der von uns implementierten Software ist es möglich, morphologische Veränderungen während der Bestrahlungsserie zu analysieren und Konturierungen elastisch auf einen aktuellen CTDatensatz zu registrieren. Die untersuchte PatientInnengruppe zeigte zum Teil eine deutliche Verkleinerung des Zielvolumens und der Speicheldrüsen (Abbildung 2). Dies geht in vielen Fällen mit einer Verschlechterung der Dosisverteilung gegenüber der geplanten Ausgangsverteilung einher. Das Ziel der adaptiven Radiotherapie ist eine Anpassung der Bestrahlung und Neuoptimierung des Dosisplanes auf Änderungen in Form und Lage des bestrahlten Volumens. Zur gezielten Korrektur in Abhängigkeit vom Wesen der morphologischen Veränderungen liefert die vorgestellte Methode der Analyse gefilterter Transformationsmatrizen einen vielversprechenden Ansatz. 8 01.5 Sensitivity comparison of IMRT and VMAT plans to motion in patients with peripheral NSCLC S. Lang, T. Streller, J. Hrbacek, S. Klöck; University Hospital Zürich, Zürich, Switzerland. Objective: The sensitivity of motion to VMAT and IMRT treatment plans using flattened as well as flattening filter free (FFF) beams up to a dose rate of 2400 MU/min was evaluated. Materials & Methods: Two patients with stage I peripheral NSCLC were subject to 4DCT based treatment planning in Eclipse treatment planning system (Varian, version 8.9). For each patient six IMRT and six VMAT plans were generated: For each technique two plans using 6MV FFF beam with a maximum dose rate of 1400MU/min, two plans using 10 MV FFF beam with maximum dose rate of 2400 MU/min and two plans using a flattened 6MV beam with maximum dose rate 600 MU/min. One of the plans delivered a dose of 10 Gy/fraction the other 2 Gy/fraction to the PTV. VMAT planning was done using two coplanar arcs with a separation in collimator angle of 45° and an avoidance sector for sparing the contra-lateral lung. For IMRT 5 co-planar fields were used. All plans were irradiated on the static as well as the moving delta4 (Scandidos) phantom. Sinusoidal movements were performed in longitudinal direction with amplitudes of 0.5 cm, 1 cm and 2 cm and velocities 3 s and 6 s per cycle. Plan robustness was quantified using the change in gamma index (GI, DTA=3mm, DD=3%) compared to the plan irradiated on the static phantom. Results: Under static conditions all fields in all plans showed a GI above 98 % (mean 99.7 % (+/- 0.4 %). Movements with an amplitude of 0.5 cm only slightly disturbed the dose distribution (97.4 % (+/- 2.6 %). No differences in GI between flattened and FFF beams and IMRT and RA technique were found. For IMRT plans using the high dose rate (2400 MU/min) in combination with a low dose per fraction, the time per field decreased to 5.8 s (+/- 2.1 s). This lead to a decrease of the GI to 78 % (+/- 11 %) (1 cm, 6s) and 56 % (+/- 30 %) (2 cm, 6s). For flattened beams the decrease was less pronounced: 96 % (+/- 4 %) (1 cm, 6s) and 84 % (+/- 10 %) (2 cm, 6s). For RA field the decrease in GI was not different between plans using flattened and FFF beams. If plans were irradiated on the phantom, moving with amplitude of 2 cm, a decrease in dose to the ITV of up to 35 % was observed. Conclusion: Sensitivity to motion of RA and IMRT plans is similar. FFF beams with high dose rates should only be used if the treatment time per field is long compared to the breathing cycle. Except for the case of a very high dose rate (2400 MU/min) in combination with low dose per fraction a movement of up to 1 cm still shows acceptable target coverage. Figure 1. Variations of the PTV Dmedian and coverage for HU adjustments in lung cases. 01.6 Feasibility of CBCT-based dose calculation: comparison of three HU adjustment techniques for adaptive treatment planning T. Steininger, J. Hopfgartner, I. Fotina, D. Georg; Medical University of Vienna / AKH Vienna / Department for Radiotherapy, Vienna, Austria. Introduction: CBCT images are widely used in IGART. However, grey values on CBCT scans don’t represent Hounsfield Units (HU) and cannot be used directly for dose calculation. The aim of this study was to compare the accuracy of three different methods for HU adjustment for dose calculation on CBCT. Materials and Methods: CBCT images of 10 prostate, 10 lung and 10 head-and-neck (H&N) cases were acquired using the XVI Synergy system. IMRT plans were created for prostate and H&N cases while a conformal technique was used for SBRT. Dose calculation was performed with the MC-based algorithm using iPlan TPS. Structure sets and plans were transferred from planning CT (pCT) to CBCT images and dose was recalculated. For the first approach population-based conversion curves (CCP) were applied to CBCT images. This method was used as a reference together with pCT. In the second method, called Water-Air-Bone (WAB), tumor and patient were assumed to be water-equivalent; additionally the override of bony structures, air or lung was performed with fixed HU. In the third approach (ROI) all structures were overridden with the mean HU from pCT. The accuracy of dose calculation was analyzed by DVH comparison and γ-evaluation. Results: Compared to the CCP approach, median differences in PTV Dmedian revealed overestimation by 2,3% and 1,9% for the WAB and ROI adjustments, respectively. PTV coverage was slightly higher for both techniques as well. Deviation in lung Dmax reached 1% for both approaches, whereas differences in lung Dmean and Dmax for spinal cord and esophagus were negligible. For prostate cases PTV coverage was underestimated by 1,5% with the WAB approach compared to the CCP method, whereas ROI mapping fitted well. Dmax and Dmean for rectum, bladder and femoral heads showed differences below 2%. For H&N cases the WAB method demonstrated better agreement with CCP showing deviations for PTV Dmedian and coverage below 2%. Maximum dose differences for spinal cord and brainstem were up to 1,7% and 1,3% for ROI and WAB techniques, respectively. Dmean for parotid gland deviated by 0,5% for both adjustments. Results of the γ-evaluation are presented in Table 1. Benchmarking of all approaches to pCT revealed that the CCP technique is very sensitive to the variations of grey values on CBCT as shown on the Figure 1. Additionally high BMI for prostate patients, altered image quality or cropped FOV were identified as parameters mostly influencing the accuracy of CCP-based dose calculation. Conclusion: ROI and WAB provide alternative approaches to the conversion curves for CBCT dose calculation. Differences below 3% for PTVs and OARs demonstrate reasonable accuracy of the dose calculation together with required sensitivity to detect anatomy changes in the IGART process. WAB is associated with smallest workload, whereas ROI mapping requires knowledge of patient-specific information. Therefore,WAB approach is promising and reliable method for ART, if workload and dose accuracy are considered. Table 1. Results of the gamma-evaluation for WAB and ROI adjustments vs. CCP. Lung SBRT Prostate IMRT WAB ROI WAB ROI WAB H&N IMRT ROI Gamma max 1,76 1,63 2,09 1,65 1,92 1,98 Gamma mean 0,47 0,44 0,38 0,34 0,38 0,46 Gamma >1 6,1% 5,1% 4,5% 3,0% 5,1% 6,3% 01.7 Evaluation of IMRT and VMAT treatment plan quality delivered with and without flattening filter using Pareto optimal fronts 1 1 2 1 W. Lechner , G. Kragl , E. Magalhaes , D. Georg ; 1 Medical University of Vienna, Department of Radiation Therapy, 2 Division Medical Radiation Physics, Wien, Austria, Instituto Politécnico de Lisboa, Escola Superior de Tecnologia da Saúde, Lisboa, Portugal. Purpose: The growing interest in operating medical linear accelerators without flattening filter justifies the study of treatment plan quality of intensity modulated radiotherapy (IMRT) and volumetric modulated arc therapy (VMAT) delivered with (FF) and without flattening filters (FFF). A treatment planning study based on the concept of Pareto optimal fronts, which is considered to provide a more scientific approach, was performed. Methods: For this study, an early stage prostate cancer case with a prescribed dose of 78Gy to the PTV was investigated. 9-field-IMRT and 360° single rotation VMAT plans delivered with and without flattening filter were created using 10MV beams. Monaco (Elekta CMS, v. 2.04) was used for treatment planning. A set of clinically acceptable plans with similar dose volume histograms (DVHs) was created for all modalities (initial plans). Starting from these plans the constraint of the rectum cost function was reduced stepwise to create a set of plans for each technique. The Pareto optimal fronts were determined in a post process. The volume of the PTV which received less than 95% of the prescribed dose (100%-V95%) and the dose of the most exposed 10% of the rectum (D10%) were chosen for the evaluation of the Pareto optimal fronts. The near-maximum- (D2%), near-minimum- (D98%) and median- dose (D50%) were reported for the PTV according to ICRU 83 recommendations. Also, the number of monitor units (MUs) and segments (Seg) were recorded. The treatment time (T) was evaluated by delivering the four initial plans using an Elekta linear accelerator, modified for the application of FFF beams. Result: In total 191 plans were created. The Pareto optimal fronts differed significantly for the IMRT- and VMAT- techniques. At 5% loss of target coverage, the Pareto optimal fronts of IMRT and VMAT differed by about 1.5Gy in favor for IMRT. Virtually no difference was observed between FF and FFF (see Figure 1). The lowest numbers of MUs were observed for IMRT-FF with a mean value of 300MU. For VMAT-FFF the highest numbers of MUs were observed (446MU). Compared to IMRT-FF the techniques IMRT-FFF, VMAT-FF and VMAT-FFF are characterized by a higher near maximum dose D2% (see Table 1). 9 The measured treatment time of the initial plans was about 8 minutes for IMRT-FF. By the use of IMRT-FFF the treatment time was reduced by 25% for IMRT-FFF (about 6 minutes) and decreased even further for both VMAT techniques. Conclusion: The results show that it was possible to create similar plans for both delivery- techniques (FF and FFF). For the evaluated case, the Pareto fronts of IMRT were superior compared to VMAT. Although the number of MU tends to be higher for IMRT-FFF, VMAT-FF and VMAT-FFF, the use of these techniques lead to an increase of time efficiency compared to IMRT-FF. Table 1: Results of 191 plans presented as mean values ± 1SD IMRT FF IMRT FFF VMAT FF VMAT FFF 46 44 50 51 V95%(PTV) [Gy] 97.8 ± 2.2 97.9 ± 1.5 95.1 ± 2.5 95.6 ± 1.9 D10%(OAR) [Gy] 69.7 ± 2.3 70.0 ± 2.2 70.3 ± 2.4 70.6 ± 2.3 D2% (PTV) [Gy] 82.1 ± 0.1 82.9 ± 0.1 83.1 ± 0.1 83.2 ± 0.1 D98% (PTV) [Gy] 74.3 ± 1.2 74.1 ± 0.9 72.6 ± 1.0 72.7 ± 0.9 D50% (PTV) [Gy] 79.7 ± 0.2 79.9 ± 0.2 79.8 ± 0.5 79.9 ± 0.3 MU [MU] 300 ± 11 333 ± 9 420 ± 24 446 ± 19 Seg 56.5 ± 3.4 57.5 ± 3.4 96.0 ± 0.0 96.0 ± 0.0 Number of plans Table 2: Treatment times of the four initial plans. *Plan was delivered on a different LINAC. IMRT FF IMRT FFF VMAT FF VMAT FFF T [min:sec] 08:01 05:59 2:20* 03:14 MU [MU] 283 321 395 435 Seg 50 53 91 91 Session 2: Präzisions-Radiotherapie mittels Photonen II 02.1 Einfluss der Tumorbewegung auf die Dosisverteilung bei stereotaktischer Bestrahlung am Linearbeschleuniger und TomoTherapy HiArt System im Thorax-Bereich T. Hauschild, C. Heine, S. Pönitz, T. Koch; Praxis für Strahlentherapie und Radioonkologie, Sozialstiftung Bamberg - MVZ am Bruderwald, Bamberg, Germany. Einleitung: Die Behandlung beweglicher Tumore im Thorax-Bereich mit stereotaktischen Bestrahlungstechniken führt zu einer Änderungen der geplanten Dosisverteilung im Zielgebiet. Der Effekt der Tumorbewegung bei der Dosisapplikation ohne Gating oder Tracking mit den Bestrahlungstechniken am Linearbeschleuniger und TomoTherapy HiArt System wurde an einem Phantom bestimmt und quantifiziert. Des Weiteren wurde der Einfluss des Bewegungsmodells auf die Dosisverteilung untersucht. Material und Methode: Für die Messungen wurde ein modifiziertes inhomogenes Thorax-Phantom der Firma CIRS verwendet. Der Tumor wurde durch einen 3 cm langen zylinderförmigen Einsatz (Durchmesser 2,5 cm) aus Plastic Water nachgebildet und in einen Lungenlappen des Phantoms positioniert. Die Tumornachbildung wurde in zwei HalbZylinder halbiert damit ein Gafchromic EBT2 Film zur Messung der Dosisverteilung zwischen den Hälften in der koronaren Ebene eingelegt werden konnte. Die Simulation der atemabhängigen Bewegung des Tumors wurde mit einer dynamischen Plattform der Firma CIRS realisiert. Die Atembewegungen wurden auf Basis der trigonometrischen 6 Grundfunktionen Sinus und cos für eine eindimensionale Auslenkung in inferior-superior Richtung modelliert. Die Bewegungsamplituden variierten von 0,5 cm bis 1,5 cm. Für die stereotaktische Bestrahlung wurden Bestrahlungspläne nach definierten Protokollen erstellt. Die Messungen wurden am TomoTherapy HiArt System und konventionellen Linearbeschleuniger durchgeführt. Ergebnisse: Die Messungen zeigten, dass für die Bestrahlungsplanung einer SBRT der zeitlich mittlere Aufenthaltsort des Tumors bekannt sein muss. Im Fall einer sinusförmigen Bewegung ist die Mittelposition der 6 mittlere Aufenthaltsort des Tumors und für eine cos -förmige Bewegung wurde ein amplitudenabhängiger Versatz zur Mittelposition bestimmt. Deshalb ist eine 4D-Planung obligatorisch für eine SBRT. Des Weiteren konnte an Hand der Messungen gesehen werden, dass der Effekt der Dosisverschmierung an den Profilflanken der Dosisverteilung bei der Bestrahlung am TomoTherapy HiArt System nicht so deutlich ausgeprägt ist wie im Vergleich zu den Messungen am Linearbeschleuniger. Diese Beobachtung kann auf die helikale Bestrahlungsform zurück zu führen sein. Schlussfolgerungen: Tumorbewegungen bis zu 1 cm können bei einer SBRT am TomoTherapy HiArt System toleriert werden. Der geringe Verlust von Dosis an den Profilflanken könnte durch eine leichte Erhöhung der verschriebenen Dosis kompensiert werden. Es sind keine zusätzlichen Sicherheitssäume in Richtung der Bewegung des Tumors notwendig. Für größere Bewegungsamplituden (>1,5 cm oder größer als die Hälfte des Tumordurchmessers) ist der Effekt der Dosisverschmierung zu groß um diesen zu kompensieren. In solchen Fällen sollten Bestrahlungsformen mit Gating, Tracking oder verbesserter Immobilisation des Tumors verwendet werden. 02.2 Einflüsse intrafraktioneller Tumorbewegung auf die Dosisverteilung bei TomoTherapy: Messungen mit einem 4D-Bewegungsphantom 1 2 1 1 C. Grohmann , R. Werner , T. Frenzel , F. Cremers ; 1 2 Universitätsklinikum Hamburg-Eppendorf, Hamburg, Germany, Institut für Medizinische Informatik der Universität zu Lübeck, Lübeck, Germany. Einleitung: Die moderne Strahlentherapie steht auch heute noch durch inter- und intrafraktionelle Organbewegungen vor der Herausforderung, dass dem Zielvolumen die geplante Dosis appliziert wird. Interfraktionelle Bewegungen, wie Lagerungsungenauigkeiten oder Tumorgrößenänderungen, können mit bildgeführten Verfahren (IGRT) zwischen den Fraktionen berücksichtigt werden. Intrafraktionelle Effekte, wie die Bewegung von Lungen- und Lebertumoren durch die Atmung während der Bestrahlung, können durch Studien mit Bewegungsphantomen erfasst und somit bei der weiteren Planung berücksichtigt werden. Um einen Eindruck des Ausmaßes dieser Effekte auf die Dosisverteilung zu bekommen, wurde ein 4DBewegungsphantom konstruiert. Mit diesem Phantom wurden reale Patientenatemkurven simuliert. In den ersten Messungen mit diesem Phantom wurden intrafraktionelle Bewegungen und ihre Einflüsse auf die Dosisverteilung für Lungenpläne mit TomoTherapy untersucht. 10 Besonders der Einfluss der Bewegung auf die Dosishomogenität, die Gradienten sowie die Dosisverschmierungen wurden untersucht. Material und Methoden: Das 4D-Bewegungsphantom wurde gemäß der Spezifikation des Autors von der Firma Euromechanics gefertigt. Eine Plattform aus RW3-Kunststoff und Karbon kann beliebig in drei Raumrichtungen bewegt werden und somit Atemtrajektorien von Patienten simulieren. Der anterioposteriore (AP) Bewegungsspielraum beträgt 4,5 cm; der laterale sowie der craniocaudale (CC) jeweils 5 cm. Die maximale Geschwindigkeit, mit der sich das Phantom bewegen kann, beträgt 10 m/s, die maximale Beschleunigung 10 m/s². Auf der beweglichen Plattform kann das Würfelphantom „Easy Cube“ (Fa. Euromechanics) befestigt werden; das Bewegungsphantom wird mit seiner Grundplatte am Indexsystem des Beschleunigertisches befestigt. Der „Easy Cube“ wird mit diversen Inhomogenitäten, Filmen und Ionisationskammern bestückt. Das Bewegungsphantom kann bis zu 15 kg Last sicher (+/- 1 mm) bewegen. Mit radiochromen Filmen (Gafchromic-EBT2) wird die Dosisverteilung des Zielgebietes (PTV) innerhalb des Phantoms gemessen. Die Messungen ohne Bewegung erfolgten als Referenz. Durch den Vergleich mit dem unbewegten Referenzfilm werden die Bewegungseffekte evaluiert. Die Auswertung erfolgte durch MATLAB-Routinen. Ergebnisse: Die unbewegten Pläne lassen sich reproduzieren, größere Abweichungen treten hier vor allem bei Gebieten mit steilen Dosisgradienten auf, wobei das Zielgebiet (PTV) stets von der 95 % Isodose umschlossen bleibt. Unter Phantombewegung kommt es abhängig von der simulierten Atemtrajektorie zu einer Verbreiterung des Halbschattens und einer geringeren Dosisabdeckung innerhalb der Ränder des PTVs von teilweise >10 %. Diese Ergebnisse decken sich weitgehend mit denen, die in unserem Hause bereits mit einem anderen Bewegungsphantom (nur gekoppelte AP- und CC-Simulation) gemessen worden sind. Auf dem Kongress werden Ergebnisse für verschiedene Atemtrajektorien und TomoTherapy-Pläne präsentiert. Diskussion: Die Verschmierung der Dosis ist neben Unterdosierungen und seichteren Gradienten nur einer von verschiedenen bewegungsinduzierten Effekten auf die Dosisverteilung. Durch Bewegungsphantomstudien können diese Effekte gemessen werden um sie bei der Bestrahlungsplanung zu berücksichtigen. Von daher sollte das Ziel bei Bestrahlung von potentiell beweglichen Zielstrukturen sein, die im Planungs-4D-CT beobachtete Bewegungstrajektorie mit einem 4D-Bewegungsphantom vor der Bestrahlung zu simulieren um Rückschlüsse auf die Effekte auf die Dosisverteilung beim individuellen Patienten ziehen zu können. Diese Erkenntnisse sollten dann in die Wahl neuer Planparameter und Sicherheitssäume einfließen. Der Einsatz und mögliche Benefit von TomoTherapy auch bei beweglichen Zielstrukturen ist Gegenstand aktueller Forschungsvorhaben in unserem Hause. Planungssystem / ROKIS / PACS / Imaging- und Record&Verify-System open-radART integriert worden. Ergebnisse: Durch das hinterlegte Optimierungsprinzip entstehen trotz der Einschränkung auf die tangentiale Feldanordnung automatisch konvexe Isodosenlinien und DVHs, die mit alternativen IMRT-Plänen konkurrieren. Die Technik wird seit April 2011 an der Universitätsklinik für Radiotherapie und Radio-Onkologie routinemäßig angewandt. Da die Lage des Isozentrums für den Optimierer irrelevant ist, können auch saubere Feldanschlüsse in Halbfeld-Technik mit supraclaviculären / axillären Feldern realisiert werden. Im Rahmen der IGRT können die Feldaperturen (Segmente) basierend auf dem MV Portal Image adaptiert werden, ohne dass Tischverschiebungen vonnöten sind. Diskussion:´Die zusätzliche Verwendung eines optischen Oberflächenscanners erlaubt auch eine atemphasenkorrelierte Adaptierung für Gating-Anwendungen (deep inspiration breathhold). MLC-Segmente können auch intra-fraktionell zur Korrektur von BaseLine-Shifts adaptiert werden. 02.4 Ein pragmatischer Ansatz zur erweiterten Flexmap-Kalibrierung von bildgebenden Geräten am Linearbeschleuniger 1 1 2 2 P. Steininger , H. Weichenberger , J. Ematinger , K. Winklinger , F. 1,2 1,2 Sedlmayer , H. Deutschmann ; 1 Institute for Research And Development on Advanced Radiation 2 Technologies (radART), Salzburg, Austria, Universitätsklinik für Radiotherapie und Radio-Onkologie, Salzburg, Austria. Einleitung: Moderne Linearbeschleuniger (LINACs) verfügen über zwei Bildgebungsgerätschaften: einen MV-Detektor zur Messung der absorbierten Therapiedosis, und ein kV-Röntgensystem (C-Arm) zur kontrastreicheren Darstellung der Patientenanatomie. Aufgrund der Gravitation und von mechanischen Fertigungs-/Kalibrierungslimitationen weichen deren Bewegungstrajektorien bezogen auf die LINAC-ArmBewegung meist von den nominellen ab. Dies wird als Flexmap bezeichnet. Die tatsächliche Bildgebungsgeometrie ist für verschiedene bildgestützte Patienten-/Organpositionierungsverfahren (Cone-BeamCT-Rekonstruktion, 2D/3D-Registrierung) essentiell, und ermöglicht dadurch geringe Sicherheitsränder einhergehend mit verminderten Nebenwirkungen. Genauer lassen sich die Flexmap-Abweichungen einer Gerätschaft, bestehend aus punktförmiger Quelle und einem zugehörigen Detektor, durch 9 Freiheitsgrade (TS,TO,TV) beschreiben (Grafik-1). 02.3 IGRT beim Mamma Carcinom: optimaler Bestrahlungsplan und tägliche Segmentadaptierung 1 1 2 2 H. K. Deutschmann , P. Steininger , P. Kopp , H. Schöller , C. 2 2 1 2 1 Gaisberger , F. Merz , M. Mooslechner , B. Mitterlechner , S. Huber , F. 1 Sedlmayer ; 1 radART - Institut für Technologieentwicklung in der Strahlentherapie, 2 Salzburg, Austria, Universitätsklinik für Radiotherapie und RadioOnkologie, Salzburg, Austria. Einleitung: Bei der Bestrahlung von Brustkrebs werden mit großem Erfolg seit vielen Jahren tangentiale Bestrahlungsfelder mit Keilen eingesetzt. In neuerer Zeit wurden Methoden der intensitätsmodulierten Radiotherapie (IMRT) - auch als Rotationsbestrahlung (VMAT) - dazu verwendet, im Hochdosisbereich eine bessere Schonung der betroffenen Lunge und ggf. des Herzens zu erreichen. Diese Verfahren belasten allerdings größere Volumina mit kleineren Dosen, sind aufwändig (in Planung, Verifikation und Bestrahlung) und erfordern bei kleineren Sicherheitsrändern zudem genauere Lagerungen sowie Atemüberwachungen. Methoden: Es wird eine automatisierte Methode vorgestellt, die innerhalb von Sekunden einen optimalen Bestrahlungsplan generiert, der auf tägliche Veränderungen der Lage der Brust (SetupAbweichungen), auf Schwellungen, die im Verlauf der Bestrahlung auftreten können sowie auf die Atemphase adaptiert. Das Verfahren stellt eine Erweiterung der Boston-Technik (Tangente mit Feld-in-Feld Bestrahlung) dar. Dabei werden zunächst von einem Algorithmus ideale Kombinationen von Gantry- und ggf. Tischwinkeln errechnet und IMRT Segmente erzeugt, deren Energie variiert (6/15 MV). Die Form der MLCSegmente (Fluenz) sowie die zugehörigen Monitoreinheiten ergeben sich über Homogenitätskriterien für das Planungszielvolumen (95-107%, besonderer Fokus auf den Dosisaufbau), aus der Analyse von Projektionsbildern - quantitative DRRs in der Planungsphase, absolut kalibrierte EPIs (MV Exit-Dosimetrie) in der Bestrahlungsphase. Die Algorithmen zur automatischen Aufnahme und Segmentierung dieser Bilder sind in Form von Plan-Template-Skripts in das bei uns entwickelte 11 In der Literatur werden verschiedene Verfahren für die (semi-) automatisierte Flexmap-Kalibrierung bezogen auf ein statisches Referenzkoordinatensystem vorgeschlagen. Die einfachsten Methoden korrigieren lediglich zwei Freiheitsgrade (Verschiebung innerhalb der nominellen Detektorebene), Verfahren zur Rekonstruktion mehrerer Freiheitsgrade involvieren hochpräzise Phantome und komplexe Algorithmen. Daher wird eine erweiterte kV-/MV-kompatible FlexmapKalibrierungsmethode vorgestellt, die hinsichtlich Kosten- und Ressourceneffizienz mit einem Routinestrahlentherapiebetrieb vereinbar ist. Methodik: Voraussetzungen: Unsere Methode nutzt ein leicht fertigbares, zylindrisches Plexiglas-Phantom, in das helikal angeordnet Stahlkugeln eingebettet sind (Grafik-2). Ergebnisse: Auf Basis der zu erwartenden 3D-CTStahlkugelsegmentierungsfehler (+/-0.5mm), 2D-CTStahlkugelsegmentierungsfehler (+/-0.2mm) und PhantomPositionierungsfehler (+/-0.5mm, +/-0.2°) wurden im Zuge von synthetischen Simulationen die pro Freiheitsgrad zu erwartenden Standardabweichungen berechnet (Tabelle-1). Grafik-4 zeigt die Auswertung einer kV-Messserie (ELEKTA-Synergy, kV-Arm ist 90° zum LINAC-Arm versetzt) für die drei translationalen Detektorfreiheitsgrade (TO) gemäß der vorgestellten Methode. Die Basis für diese Auswertung stellten ein Phantom-CT (0.6x0.6x1.0mm) und kVBilder (0.4x0.4mm) dar. Zusätzlich wird eine orthogonale Standard-CT-Aufnahme des Phantoms benötigt. Die 3D-Positionen der Stahlkugeln im CT-Scan werden automatisch mittels stahlkugelspezifischer Modelle segmentiert. Am LINAC muss die physikalische Arm-Winkelposition mit der kV-/MVBildakquisitionssoftware wasserwaagebasiert synchronisiert werden. Weiters ist das Raumlasersystem am LINAC auf das nichtenergieabhängige mechanische Isozentrum durch Standardverfahren zu kalibrieren. Flexmap-Messungen: Das Flexmap-Phantom wird bezüglich der Referenzmarkierungen (Grafik-2) am LINAC mit den Lasermarkierungen bestmöglich ausgerichtet. Folgend werden zentrierte MV-/kV-Aufnahmen des Phantoms akquiriert, alle 10° (LINAC-Arm) im Uhrzeigersinn und gegen denselben um etwaige Hystereseeffekte zu erfassen. Flexmap-Analyse: In allen MV-/kV-Aufnahmen werden die Stahlkugelpositionen unter Korrespondenzerhaltung genau mittels konvolutionsbasierter Segmentierung und Einbeziehung der energieabhängigen StahlAbsorptionskoeffizienten ermittelt. Auf Basis der vorhandenen Korrespondenzen zwischen den 3D-Stahlkugelpositionen (CT) und den 2D-Stahlkugelpositionen (MV/kV-Bilder) kann eine überbestimmte nichtlineare Sammlung von projektiven Assoziationen hergestellt werden (Grafik-3). Schlussfolgerungen: Die vorgestellte MV/kV-FlexmapKalibrierungsmethode zeigt, dass die Detektorverschiebung orthogonal zur Projektionsrichtung und die Rotation um dieselbige mit hoher Genauigkeit rekonstruiert werden können. Weiters kann auch die Skalierung (Quelle-Detektor-Abstand) suffizient abgeschätzt werden, laserbasierte Messungen haben dies am LINAC bestätigt. Die restlichen Freiheitsgrade müssen allerdings vorerst aufgrund hoher zu erwartender Fehler ignoriert werden. Diese erfolgreich rekonstruierten FlexmapFreiheitsgrade tragen potentiell zur Verbesserung der Genauigkeit von kV-/MV-Bild-basierten Rekonstruktionen in der Radiotherapie bei. Im Moment werden ausführliche Mess-/Auswerteserien an unseren LINACs durchgeführt, um in den nächsten Wochen die Reproduzierbarkeit der Methode bewerten, weitere Verfeinerungen vornehmen, und schlussendlich eine breitere Datenbasis (vor allem bezüglich aller 9 Freiheitsgrade) vorstellen zu können. 02.5 IGRT dose from different therapy and imaging modalities 1 1 2,1 R. A. Hälg , J. Besserer , U. Schneider ; 1 Radiotherapy Hirslanden AG, Institute for Radiotherapy, Aarau, 2 Switzerland, Vetsuisse Faculty, University of Zurich, Switzerland. Die inhärenten 9 Freiheitsgrade können durch nichtlineare Regression (Gauss-Newton) gelöst (optimiert) werden. 12 It is assumed that modern radiation treatment techniques such as intensity-modulated radiotherapy (IMRT) and volumetric-modulated arc therapy (VMAT) are increasing the cancer cure rates and simultaneously reducing side effects. On the other hand, such dynamic treatment techniques increase beam-on time compared to static conformal treatment fields and the dose distribution is susceptible to shifts in patient positioning and organ movements. Therefore, additional imaging modalities are used to verify the position of the tumor and the organs at risk, leading to image guided radiotherapy (IGRT). These additional doses provoke concerns about radiation induced malignancies using these techniques, in particular, for younger patients. The aim of this study was to measure scatter and imaging doses for a radiotherapy patient during typical treatments and to assess the amount of additional dose through different gantry-mounted imaging techniques. In order to evaluate the scatter and imaging dose for a patient, an anthropomorphic Alderson-Rando phantom was used. The measurements were performed using TLD-100H detectors, placed inside the phantom, facilitating the determination of a three dimensional dose distribution and the evaluation of the doses to radiation sensitive organs. The clinical setup was the curative irradiation of a rhabdomyosarcoma of the prostate for an adolescent patient. The series of measurements included photon irradiations delivered by a Varian CLINAC linear accelerator and an OBI gantry-mounted imager and the treatment techniques 3D-conformal, IMRT and VMAT and the imaging modalities CBCT, kV and MV planar images. The doses were determined in terms of absorbed dose at 184 positions in the phantom. The measurements of therapy and imaging irradiations were combined in different ways to calculate the total dose for every measurement point for different treatment and imaging schemes. This led to three dimensional dose distributions for selected complete courses of treatment. The following figures show examples of the measured doses along the medial patient axis, starting at 0 cm in the target and going up to the head to 82.5 cm. In one figure, the different treatment techniques are compared using a CBCT-only scheme. The mean dose difference outside of the treatment field compared to the 3D-CRT 52 Gy irradiation is +13 mGy for IMRT and -13 mGy for VMAT. The other figure shows the additional dose for different imaging schemes for IMRT relative to the therapy dose. The mean additional imaging dose for the IMRT treatment outside the primary field is 8.49%, 0.06%, 1.98% and 1.68% for CBCT, kV-kV, kV-MV and MV scheme, respectively. Eine Kenntnis der Dosisbeiträge von Nutzstrahlung und IGRT-Verfahren in diesen Regionen ist daher wichtig zur Wertung möglicher Verfahren. Material und Methode: Mit einem Alderson-Thorax-Phantom und zusätzlichen Quaderformen wird ein menschlicher Rumpf simuliert (Abb. 1). Gemessen werden die Dosiswerte im Isozentrum (steht stellvertretend bei den IGRT-Verfahren für Scanmitte bzw. Mitte des field of view) im Mediastinum und an zwei Positionen (repräsentativ für Linsen und Gonaden) in der gleichen Messebene kaudal des Thorax. Bei den Messungen variiert der Abstand zwischen der Isozentrumsposition und dieser Messebene zwischen 10 und 50 cm. Untersuchte IGRT-Verfahren sind das MV-cone-beam (CB)-CT (Oncor; Siemens); das ExacTrac-X-Ray-System (Brainlab); kV-CB-CT (Synergy, Elekta) und ein fan-beam-CT (Somatom Sensation Open; Siemens). Bezüglich der Bestrahlungstechniken, repräsentiert durch (meist) ein Stehfeld (Beschleuniger Primus oder Oncor-160; Siemens), werden Feldgröße und Energie variiert, sowie Keilfilter und ein tertiärer MultileafKollimator (MLC; M3; BrainLab) einbezogen. Die Feldgrößenvariation beinhaltet auch unterschiedliche offene, nicht durch die jaws abgedeckte Oberflächen des Beschleuniger-MLC bzw. des tertiären Kollimators bei gleicher MLC-Feldgröße. Damit wird ein Einfluß dieser offenen MLCOberfläche auf die Messungen untersucht. Generell werden die Messungen jeweils mit und ohne Streukörper (Thoraxphantom) im bestrahlten bzw. gescannten oder exponierten Volumen durchgeführt. Damit wird eine Separation der Dosiswerte außerhalb des bestrahlten Volumens in einen Dosisbeitrag aus diesem Volumen (Volumendosis) und in einen Dosisbeitrag aus der Strahlungsquelle (Quellendosis) möglich. Abb. 1: Ansicht des verwendeten Phantomaufbaus mit Darstellung der Isozentrums- und der Mess-ebene Isozentrumskreuze am Alderson-Thoraxphantom Phantomplatten (2x, Kodak, Messpunktebene Polyäthylen) Messpunkt Linse (RW-3) Messpunkt Gonaden (Dosimeter würfel) Holzplatten Isozentrumsebene The combination of these measurements of scatter doses in therapy and imaging doses on the same grid of measurement points, allows to estimate and compare total doses for treatments with different usage of the given therapy techniques and imaging modalities. This can be the basis for risk estimations for radiation induced malignancies in terms of the chosen modalities. 10000,000 02.6 Vergleich der Dosisbeiträge verschiedener IGRT-Verfahren und Bestrahlungstechniken innerhalb und außerhalb des Scanbereiches (bzw. field of view) oder des Nutzstrahles mittels Phantommessungen 1,2 3 Zielstellung: Aktuell wird nicht nur der zusätzliche Dosiseintrag von IGRT-Verfahren im bestrahlten Volumen, sondern auch der Dosisbeitrag dieser Verfahren und der Bestrahlungsfelder außerhalb des bestrahlten Volumens diskutiert. Diese Dosisbeiträge können sowohl stochastische (Malignominduktion) als auch deterministische (z.B. gestörte Spermiogenese, Sterilität, Blutbildung) Strahlenschäden verursachen. X6/10x10 cm2/30grdKeil X6/10x10 cm2 1000,000 X6/3x3 cm2/M3 X6/3x3 cm2 MV-CB-CT 100,000 fan-beam-CT Dosis / mGy 1 P. Geyer , P. Sinha , H. Blank ; 1 Universitätsklinikum Carl Gustav Carus Dresden; Klinik und Poliklinik 2 für Strahlentherapie und Radio, Dresden, Germany, OncoRay, 3 Dresden, Germany, Strahlentherapiepraxis Jörg Distler, Bautzen und Dresden, Germany. Beinblöcke (2x, RW-3) Ergebnisse: Die absoluten Dosisbeiträge der IGRT-Verfahren und der Bestrahlungstechniken unterscheiden sich um Größenordnungen (Abb. 2). Die Verwendung zusätzlicher Streuquellen wie Keilfilter oder tertiärer Kollimatoren erhöht die Dosis außerhalb des bestrahlten Volumens deutlich mehr als die Anwendung von IGRT-Verfahren. Dieser geringere Dosiseintrag der IGRT-Techniken beruht nur auf deren geringerer Dosis im Isozentrum, die relative Dosis für alle Verfahren als Funktion des Abstandes zum Isozentrum spiegelt diese Trennung in IGRT und Bestrahlungstechniken nicht wider. Die relativen Dosiskomponenten Volumendosis und Streudosis unterscheiden sich für IGRT-Verfahren im kV-Bereich deutlich weniger als für hochenergetische Photonenstrahlung des Beschleunigers. Bei letzterer Strahlart fällt die Volumendosis mit dem Abstand zum Isozentrum deutlich steiler ab als die Quellendosis (Abb. 3). Abb. 2: Gonadendosis im Phantom für IGRT-Verfahren und verschiedene Bestrahlungsfelder ExacTrac-X-Rays (2 Images) 10,000 1,000 0,100 0,010 0,001 0,000 0 10 20 30 40 Isozentrumsabstand / cm 50 60 13 (letztere auf 2 Gy im Isozentrum normiert) in Abhängigkeit des Isozentrumabstandes Abb. 3: Dosiskomponenten für den Messpunkt „Gonaden“ für das fanbeam-CT und ein 62 MV-Photonenfeld mit M3 und Feldgröße 3 x 3 cm als Funktion des Isozentrumsabstandes 1,0000 fan-beam-CT; Quellendosis Dosis relativ zur Isozentrumsdos fan-beam-CT;Volumendosis 0,1000 X6;M3;Quellendosis X6;M3;Volumendosis 0,0100 0,0010 0,0001 0,0000 0 10 20 30 40 50 60 Abstand Isozentrum - Messebene / cm 02.7 Patientenpositionierung in der Stahlentherapie mittels 3D Ultraschall 1 1 1 1 1 M. Kaar , R. Hoffmann , A. Bhatia , A. Bhatia , A. Lampret , 1,2 J. Hummel ; 1 2 Meduni Wien, Wien, Austria, Wilhelminenspital, Wien, Austria. Motivation: Die Positionierung von Tumoren, insbesondere im Bereich von Weichteilen, ist ein bekanntes Problem, für das schon eine Reihe von Lösungen existieren. Wir stellen einen neuen Ansatz vor, der durch den Einsatz von Ultraschall (US) ohne zusätzliche Strahlenbelastung auskommt und eine Nachrüstung von bestehenden Linearbeschleunigern ohne großen Aufwand möglich macht. Zum Unterschied von bestehenden US-Systemen funktioniert unser Positionierungssystem vollautomatisch. Systemaufbau: Das vorgestellte System besteht aus einem optischen Tracker mit zwei Sensoren, einem 3D Ultraschallgerät und einem Rechner, der mit Software für Tracking und Registrierung ausgestattet ist. Der Tracker misst laufend die Positionen und Lage eines Referenzssensors und eines zweiten, starr am Ultraschallkopf angebrachten Sensors. Ablauf: Patienten werden zunächst einem CT-Scan unterzogen, unmittelbar danach wird mit unserem System eine getrackte 3DUSAufnahme des zu bestrahlenden Bereiches gemacht. Je ein weiteres US-Volumen dieses Bereichs wird unmittelbar vor jeder Teilbehandlung auf der Couch des Linearbeschleunigers aufgenommen. Dieses wird mit der ersten Aufnahme registriert. Unter Berücksichtigung der Positionsdaten kann nun jene Bewegung errechnet werden, die das Isozentrum aus dem Planungs-CT in das Isozentrum des Linearbeschleunigers bringt. Die gesamte Transformationskette besteht dabei aus sieben Transformationen, von denen vier aus Kalibrationen mittels selbstentwickelter Phantome bestimmt werden, zwei weitere Transformationen werden aus den Trackerdaten gewonnen und die siebente aus einer 3D-3D Registrierung mittels selbstentwickelter Software. Registrierung: Die Registrierungssoftware kann eine Reihe von Filtern mit verschiedenen Gewinnfunktionen kombinieren und den Verlauf der Registrierung live anzeigen. Derzeit stehen die Filter Minmax Curvature Flow, Discrete Gaussian Blur, Gradient Anisotropic Diffusion, Curvature Anisotrop Diffusion, Median in der Implementierung von ITK sowie ein selbstentwickelter Importance Image Filter für das Preprocessing der US-Bilder zur Verfügung. Für den Optimierungsprozess wird ein mehrstufiger Algorithmus eingesetzt, der bei niedrigen Auflösungen zunächst Näherungswerte berechnet, und im weiteren Verlauf die Auflösung schrittweise erhöht. Dadurch kann eine signifikante Steigerung der Robustheit und der Performance erreicht werden. Es warden alle sechs Freiheitsgrade optimiert (drei der Translation und drei der Rotation). Als Bildmetriken stehen ‘Mutual Information’, ‘Mean Squares’, ‘Normalized Cross-Correlation’, ‘Mean Reciprocal Square Differences’, ‘Mattes Mutual Information’, und ‘Stochastic Rank Correlation’ zur Verfügung. Derzeitiger Stand: Das System wurde zunächst mit Phantomen entwickelt und getestet. Dabei ergab sich eine durchschnittliche 14 Abweichung von 1,5 mm. Derzeit wird das System in einer Patientenstudie erprobt. Wir untersuchen dabei auch, ob eine patientenspezifsche Auswahl von Bildmetrik und Filtertyp, sowie eine patientenspezifische Parametrisierung die Genauigkeit und/oder Robustheit der Registrierung verbessern können. Session 3: Information und Bildverarbeitung 03.2 Superposition of virtual equipotential lines on medical images for organ segmentation J. Schnabel; Institute of Biomedical Engineering, University of Oxford, Oxford, United Kingdom. In this talk I will present our recent research efforts and advances in the field of lung cancer image analysis, as part of the CRUK/EPSRC Oxford Cancer Imaging Centre, and the Biomedical Image Analysis (BioMedIA) Laboratory at Oxford. I will focus on a number of novel non-rigid image registration methodologies developed for respiratory motion correction in lung imaging, which is a particularly challenging application due to the combination of rigid structures, such as the ribs, and largely deformable structures involved, such as the lungs and liver. We are currently working on two major challenges in this field: 1. Correcting for the sliding motion of the lungs, leading to locally discontinuous deformations, and 2. Formulating computational tractable solutions to information-theoretic measures of image alignment between computed tomography (CT) and magnetic resonance (MR) image volumes. Figure 2: Left: resulting equipotential line (red) of all virtual charges. Right: resulting contour from the edge detection and the equipotential line. In the brighter points, the detected edge and the equipotential line are overlapping. It can be seen that the equipotential line does indeed not trace the edges of the main vessels. Ideally, it should also cover all points of the detected edge of the heart. The edge detection and the fitting of the equipotential lines have been realized and already combined as can be seen from the figures. The next step is to find of the optimal distribution of the virtual electrical charges and hence a closer adaptation of the equipotential line to the extracted edges. This shall be done by an optimization algorithm that is presently under development. 03.4 Navigationssystem für gastro-intestinale Endoskopie 1 03.3 Superposition of virtual equipotential lines on medical images for organ segmentation J. Becker, M. Fedrigo, O. Tischenko, C. Hoeschen; Helmholtz Zentrum München, Neuherberg, Germany. The recognition of human anatomy in a grey scale medical 3D image as obtained e.g., by computed tomography, is a difficult process. This is getting more important, since modern medical imaging techniques, e.g. cancer treatment, are developing fast. The reason is that the steadily increasing amount of image data can only be mastered with meaningful effort if computer assisted methods can be employed that take the patient’s anatomy into account. In contrast to existing image analysis tools, the human eye can identify an organ in a slice of a 3D data set. Depending on the training and knowledge of the person about human anatomy and how to interpret medical images, organ borders may be recognized even if these are hardly visible because of lacking contrast between the grey values of organ and surrounding tissue, e.g. heart and major blood vessels (see Fig. 1). Organs and tissues having similar physical properties with respect to the medical imaging device (e.g., photon absorption in CT) are represented with similar grey values. It is thus a great challenge for an automatic routine to identify the often barely visible organ borders. The authors would like to present a new approach for performing this task and aiding the human observer. The main idea is to transfer concepts from electro-techniques to medical imaging. The problem of finding the organ border shall be realized by combining an edge detection algorithm and the equipotential line generated by virtual electric elementary charges. These are placed within an area inside the organ to be segmented. Currently, this has to be done manually. The spatially distributed charges provide a resulting equipotential line and hence closed contour that can be used as a first “a priori” guess of an organ border. Superimposed on the medical image, this equipotential line provides the missing organ borders by tracing those parts of the organ borders that have been found by edge detection. Figure 1: Transversal slice of a female thorax. Left: virtual electric charges placed manually (green). Right: corresponding edge detection image. 1 1 1 1 1,2 R. Hoffmann , M. Kaar , A. Bhatia , A. Bhatia , M. Figl , J. Hummel ; 1 2 Meduni Wien, Wien, Austria, Wilhelminenspital, Wien, Austria. Einleitung: Bei einer endoskopischen Untersuchung des Gastrointestinaltrakts zur Abklärung bösartiger Veränderungen ist oft der Einsatz zusätzlicher endoskopischer Ultraschallaufnahmen (US) notwendig, damit auch Gewebsschichten biopsiert werden können, die hinter der Darm- bzw. Magenwand liegen und so für die endoskopische Videokamera nicht sichtbar sind. Da die Bildqualität dieser Endosonoschallköpfe sehr schlecht ist, wäre es von beträchtlichem Nutzen, die vom endoskopischen US (eUS) gezeigte Bildebene auch zusätzlich aus einem zuvor angefertigtem hochauflösenden CT Volumen heraus darstellen zu können. Die Entwicklung eines Verfahrens, welches eine CT-Bildebene korrespondierend zu einem jeweiligen Ultraschallbild erzeugt ist das Ziel unserer Forschung. Ein erster Ansatz, der auf einer direkten Registrierung zwischen dem CT und dem Endoskop US basierte, wurde auf Grund von nicht ausreichender Genauigkeit verworfen. Unser neuer Systemansatz erfordert eine zusätzliche transabdominale 3D US Aufnahme, die unmittelbar nach dem CT ebendort akquiriert wird. Dadurch lässt sich die instabile, intermodale 3D3D US CT Registration durch eine intramodale US-US Registration ersetzen, was sowohl Genauigkeit als auch Zuverlässigkeit steigert. Methoden: Um die gesamte notwendige Transformationskette zu berechnen sind insgesamt fünf Einzelschritte notwendig. Für die Kalibration des CTs mit dem 3D Ultraschall wird ein optisches Positionierungssystem (OPS) und ein einfaches Punktphantom verwendet, das im wesentlichen aus fünf Bohrungen in einer PMMA Platte besteht. Die CT-Koordinaten der Bohrungen können direkt am CT-Volumsdatensdatz abgelesen werden, während die entsprechenden Koordinaten bezüglich des OPS mittels einer Punktsonde bestimmt werden. Der Referenzrahmen des OPS wird dazu fix an der CT-Gantry befestigt. Ein weiterer optischer Sensor wird am Schallkopf des 3D US Geräts angebracht und mit Hilfe bekannter Methoden (‘Ultraschallkalibration’) kalibriert. Wird nun der Patient (bzw. das Phantom) geschallt, erlauben die beschriebenen Kalibrationsschritte eine Transformation beliebiger Punkte aus dem CT ins 3D US und umgekehrt. Um die CT-Bildinformationen auch bei der endoskopischen Untersuchung zu Verfügungen zu haben wird unmittelbar vor dieser ein zweites 3D-US-Bild vom Patienten (bzw. Phantom) gemacht. Eine intramodale 3D3D US-US Registration erlaubt nun eine Transformation vom aktuellen (intervenionellen US) zum präinterventionellen CT. Als Nächstes kalibiert man den eUS wird mit denselben Methoden wie den 3D US, nur dass zu diesem Zweck ein elektromagnetischer Positionsgeber (EPS) zur Verwendung kommt. Als letzter Schritt müssen die beiden Positionsgeber zueinander kalibriert werden. Dazu wird ein optischer Sensor am Feldmitter des EPS befestigt. Das bereits zur CTKalibration verwendete Phantom kann mit den Punktsonden beider PS angefahren und die fehlende Transformation durch eine Punkt-zu-PunktRegistration ermittelt werden. Nun können drei beliebige Punkte aus dem eUS ins präinterventionlle CT-Volumen transformiert werden und die dem eUS-Bild entsprechende Ebene kann aus dem CT berechnet und dargestellt werden. Resultate: Für die gesamt Transformationskette liegen noch keine Ergebnisse vor. Die Einzelnen Registrations- bzw Kalibrationsschritte wurden aber bereits ausgiebig getestet. Bezügliche der US-Kalibrationen fanden wir einen Fehler von 1.0 mm (3D US) beziehungsweise 2.6 mm (endoskopischer US). Die Punkt-zu-Punktregistrationen zeigten eine 15 Genauigkeit von 0.5 mm (CT-OPS) bzw. 0.8 mm (OPS-EPS). Der Fehler bei der intramodalen 3D3D-Registration wurde mit ca. 2 mm bestimmt (Checkerboardanalyse). Daraus lässt sich mit Hilfe des Fehlerfortpflanzungsgesetzes ein Fehler für die gesamte Kette vom CT in den endoskopischen US von ca. 3.6 mm erwarten. 03.5 First results of the validation of an ITK implementation of piecewise non-rigid registration algorithm. 1 2 1 2 D. Fabri , V. Zambrano , W. Birkfellner , D. Georg ; 1 Center of Medical Physics and Biomedical Engineering, Medical 2 University of Vienna, Vienna, Austria, University Clinic of Radiotherapy, Division of Medical Radiation Physics, Medical University of Vienna, Vienna, Austria. Introduction: Inter-fraction deformations are present in almost every patient and area of treatment in radiotherapy. They are related to anatomical changes in the patient, like change in weight, different bladder filling, internal motion, tumor shrinkage, etc. Because of the necessity of evaluating the total dose received by the different structures it is important to incorporate this deformations in the moment of adding the fraction doses. The aim of this work is to evaluate in a simple way the performance of the ITK implementation of piecewise non-rigid registration algorithm developed in our department. Materials and Methods: A deformable phantom was developed. A gray box made of 4 rigid faces and 2 flexible faces was made, and filled in with gelatin. Different layers of gelatin where added to be able to put in 10 mm Teflon spheres markers in between, 23 of them where placed in the interior of the phantom. Three series of CBCT images where taken of the phantom , the first data set was acquired without deforming the phantom. The other two series of images where acquired with a small deformation obtained by adding weight to the flexible faces of the gray box. The total displacement of every marker was measured. Rigid registration, b-spline deformable registration implemented in Slicer 3.3 and piecewise registration was preformed between the images. The new position of the markers was measured after the registration. Results: The average displacement of the markers after the first deformation was 4.57 mm, being 0 mm a full recovery of the original position after the registration the obtained results were: rigid registration 2.78 mm, b-spline registration 2.43 mm and for the piecewise registration 1.40 mm. For the second deformation the average displacement was 4.37 mm after rigid registration 1.80 mm, b-spline registration 1.85 mm and after piecewise registration 0.76 mm. Conclusion and Future work: The piecewise registration is a clear improvement from the simple rigid or b-splin registration. In the case of the second deformation where the displacements are smaller, already the rigid registration is almost recovering the original positions of the markers. It is necessary to evaluate the performance of the algorithm in a more elaborated way where the behavior of the anatomical structures are emulated in a better way and bigger deformations are obtained and compare the performance with algorithms like Demons and Morphons. 03.6 Real-time 2D/3D registration for tumor motion tracking during radiotherapy 1 1 1 1 1 1 H. Furtado , C. Gendrin , C. Weber , C. Bloch , M. Figl , S. A. Pawiro , 1 2 2 1 H. Bergmann , M. Stock , D. Georg , W. Birkfellner ; 1 Center of Medical Physics and Biomedical Engineering, Medical 2 University of Vienna, Vienna, Austria, University Clinic of Radiotherapy, Division of Medical Radiation Physics, Medical University of Vienna, Vienna, Austria. Objectives: Intra-fractional movement during radiotherapy is one of the main sources of uncertainty in dose application. Periodic movements, correlated with the breathing or cardiac cycle and other aperiodic movements, create the need to extend the margins of the planned target volume (PTV) in order to make sure the full tumor volume is correctly irradiated. This results in patients getting higher doses than they actually need. The aim of our work is to investigate the feasibility of continuous tumor motion tracking using intensity based image registration techniques. Taking advantage of modern devices where x-ray images can be acquired during treatment, we aim at providing registration with a sufficient update-rate to be able to follow tumor motion in real-time thus enabling further reduction of the PTV with the consequent reduction of total dose delivery to the patient. 16 Materials and Methods: We use an intensity-based technique for the 2D/3D registration therefore, requiring no markers or fiducials. X-ray images, acquired during treatment, are compared to digitally rendered radiographs (DRRs) generated from the planning volume dataset. An optimizer searches for the spatial transformation which generates the best match between the DRR and the x-ray. The two images are compared using normalized mutual information [1] as merit function which was shown to be the best compromise between speed and accuracy when using images of this kind [2][3]. The DRRs are generated using a ray casting algorithm which is implemented on a general purpose graphics processing unit (GPGPU) and programmed in CUDA for best performance. The registration is done on a region of interest centered around the PTV as this is the region where we want to follow movement. We validated our approach off-line using a phantom and datasets from five clinical patients undergoing therapy in our center. In all cases, a 3D dataset was acquired before treatment and a set (between 105 and 150) of x-rays were acquired during treatment. Results: The movement of the phantom is measured with an rms error of 2.05mm in comparison with the known displacement (Fig. 2a). On the patient datasets we measure a movement which clearly correlates with the respiratory cycle (Fig. 2b) which was obtained by extracting the diaphragm movement from the treatment x-rays. Mean registration time is 220ms for the phantom dataset and 77.7ms for the patient datasets. Conclusions: We implemented an image based markerless registration framework, able to robustly follow tumor motion during radiotherapy treatment with sufficient update-rate to process data in real-time. The update-rate can be further increased by implementing other components of the registration scheme - such as the merit function - in the GPGPU. [1] Maes F, et al. Multimodality image registration by maximization of mutual information. IEEE Trans Med Imag 1997;2:187-98. [2] Pawiro S A, et al. Validation for 2D/3D registration I: A new gold standard data set, Med. Phys. 38, 1481(2011) [3] Gendrin C, et al. Validation for 2D/3D registration II: The comparison of intensity- and gradient-based merit functions using a new gold standard data set, Med. Phys. 38, 1491(2011) Fig.2: 03.7 GPU-beschleunigte Mehrweg-2D/3D-Registrierung und Automaskierung zur interfraktionellen Patientenpositionierung: erste klinische Ergebnisse am Beispiel des Beckens 1 1 1,2 1,2 P. Steininger , M. Neuner , H. Deutschmann , F. Sedlmayer ; 1 Institute for Research and Development on Advanced Radiation 2 Technologies (radART), Salzburg, Austria, Universitätsklinik für Radiotherapie und Radio-Onkologie, Salzburg, Austria. Einleitung: Die tägliche, bildgestützte Patientenpositionierung in der Radiotherapie rechtfertigt die Verringerung von Bestrahlungssicherheitsrändern und reduziert die Wahrscheinlichkeit für Komplikationen im Normalgewebe (NTCP). Gleichzeitig wird die Tumorkontrolle (TCP) potentiell erhöht, wenn höhere Dosen appliziert werden. Zur Bestimmung der tatsächlichen Lage des Bestrahlungszielgebiets vor jeder Therapiefraktion können direkt am Linearbeschleuniger akquirierte kV-Röntgenbilder verwendet werden. Im Vergleich zu volumetrischen Bildgebungsverfahren (Cone-Beam-CT) bestechen projektive Bildmodalitäten durch Aufnahmegeschwindigkeit und niedrige Zusatzstrahlenbelastung für den Patienten. Die geometrische Ausrichtung (Bildregistrierung) der akquirierten 2DBilddaten auf die geplante Bestrahlungsgeometrie, repräsentiert durch das Planungs-CT, kann manuell oder automatisch erfolgen. Manuelle Registrierungsansätze, etwa die Projektion prominenter Merkmale von im CT segmentierten 3D-Strukturen auf kalibrierte 2D-Aufnahmen und die darauf basierende Anwendung von korrigierenden Tischverschiebungen, weisen fallweise inakzeptable InterobserverVariabilität auf. Zur Steigerung der Registrierungsobjektivität werden ein vollautomatischer Ansatz zur 2D/3D-Registrierung von ein oder mehreren 2D-Röntgenbildern zu einem Referenz-3D-CT und zugehörige erste Ergebnisse auf klinischen Radiotherapiedatensätzen (Beckenbereich) vorgestellt. Methodik: Die Registrierung von N 2D-Bildern XR,i,i=1..N zu einem 3DT Volumen XM kann wie in Formel-1 definiert werden. Dabei sind Pi(XM ) digital rekonstruierte Röntgenbilder (DRRs) des mit der rigiden Transformation T transformierten Volumens. Die Kostenfunktionen Fi(.,.) berechnen das Ähnlichkeitsausmaß zwischen den DRRs und den zugehörigen 2D-Röntgenbildern. Die Registrierung kann als numerisches Optimierungsproblem Topt angesehen werden: die Summe T der Kostenfunktionen Fi(Pi(XM ),XR,i) wird iterativ über die Transformationsparameter {t}j, die die Transformation Tj in der j-ten Iteration instantiieren, minimiert. Dabei erlauben die Operatoren Oi eine individuelle numerische Interpretation der einzelnen Referenzbilder i. Generell wird die Konvergenzgeschwindigkeit und die Registrierungsgenauigkeit erhöht, wenn N>=2 gilt und die Betrachtungsrichtungen adäquat gewählt werden. Die beschriebene Methode wurde als Modul in die institutseigene CEzertifizierte R&V-Bestrahlungssoftware integriert (siehe Grafik-1). Die DRR-Berechnung (ray-casting) wurde auf der Grafikkarte (GPU) implementiert, um die Registrierungsgeschwindigkeit mittels der hohen Anzahl an parallelen Recheneinheiten zu maximieren. Als Kostenfunktionen wurden Gradient-Difference (GD), Normalized-CrossCorrelation (NCC), Normalized-Mutual-Information (NMI) und StochasticRank-Correlation (SRC), als numerisches Optimierungsverfahren Downhill-Simplex (AMOEBA) implementiert. Zusätzlich unterstützt das Modul die vollautomatische Erzeugung von binären Maskenbildern Mi, die es ermöglichen bestimmte Röntgenbildregionen (Lagerungshilfen, irrelevante Patientenanatomie) von der Kostenfunktionsberechnung auszuschließen. Die Automaskierung erfolgt durch skriptgesteuertes Vorverarbeiten, logische Verknüpfung und Projektion von 3D-Strukturen der Bestrahlungsplanung. Ergebnisse: Um die Registrierungsleistung zu testen wurden 27 orthogonale Röntgenbildpaare (410x410mm, 1mm Auflösung, unsharpmasked) und die zugehörigen CT-Bilder (0.98x0.98x2.5mm, Beckenregion) von 9 klinischen Radiotherapiepatienten herangezogen. Die Automaskierung wurde so konfiguriert, dass das Becken, aber nicht die Femora zur Kostenfunktionsberechnung beitragen. Die anfänglichen Fehlpositionierungen bezogen auf das Zielgebiet (target-registrationerror, TRE) sind in Tabelle-1.a gelistet. Um die Registrierungsgenauigkeit infolge unterschiedlicher Kostenfunktionen zu vergleichen, wurden die Registrierungen mit GD, NCC, NMI und SRC (50% der Pixel) berechnet (siehe Tabelle-1.b). Die abgebildeten Registrierungsfehler beziehen sich auf das Zielgebiet und einen manuell determinierten (translationalen) Goldstandard. Schlussfolgerungen: Die Ergebnisse des implementierten Registrierungsansatzes über 108 Registrierungen zeigen, dass NCC, NMI und SRC ähnlich genaue Registrierungsfehler aufweisen. In Hinblick auf die Laufzeit, Genauigkeit und Robustheit scheint SRC einen idealen Trade-Off darzustellen. Die SRC-Ergebnisse auf klinischen Daten (mean-TRE 1.78mm+/-0.11mm, 0.9-Quantil 2.82mm, 7.85s Registrierungszeit) sind mit anderen Publikationen auf Phantomdaten vergleichbar. Insgesamt sind wir zuversichtlich, dass sich die schon jetzt erfreulichen Ergebnisse durch zusätzliche algorithmische Verfeinerungen weiter verbessern lassen. 17 Session 4: Instrumentierung und Bildverarbeitung 04.1 Erzeugung tomographischer Bilder für die Lagerungsverifikation in der Strahlentherapie mithilfe der Compressed Sensing Methode S. Vaegler, A. Richter, O. A. Sauer; Universität Würzburg, Klinik und Poliklinik für Strahlentherapie, Würzburg, Germany. Einleitung: Für die Tumorbestrahlung ist eine genaue Patientenlagerung bei jeder Behandlungsfraktion zu gewährleisten. Informationen für die Positionierung liefern Cone-Beam-CT-Bilder. Ziel dieser Arbeit ist die Anzahl der Projektionen bei dem Bildgebungsprozess zu verringern, ohne dabei den Informationsgehalt für die Patientenlagerung durch Artefakte zu verringern. Dies ermöglicht der Compressed Sensing (CS) Algorithmus, der insbesondere unter Zuhilfenahme eines vorher vollständig aufgenommenen Referenzdatensatzes, akkurate Rekonstruktion erzeugen kann. Dieses Verfahren ist als Prior Image Constrained Compressed Sensing (PICCS, [1]) bekannt. In einer Machbarkeitsstudie soll untersucht werden, in wieweit die Anzahl der Projektionen verringert und dabei Datensätze mit geringfügigen Veränderungen wie Verschiebungen bzw. Größenänderungen unter Berücksichtigung von vollständig aufgenommenen Datensätzen akkurat rekonstruiert werden können. Material und Methoden: CS-Algorithmen minimieren in der Regel die l1Norm. In dieser Arbeit wurde zusätzlich die Erweiterung Non-convex Prior Image Constrained Compressed Sensing [2] verwendet, bei dem die Minimierung der lp-Norm erfolgt. Die lp-Norm ist wie folgt definiert: Hierbei ist 0<p≤1. Damit ergibt sich folgendes Minimierungsproblem: so dass MX=P. Ψ ist die diskrete Gradiententransformation, X das zu rekonstruierende Bild, Xpk der vollständig aufgenommene Datensatz, α ein Gewichtungsfaktor und p die gewählte Norm. Die Gleichung MX=P ist die Datenkonsistenzbedingung, in der die aufgenommenen Projektionen durch den Vektor P und die Form der Datenakquisition in der Systemmatrix M ausgedrückt werden. Die Konsistenz der vorhandenen Projektionen zu den rekonstruierten Bildern wird vor jedem CS-Rekonstruktionsschritt mithilfe von Simultaneous Algebraic Reconstruction Technique [3,4] gewährleistet. Erste Simulationen wurden mit dem Shepp-Logan-Phantom der Größe 256x256 Pixel durchgeführt. Das vollständig bekannte Bild Xpk ist das Standard Shepp-Logan-Phantom (Abb. 1a), wohingegen das zu rekonstruierende Bild X ein modifiziertes Shepp-Logan-Phantom ist (Abb. 1b). Die Rekonstruktionen wurden jeweils mit 15, 25 und 50 Projektionen des modifizierten Phantoms durchgeführt. Des Weiteren erfolgte die Rekonstruktion eines Patientendatensatzes (Abb. 2a entspricht Xpk, Abb. 2b zeigt das Kontroll-CT). Aus dem Kontroll-CTDatensatz wurden 50 Projektionen erzeugt mit denen die Rekonstruktionen durchgeführt wurden. Sämtliche Rekonstruktionen erfolgten mit den Parametern α={0,7; 0,9}, p={0,7; 1} und jeweils 500 Iterationsschritten. Ergebnisse: In den Abbildungen 3 und 4 sind Beispiele der Rekonstruktionsergebnisse und die jeweiligen Differenzbilder dargestellt. In der Regel konnten die Strukturen in den meisten Fällen vollständig und mit nur geringfügigen Abweichungen rekonstruiert werden. Zur Verifikation wurde zusätzlich der mittlere quadratische Fehler berechnet und über die Iterationsschritte dargestellt (Abb. 5). Die Paramterkonfiguration α=0,7 und p=0,7 konnte grundsätzlich schneller und ohne große Abweichungen das Ausgangsbild, von dem die Projektionen aufgenommen worden sind, rekonstruieren. Diskussion: Das hier untersuchte Verfahren konnte akkurate Rekonstruktionen mit wenigen Projektionen erzeugen. In den nächsten Schritten wird eine Optimierung des Algorithmus vorgenommen, um die Rekonstruktionen zu beschleunigen. Das Verfahren soll sowohl bei kVals auch bei MV-Bilddaten zur Überprüfung der exakten Patientenlagerung angewandt werden. Literatur [1] Chen G.-H et al. Prior Image Constrained Compressed Sensing (PICCS). Proc Soc Photo Opt Instrum Eng. 2008 [2] Ramírez-Giraldo J.C. et al. Non-convex prior image constrained compressed sensing (NC-PICCS): Theory and simulations. Med.Phys. 38(4), April 2011 [3] Kak A.C., Slaney M., Principles of computerized tomographic imaging. IEEE Press, 1988 [4] Saxild-Hansen M., AIR Tools - A MATLAB Package for Algebraic 18 Iterative Reconstruction Techniques 04.2 Bestimmung der Kovarianzmatrix zur Messung des Rauschens in Bildern eines klinisches CTs 1 2 1 1 C. C. Brunner , B. Renger , H. Schlattl , C. Hoeschen ; 1 2 Helmholtz Zentrum München, Neuherberg, Germany, Klinikum rechts der Isar, München, Germany. In der Computertomographie wird standardmäßig die Pixelstandardabweichung berechnet, um das Rauschen in den Bildern zu bestimmen. Da Korrelationen im Rauschen damit aber nicht erfasst werden können, wird stattdessen zunehmend das in der Projektionsradiographie verwendete Rauschleistungsspektrum (NPS) gemessen. Die NPS ist eine weithin verbreitete und akzeptierte Methode, die ursprünglich für analoge Film-Folien-Systeme entwickelt wurde. Die dabei gemachten Annahmen von Ortsunabhängigkeit und Stationarität des Rauschens, werden für digitale Systeme nicht erfüllt. Besonders in der CT ist aufgrund der Struktur des Rekonstruktionsalgorithmus damit zu rechnen, dass die Verletzung dieser Annahmen zu Fehlern in der Bestimmung des Rauschens führt. Deshalb wurde für diese Arbeit ein bildraum-basierter Ansatz angewendet, der die sogenannte Kovarianzmatrix benutzt, für die die Kovarianz jedes Pixels mit jedem anderen Pixel berechnet wird. Eine Eigenwertanalyse liefert die Eigenvektoren und die Eigenwerte der Kovarianzmatrix. Wenn die Annahmen der Fouriertransformation erfüllt wären, müssten die Eigenvektoren exponentielle Wellenfunktionen sein, und die Eigenwerte müssten gleich den Werten der 2-dimensionalen NPS sein. In dieser Arbeit wurde die Kovarianzmatrix erstmals für ein klinisches CT bestimmt. Dazu wurden 200 Schichten des mit Wasser gefüllten Bereichs eines Standard Phantoms aufgenommen und mit vier verschiedenen Rekonstruktionsfiltern, von ganz weich (B10s) bis sehr hart (B70s), rekonstruiert. Aus jeder Schicht wurde ein maximal großer, quadratischer, homogener Bereich ausgeschnitten. Um die Zahl der Bilder weiter zu erhöhen, wurde dieser Bereich in 32 x 32 Pixel große Regions-of-interest (ROIs) zerlegt, die jeweils durch 8 Pixel voneinander getrennt waren, um Korrelationen zwischen den ROIs zu vermeiden und so unabhängige Datensätze zu erzeugen. Aus diesen ROIs wurde dann die Kovarianzmatrix ebenso wie die NPS berechnet. Außerdem wurde das ortsspezifische Rauschen untersucht, indem die Bilder in 9 quadratische Bereiche aufgeteilt wurden, von denen jeweils die Kovarianzmatrix und die NPS berechnet wurden. Die Eigenwertanalyse der Kovarianzmatrix ergab, dass sich die Eigenvektoren deutlich von exponentiellen Wellenfunktionen unterschieden, was beweist, dass die Annahmen der Fouriertransformation nicht erfüllt waren. Die Eigenwerte der Kovarianzmatrix und die Werte der 2-dimensionalen NPS wurden miteinander verglichen indem sie nach absteigender Größe sortiert aufgetragen wurden. Die einzelnen Werte der Kurven wichen teilweise deutlich voneinander ab. Die Integrale von Kurven des gleichen -3 2 2 Filters unterschieden sich allerdings nur um weniger als 10 HU mm . Die Integrale entsprechen der Varianz des Rauschens. Diese wurden demnach von beiden Ansätzen gleich bestimmt. Um die Struktur des Rauschens darzustellen, wurden die ersten Eigenvektoren (also die Eigenvektoren die zum größten Eigenwert gehören) jeweils an der Stelle des zugehörigen Bereichs aufgetragen. Die Abbildung zeigt wie beim weichsten Filter B10s die Strukturen breit und ohne Orientierung sind, während sie mit zunehmend hartem Filter feiner werden und sich ein sternförmiges Muster immer deutlicher abzeichnet. Der nächste Schritt wird die Untersuchung der Auflösung eines klinischen CTs sein. Dafür soll die sogenannte H-Matrix des bildraum-basierten Ansatzes mit der herkömmlichen Modulationsübertragungsfunktion (MTF) verglichen werden. Zusammen mit dem Rauschen ließe sich daraus das Signal-zu-Rausch Verhältnis bestimmen, das einen Zusammenhang zur Detektierbarkeit eines Signals herstellt. Scatter and beam hardening correction for an µCBCT using Monte Carlo 1 1 1 2 1 W. Volken , M. K. Fix , D. Frei , M. A. Zulliger , P. Manser ; 1 Division of Medical Radiation Physics, Inselspital – University of Bern, 2 Bern, Switzerland, SCANCO Medical AG, Brütisellen, Switzerland. Introduction: Micro CBCT scanners have a broad spectrum of applications, e.g. in medicine and material science. However, CBCT suffers from scatter radiation and spectral effects such as beam hardening (BH) which can be problematic in a quantitative analysis of the reconstructed image. In this work, the Monte Carlo (MC) method was applied to model the scanner in detail and to derive fundamental quantities suitable for the development of accurate correction algorithms. Method and Materials: In a first step, a model of the XtremeCT CBCT scanner (SCANCO Medical AG) was simulated using the egsnrc/egs++ MC framework [1]. The quantity reconstructed by the XtremeCT is the linear attenuation coefficient µ which is determined by ln(I0/I)/d, where I and I0 are the detector responses measured with and without the phantom of thickness d placed in the scanner, respectively. However, the detector response is biased by scattered particles and the BH-effect. In order to study the contributions from these effects to the quantity ln(I0/I)/d, slab phantoms of different thicknesses (0.5 - 8 cm) and various materials, such as water and mixtures of epoxy resin with hydroxyapatite (HA) of different concentrations (100 - 1200 mg/cm3) were simulated. The detector response I was decomposed according to: I = ID + IS. Here ID denotes the detector response of particles without interaction in the phantom (direct particles) and IS corresponds to particles scattered in the phantom. ln(I0/I)/d can be evaluated for direct particles only which corresponds to the attenuation coefficient µ determined by a scatter free system. It is linked to ln(I0/I)/d measured by the scanner through: µ = ln(I0/I)/d + STP/d, where STP = IS/ID is the scatter to primary ratio. After reconstruction, a first set of µ values is available and can be mapped to known materials. The scatter correction term STP/d can be approximated by convolution of pre-calculated scatter kernels. A BHcorrection factor can be obtained by calculating the detector response for each spectral component using the µ values of the mapped materials for which the spectral dependency is well known. Results: Figure 1 shows the attenuation coefficient calculated from the detector response for direct and all particles of the HA200 slab phantom (200 mg/cm3 HA). As can be seen, the scatter correction term STP/d weakly depends on d. The magenta curve represents the linear attenuation obtained by the scatter free system. The dashed line shows the linear attenuation obtained analytically using spectral composition. The agreement compared to the full MC simulation is better than 0.5%. The BH-correction is obtained by the difference to a mono-energetic reference value indicated by the black horizontal line and is of the same order as the scatter correction. Conclusion: The SCANCO Medical XtremeCT CBCT was successfully implemented in the egsnrc/egs++ MC framework. Separation of direct and scattered particles and spectral decomposition allows determining basic quantities suitable for scatter- and BH-corrections. This work was supported by the CTI and SCANCO Medical AG. References: [1] I. Kawrakow, egspp: the EGSnrc C++ class library, NRCC Report PIRS-899, Ottawa, Canada 2005. 04.3 19 04.4 Automatische Detektion von Änderungen der Strahlreichweite bei in-beam PET Daten 1 2 3 4 3,4 P. Kuess , W. Birkfellner , S. Helmbrecht , F. Fiedler , W. Enghardt , 1 D. Georg ; 1 2 Department of Radiotherapy, MUW, Vienna, Austria, Department of 3 Biomedical Engineering and Physics, MUW, Vienna, Austria, OncoRay, 4 TU Dresden, Dresden, Germany, Helmholtz-Zentrum, DresdenRossendorf, Germany. Hintergrund: In-beam Positron Emission Tomographie (PET) ist derzeit die einzige Methode um die Strahlreichweite in der Hadronentherapie zu verifizieren. Am Helmholtzzentrum für Schwerionenforschung (GSI) wurden zwischen 1997 und 2008 Kohlenstoffbestrahlungen von mehr als 400 Patienten mit Tumoren im Kopf- Halsbereich unter Verwendung der in-beam PET Installation am GSI überwacht. Da von der mittels PET gemessenen Aktivität nicht direkt auf die applizierte Dosis geschlossen werden kann, muss die gemessene PET Aufnahme mit einer Monte Carlo (MC) Simulation, die aus dem Bestrahlungsplan errechnet wird, verglichen werden. Somit kann überprüft werden, ob die Dosis entsprechend dem Bestrahlungsplan deponiert wurde. Dieser Vergleich von Simulation und PET-Aufnahme wird bis dato durch visuellen Abgleich von einem Expertenteam durchgeführt. Diese Art der Evaluation ist sowohl zeit- als auch ressourcenintensiv und abhängig von der subjektiven Wahrnehmung des Begutachters. Für eine ausgedehnte klinische Anwendung der in-beam PET Methode in einem effizient funktionierenden Routinebetrieb ist eine automatisierte Erkennung von Abweichungen von essentieller Bedeutung. Material und Methoden: Acht in-beam PET Patientendatensätze vom GSI wurden in dieser Studie berücksichtigt. In Anlehnung an die Arbeit von Fiedler et al. (1) wurden simulierte Daten verwendet, bei welchen die Strahlreichweite künstlich verändert wurde. Die Reichweitenänderung betrug 4mm, 6mm und 10mm in positive und negative Richtung. Um MC-simulationsbedingte Schwankungen zu berücksichtigen, wurden pro vorhandener Strahlreichweite jeweils 10 Simulationen für die Studie herangezogen. Somit ergibt sich eine Menge von insgesamt 560 Datensätzen für welche Korrelationskoeffizienten nach Pearson und Spearman berechnet wurden. Vorab wurde ein Medianfilter auf die Bilder angewendet und der betrachtete Informationsraum auf das planning target volume (PTV) beschränkt. Somit konnten gemittelte ROC (Reciever Operating Characteristics) Kurven für jede Reichweitenänderung ermittelt werden. Die Signifikanz der Unterschiede zwischen modifizierten und unmodifizierten Daten wurde mittels statistischen Tests überprüft (Signifikanzlevel 0.05). Ergebnisse: Die Korrelationskoeffizienten nach Pearson zeigten signifikante Unterschiede für den Vergleich von unmodifizierten Daten zu modifizierten -4mm, +/- 6mm und +/- 10mm Simulationen. Bei einer Reichweitenänderung von +4mm sind 6/8 Datensätzen signifikant. Die Auswertung der ROC Kurven in Abbildung 1 zeigte, dass bei simulierten Daten für Reichweitenänderungen von +/-6mm und +/-10mm eine Sensitivität und Spezifizität von 90-100% erreicht werden kann. Bei 4mm Reichweitenänderung sinken die Werte für Sensitivität und Spezifizität um 10-15%. Die Auswertungen wurden ebenfalls für den Spearman Rangkorrelationskoeffizienten durchgeführt, womit idente Ergebnisse erzielt werden konnten. Diskussion: Die Verwendung von Korrelationskoeffizienten für den Vergleich von in-beam PET Daten ist eine vielversprechende Methode der Bildverarbeitung, deren Einsatz in Hadronenzentren auch einfach umgesetzt werden kann. Die Anwendung dieser Methode auf gemessene PET Daten ist Gegenstand der weiterführenden Forschungsarbeit. Literatur: 1 Fiedler et al Phys. Med. Biol. 2010 (55) 1989-1998 Keywords: in-beam PET, Bildverarbeitung, Hadronentherapie 20 04.5 Firstcheck - the first solution for technical quality assurance of ultrasound imaging S. K. Schuster, C. Kollmann; Medizinische Universität Wien / Zentrum für Medizinische Physik und Biomedizinische Technik, Wien, Austria. Over time, the performance of ultrasound transducers can decrease imperceptibly: there are not only physical damages, but rather insidious degenerations of the quality of the ultrasound image. The result of these changes or damages is that the transducers may be exchanged. A previous study examined 676 ultrasonic probes from different manufacturers in 32 hospitals and indicated that over 40% of the daily used transducers exhibited an error. In general, these errors appear very slowly within images and often won’t be recognized by the user. If these low quality ultrasound images will be used for medical diagnosis, it will be possible that there are misdiagnosis because of misinterpretation or overlooked objects that won’t be displayed any more. The Austrian Medical Chamber (ÖÄK) and the Austrian Society for Ultrasound in Medicine (ÖGUM) try to assure the quality of the ultrasound machine and its equipment with the help of technical guidelines. For the first time, these guidelines were implemented in a software called “Firstcheck”. One key issue of this project was the evaluation of the procedures and to develop the software. At the moment, “Firstcheck” is able to measure most of the procedures from the suggested guidelines completely automated. The user can get firsthand information about the actual state of the ultrasound unit and will be able to introduce effective attendances, which are reserved to professional companies so far. Apart from the ÖGUM, the Austrian Mammo-Screening Reference Center for Technical Quality Control (RefZQS-Ö) has also decided to use the software for quality assurance of the ultrasound units in the context of the upcoming project “National breast cancer screening programme 2012”. 04.6 Erste klinische Implementierung eines Gas Electron Multipliers (GEM) Detektor an einem Linearbeschleuniger 1 2 1 1,2 S. Huber , B. Mitterlechner , M. Mooslechner , F. Sedlmayer , H. 1,2 Deutschmann ; 1 Institut für Technologieentwicklung in der Strahlentherapie radART der 2 Paracelsus Medizinischen Priv, Salzburg, Austria, Universitätsklinik für Radiotherapie und Radio-Onkologie, Salzburg, Austria. Einleitung: In der modernen Radiotherapie gewinnen electronic portal imaging devices (EPID), welche sowohl für die MV sowie kV Bildgebung eingesetzt werden, einen immer höheren Stellenwert. Während SolidState-Halbleiterdetektoren aus amorphem Silizium (aSi:H Panels) den aktuellen Stand der Technik darstellen, wird bereits an alternativen, vielversprechenden Technologien geforscht. Im Rahmen dieser Arbeit wurde ein ortsaufgelöster Gas-Elektronen-Vervielfacher (GEM Detektor) getestet, welcher erstmals an einem Linearbeschleuniger (Elekta Precise) montiert wurde, um die klinische Alltagstauglichkeit zu evaluieren. Methoden: In einem ersten Schritt wurde der Detektor in der bei uns entwickelten Software open-radART vollständig eingebunden bevor der Linearbeschleuniger (die Verkabelung des iView-GT-Armes) so umgebaut werden sollte, dass beide Detektortypen - der aSi:H AL-5 (7, 9) von Perkin Elmer (D) und der GEMiniED 2 von C-RAD (S) - je nach Bedarf am Linearbeschleuniger verwendet werden können. Somit wurde eine Testumgebung geschaffen, die vollständig der klinischen Realität entspricht. Mit Hilfe unterschiedlicher Testszenarien wurde versucht, den neuen Detektor in Bezug auf das Ansprechverhalten der Pixel zu bewerten, sowie die Unterschiede zum aSi:H Detektor aufzuzeigen. Die Beurteilung sollte nicht nur mit Hilfe von Phantommessungen erfolgen, sondern auch unter Zuhilfenahme von klinischen Bildern. Der Fokus der Untersuchungen sollte nicht nur auf die Bildqualität gelegt werden, sondern auch auf die höhere Framerate des GEMs, die digitale Quanteneffizienz (DQE), das Rauschverhalten (SNR), Energieabhängigkeiten, die detektorspezifischen Artefakte, sowie auf die mutmaßlich verbesserte Lebensdauer. Ergebnis: Der Umbau des Linearbeschleunigers erfolgte ohne Probleme, es ist nun möglich, je nach Bedarf entweder das GEM- oder das aSi:HPanel am Bestrahlungsgerät zu montieren. Verschiedene Algorithmen zur Behebung von Artefakten und zur Kalibrierung des Panels wurden bereits erfolgreich implementiert, sodass das Panel im Prototyp-Setting nun auch für bestimmte Aufnahmen im klinischen Betrieb verwendet werden kann. Die minimale Dosisauflösung im Isozentrum beträgt 0,003 cGy und ist somit sehr ähnlich zu jener der aSi:H Detektoren. Diskussion: Mit den bis dato zu Grunde liegenden Ergebnissen kann gezeigt werden, dass dieser Detektortyp, nicht nur wegen seiner höheren Framerate, eine vielversprechende Option darstellt. In einem nächsten Schritt soll die Langzeitstabilität des Detektors hinsichtlich Strahlungsschäden und Lebensdauer genauer quantifiziert werden. Hierfür sind jedoch noch einige Betriebsstunden des Detektors erforderlich. 04.7 Genauigkeit der Absolutdosimetrie mit Hilfe eines aSi:H Festkörperdetektors 1 1,2 1,2 M. Mooslechner , F. Sedlmayer , H. Deutschmann ; Institut für Technologieentwicklung in der Strahlentherapie radART der Paracelsus Medizinischen Privatuniversität, Salzburg, Austria, 2 Universitätsklinik für Radiotherapie und Radio-Onkologie, Salzburg, Austria. 1 Einleitung: Festkörperdetektoren aus amorphem Silizium (aSi:H) werden in der Radiotherapie zur MV-Bildgebung eingesetzt, um die geometrische Verifikation der Behandlung zu unterstützen. Obwohl der Detektor ursprünglich nicht für Dosismessungen entwickelt wurde, besteht die Möglichkeit ausgehend von der Bildinformation auf die am Panel ankommende Dosis zu schließen. Diese zusätzliche Funktionalität ermöglicht die Verwendung des Detektors für absolutdosimetrische Anwendungen, wie der Verifikation von IMRT-Plänen, der Dosisrückprojektion und der Linac-Qualitätssicherung. Ziel dieser Arbeit war es, die Genauigkeit der Dosismessungen mit Hilfe eines aSi:H Detektors zu untersuchen. Methoden: Die Analyse erfolgte anhand eines zwei Jahre alten Perkin Elmer Detektors vom Typ RID 1680 AL5, welcher an einem Elekta Synergy Linearbeschleuniger montiert ist. Zur Aufnahme der MV-Bilder diente das bei uns entwickelte Record & Verify System open-radART. Dieses stellt eine Reihe an Algorithmen zur Kalibrierung und Bildqualitätsverbesserung von Flatpanels zur Verfügung, wobei für die Absolutdosimetrie besonders die Multilevel- und Temperaturkorrektur sowie die Ghost-Extraktion von Bedeutung sind. Zu Beginn der Analyse erfolgte eine Multilevel Gain Kalibrierung des Detektors, indem für steigende Dosisleistungen Flood-Field Bilder aufgenommen und als Referenz abgespeichert werden. Die exakte (veränderliche) Dosisleistung während dem Kalibrieren wird mit den Monitorkammern im Kopf des Linearbeschleunigers gemessen und via iCOM-Vx Verbindung während der Bildaufnahme übertragen, sodass kein zusätzliches Messgerät als Referenz notwendig ist. Zusätzlich wurde eine Temperaturkalibrierung durchgeführt, um das speziell bei älteren Panels über den Tag hinweg veränderliche Temperaturverhalten zu korrigieren. Für die Untersuchung der Genauigkeit der Dosisberechnung wurden MVBilder bei variabler Dosisleistung, MU und Feldgröße aufgenommen und mit Ionisationskammer-Messungen verglichen. Die Messungen wurden mehrmals wiederholt, um zusätzlich eine Aussage über die Langzeitstabilität treffen zu können. Ergebnisse: Aus den Analyseergebnissen geht hervor, dass mit den beschriebenen Kalibrier- und Korrekturverfahren eine hohe Genauigkeit erzielt werden kann. Die Flood-Field Aufnahmen weisen im Isozentrum eine maximale Ungenauigkeit von 2,9% auf, wobei bei Messungen zeitnahe zur Kalibrierung noch ein besseres Ergebnis erreicht werden kann. Diskussion: Es konnte gezeigt werden, dass sich aSi:H Festkörperdetektoren zur Dosismessung mit hoher Genauigkeit eignen. Wichtige Voraussetzung dabei sind allerdings fortgeschrittene Kalibrierund Korrekturmethoden, um das Ansprechverhalten bestmöglich nachzubilden und nicht zusätzliche Fehler einzuführen. Darüber hinaus sind für eine exakte Messung Temperatur- und Ghosting-Effekte unbedingt zu berücksichtigen. Allerdings ist anzumerken, dass sich bei stark beschädigten Detektoren die Stabilität verschlechtert und Messungenauigkeit zunehmen können. Trotzdem ist das Ergebnis insgesamt positiv und stellt eine wichtige Grundlage für weiterführende Anwendungen, wie der in-vivo Dosimetrie, dar. Session 5: Strahlenschutz und Qualitätssicherung 05.3 Konversionsfaktoren für die effektive Dosis bei pädiatrischen CTUntersuchungen mit Röhrenstrommodulation H. Schlattl, M. Zankl, C. Hoeschen; Helmholtz Zentrum München, Neuherberg, Germany. Die hervorragenden diagnostischen Möglichkeiten, die die Computertomografie bietet, haben dazu geführt, dass diese Bildgebungsmodalität auch in der Pädiatrie immer häufiger eingesetzt wird. Obwohl deren Betrag zu den gesamten CT-Untersuchungen in Deutschland 2006 nur 1% betrug, ist zu beachten, dass Kinder eine erhöhte Strahlensensitivität aufweisen und ihr Lebenszeit-Risiko, nach Strahlenexposition Krebs zu entwickeln, höher ist. Daher ist es wichtig, möglichst genaue Dosis-Konversionsfaktoren zur Bestimmung der Organ- oder Effektivdosen bei pädiatrischen CT-Untersuchungen zu haben. Die bisher existierenden Programme zur Ermittlung von CTDosen basieren fast ausschließlich auf Simulationen bei einer festen Röhrenspannung und ohne Berücksichtigung der Röhrenstrommodulation. Letztere wurde ca. ab 2000 von den Herstellern zur Reduzierung der Patientendosis eingeführt. In dieser Arbeit werden Organdosiskonversionsfaktoren für CTUntersuchungen eines 8 Wochen alten Säuglings („Baby“) und zweier Kinder von 7 („Child“) und 8 („Jo“) Jahren vorgestellt. Die verwendete Scannergeometrie und Röhrenfilterung inklusive des Bowtie-Filters entspricht denen eines Siemens Sensation Cardiac 16. Die Basis bilden Simulationen axialer Schichtaufnahmen von 5 mm Höhe, die jeweils den gesamten Körper abdecken. Durch geeignete Kombination der Konversionsfaktoren für einzelne Schichten können die Konversionsfaktoren für jede beliebige CT-Aufnahme ermittelt werden. Neben Aufnahmen mit konstantem Röhrenstrom wurden auch solche mit schwächungsbasierter Röhrenstrom-Modulation simuliert. Dabei wurde vorweg eine zusätzliche Simulation durchgeführt, die die Transmission bestimmt. Der Röhrenstrom wird dann invers proportional der Wurzel der Transmission moduliert. Während für Baby und Child nur Aufnahmen mit einer Röhrenspannung von 120 kV simuliert wurden, wurden bei Jo auch Simulationen bei 80 und 140 kV durchgeführt. Alle Dosiskonversionsfaktoren wurden auf CTDIvol normiert. Tabelle 1: Effektive Dosis per CTDIvol in mSv/mGy für verschiedene CTUntersuchungen ohne und mit Röhrenstrommodulation. Phantom/ Baby Child Jo Aufnahmetyp Röhrenstrommodulation aus an aus an aus an Gehirn 0,108 0,113 0,053 0,055 0,050 0,053 Gesicht/Stirnhöhlen 0,19 0,19 0,13 0,12 0,14 0,14 Thorax 1,34 1,33 0,97 0,93 0.92 0,82 Unterleib/Becken 2,05 2,10 1,59 1,53 1,35 1,26 Lendenwirbelsäule 0,88 0,88 0,75 0,73 0,50 0,48 Bei den Rechnungen mit verschiedenen Röhrenspannungen hat sich ergeben, dass die effektive Dosis pro CTDIvol für jede axiale Schicht kaum von der Spannung abhängt. Die Unterschiede liegen im Mittel unter 10%. Außerdem unterscheiden sich die Konversionsfaktoren für CT-Aufnahmen mit und ohne Röhrenstrommodulation kaum (Tabelle 1). Die größten Unterschiede wurden bei Jo festgestellt, wo die Effektivdosis bei Thoraxaufnahmen mit Röhrenstrommodulation um ca. 10% niedriger ist als bei konstantem Röhrenstrom. Erhebliche Unterschiede ergeben sich zum Teil beim Vergleich der Konversionsfaktoren der verschiedenen Phantome. Wie zu erwarten ist, sind die des Babys am höchsten, wobei auch zwischen Child und Jo bei Aufnahmen der Lendenwirbelsäule ein Unterschied von ca. 50% in der effektiven Dosis zu beobachten ist. Zusammenfassend lässt sich sagen, dass sowohl Röhrenspannung als auch Röhrenstrommodulation bei pädiatrischen Phantomen nur geringen Einfluss auf die Dosiskonversionsfaktoren bezogen auf CTDIvol haben. Weitaus wichtiger ist, wie zu erwarten, der Einfluss der Statur auf die Dosiskonversionsfaktoren. 21 05.4 Wo kann man elektronische Personendosimeter (APD) einsetzen? Untersuchungen zum Verhalten von APD in röntgendiagnostischen Strahlungsfeldern 1 1 2 3 4 M. Borowski , S. Wrede , H. Kreienfeld , H. Seifert , H. von Boetticher , 5 2 3 B. Poppe , J. Feldmann , M. Luepke ; 1 2 Klinikum Braunschweig, Braunschweig, Germany, TÜV NORD Ensys 3 Hannover, Hannover, Germany, Stiftung Tierärztliche Hochschule 4 Hannover, Hannover, Germany, Klinikum Links der Weser, Bremen, 5 Germany, Pius Hospital Oldenburg, Oldenburg, Germany. Zielstellung: Es ist bekannt, dass elektronische Personendosimeter (APD) in Photonen-Strahlungsfeldern hoher Dosisleistung fehlerhaft messen [1]. Entsprechende Felder können bei Röntgenanlagen auftreten, die gepulste Strahlung erzeugen, was heutzutage für nahezu alle Röntgenanlagen in der Human-, Zahn- und Veterinärmedizin zutrifft. Das Wissen um die möglichen Probleme von APD führte dazu, dass das Deutsche Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit den Einsatz von APD zur personendosimetrischen Überwachung untersagt hat [2]. Dieses ist bedauerlich, da die meisten APD eine Reihe wertvoller, den Strahlenschutz unterstützende Eigenschaften aufweisen, z.B. einen Dosis- bzw. Dosisleistungsalarm oder eine Dosishistorie. Die Untersagung der Nutzung von APD führt auch zu praktischen Problemen. Stabdosimeter, die bislang alternativ als direkt ablesbare Dosimeter verwendet werden, dürfen ab August 2011 gem. §45(16) RöV nicht mehr eingesetzt werden. Ab diesem Zeitpunkt stehen somit für die Röntgendiagnostik faktisch keine direkt ablesbaren Dosimeter mehr zur Verfügung. Neben dem Wissen um die potentiellen Probleme bei der Verwendung von APD ist aus etlichen Studien aber auch bekannt [3], dass in den Strahlungsfeldern, die an Arbeitsplätzen der täglichen Routine auftreten, APD korrekt messen. Das Ziel der vorliegenden Studie ist daher, einen Katalog von Untersuchungen und Arbeitsplätzen zu erarbeiten, bei denen von einer korrekten Funktionsweise der APD ausgegangen werden kann. Dieser Katalog würde dann den zuständigen Behörden als Entscheidungshilfe über die Verwendbarkeit von APD dienen können. Material und Methoden: Es wurde anhand bestehender Literatur ausgewertet, in welchem Dosisleistungsbereich APD eine Dosis korrekt messen. Für zwei in Deutschland häufig verwendete APD wurden die Literaturdaten durch eigene Messungen verifiziert. Es wurde eine Liste aller wesentlichen Untersuchungen und Interventionen aus dem Bereich der Human-, Zahn- sowie Veterinärmedizin erstellt (>250 Untersuchungsarten). Für sämtliche Untersuchungen wurde rechnerisch eine konservative Abschätzung der Dosisleistung am Ort möglichen Personals oder helfender Personen, d.h. am Ort des APD, vorgenommen. Die Dosisleistung am Ort eines APD resultiert aus der Dosisleistung im Primärstrahl, dem Aufenthaltsort der Person sowie den verwendeten Strahlenschutzmitteln. Als einziges Strahlenschutzmittel wurde konservativ die Verwendung einer Strahlenschutzschürze angenommen. Die Dosis im Primärstrahl wurde konservativ unter der Annahme möglichst leistungsstarker Röntgenanlagen, sowie möglichst hoher Dosisleistung bei der Untersuchung berechnet. Die möglichen Aufenthaltsorte von Personen wurden für alle Untersuchungen nach standardisiertem Schema erhoben. Für die Untersuchungsarten, bei denen Personen hinter der Strahlenschutzschürze mit einer Dosisleistung exponiert werden könnten, die zu einer relevanten Fehlmessung führt, erfolgen Testmessungen mit TLD-Referenzdosimetern. Resultate: Die untersuchten APD messen im Dosisleistungsbereich bis zu etwa 1,5 Sv/h ohne relevante Fehler. An nahezu allen Orten, an denen sich Personen während Untersuchungen oder Interventionen in der Human-, Zahn- oder Veterinärmedizin aufhalten, sind die Dosisleistungswerte in einer Höhe, die von APD ohne relevante Fehler erfasst werden können. Schlussfolgerung: Es konnte gezeigt werden, dass die untersuchten APD trotz der bekannten Limitationen in klinisch relevanten Strahlungsfeldern korrekte Messwerte der Personendosis liefern. Vor dem Hintergrund dieser Resultate sollte der Einsatz von APD in den Bereichen zugelassen werden, in denen keine Fehlmessungen zu erwarten sind. Literatur: [1] U. Ankerhold et al., Radiat. Prot. Dosim. 135, 149-153, 2009 [2] Bundesministeriums für Umwelt. Rundschreiben des BMU vom 06.10.2008 [3] M. Borowski et al., Fortsch. Röntgenstr. 182, 1-7, 2010 22 05.5 Häufigkeit von und Strahlenexposition durch nuklearmedizinische Untersuchungen in Deutschland 1 1 2 1 3 3 M. Borowski , S. Wrede , A. Block , K. Prank , W. Pethke , D. Saure ; 1 2 Klinikum Braunschweig, Braunschweig, Germany, Klinikum Dortmund, 3 Dortmund, Germany, Ärztliche Stelle Niedersachsen / Bremen, Hannover, Germany. Zielstellung: Diagnostische Referenzwerte (DRW) dienen der Optimierung röntgendiagnostischer sowie nuklearmedizinischer Untersuchungen. Für die Nuklearmedizin wurden sie in Deutschland erstmalig in 2003 vom Bundesamt für Strahlenschutz (BfS) veröffentlicht. Die DRW der Nuklearmedizin stellen, anders als im Röntgen, Richtwerte dar, die für die im Zusammenhang mit einer Untersuchung zu applizierende Aktivität gelten. Die DRW sind regelmäßig zu überprüfen und bei Bedarf anzupassen. Dabei sind sich ändernde Untersuchungshäufigkeiten in Deutschland zu beachten. Zudem sind Änderungen in den verwendeten Aktivitäten, die sich z.B. durch geänderte Techniken oder neuartige Radiopharmaka ergeben, zu berücksichtigen. Um einen aktuellen Stand der Häufigkeit unterschiedlicher Untersuchungen sowie Informationen zur eingesetzten Aktivität zu erhalten, wurde die vorliegende Studie durchgeführt. Material und Methoden: Im Rahmen einer Multi-Center-Studie (23 Praxen, 25 Kliniken) wurden Daten zu sämtlichen in den Einrichtungen durchgeführten nuklearmedizinischen Untersuchungen der Jahre 2007 und 2008 (insgesamt etwa 370.000 Untersuchungen) erhoben. Für jede Untersuchung wurde ein festgelegter Datensatz erhoben, der Informationen zum Patienten, zur Einrichtung, zum untersuchten Organsystem sowie zu Art und Durchführung der Untersuchung enthält. Die Daten wurden mit den Resultaten einer früheren Studie mit ähnlicher Fragestellung [1] über den Zeitraum 1996-2000 verglichen. Resultate: Die Zusammensetzung an durchgeführten Untersuchungen hat sich im Vergleich zum Zeitraum 1996-2000 deutlich geändert. Die relative Häufigkeit der Nieren- sowie Lungendiagnostik hat um mehr als einen Faktor zwei abgenommen, Ganzkörper-PET sowie SentinelLymphknoten haben um mehr als einen Faktor 2,5 zugenommen. Insbesondere im ambulanten Sektor ist eine Konzentration auf wenige Untersuchungsarten zu beobachten (>80% Untersuchungen der Schilddrüse, des Skeletts oder des Myokards). Die im Zusammenhang mit einer Untersuchung applizierte Aktivität weicht in vielen Einrichtungen noch fünf Jahre nach Veröffentlichung der DRW wesentlich von diesen ab. Während für Schilddrüsenuntersuchungen vielfach weniger als die dem DRW entsprechende Aktivität appliziert wird, wird der DRW bei NierenUntersuchungen oftmals überschritten. Bei etlichen Untersuchungen besteht ein Unterschied von mehr als einem Faktor 1,5 zwischen der Einrichtung mit der geringsten und der mit der höchsten applizierten Aktivität. Die bezogen auf Untersuchungen an Erwachsenen applizierte, relative Aktivität bei Untersuchungen an Kindern folgt im Mittel gut den Vorgaben der European Association of Nuclear Medicine (EANM) [2], wobei sich die in einzelnen Einrichtungen applizierte, relative Aktivität deutlich unterscheidet. Es ist anhand der Aufnahmeparameter zu erkennen, dass Unterschiede in der applizierten Aktivität nicht durch geänderte Aufnahmeparameter ausgeglichen werden. Schlussfolgerung: Die Häufigkeit der angewandten Verfahren in der nuklearmedizinischen Diagnostik hat sich in den zurückliegenden Jahren deutlich geändert. Das Ausmaß der Änderung konnte quantifiziert werden. Auch fünf Jahre nach der Veröffentlichung der DRW in der Nuklearmedizin werden in zahlreichen Einrichtungen noch deutlich abweichende Aktivitäten verwendet. Je nach Untersuchungsart sind systematische Abweichungen zu erkennen. Es erscheint sinnvoll, auf Basis der vorliegenden Informationen die DRW in der Nuklearmedizin zu überarbeiten. Dabei sollten die durch DRW berücksichtigten Untersuchungen der geänderten Untersuchungsfrequenz angepasst werden. Zudem wäre zu überlegen, ob DRW in der Nuklearmedizin nicht sinnvollerweise auch anders als als Richtwerte festgelegt werden können. Literatur: [1] M. Hacker et al., Nuklearmedizin (2005) 44: 119-130 [2] M. Lassmann et. al., Eur J Nucl Med Mol Imaging (2007) 34:796-798 05.6 Möglichkeiten zur Dosisoptimierung in OP- als auch Interventionsbereichen 1 2 A. Stemberger , W. Huber ; Krankenanstalt Rudolfstiftung / Ärztliche Direktion / Stabsstelle 2 Medizinphysik, Wien, Austria, Krankenanstalt Rudolfstiftung / Zentrales Röntgen Institut, Wien, Austria. 1 Einführung: Ziel dieser Arbeit war eine bestmögliche Umsetzung der theoretischen Strahlenschutzgrundlagen, um beim Personal in Operationsbereichen (inklusive Angiographie) eine bestmögliche Dosisoptimierung zu erzielen. Die Forderung nach möglichst geringer Strahlenbelastung ist in der Gesetzgebung verankert, sodass eine praxisnahe Durchführung im Rahmen des Strahlenschutzes somit als imperativ anzusehen ist. Material und Methode: In einer ersten Phase wurden Messungen mit Hilfe von elektronischen Personendosimetern (EPD) durchgeführt. Diese bieten aufgrund der technischen Möglichkeiten eine Vielzahl von Vorteilen gegenüber dem Einsatz der sonst üblichen Rumpfdosimeter, wobei die Möglichkeit des direkten Ablesens der Dosis als auch Eichfähigkeit hervorzuheben ist. Da diese Geräte allerdings als Alarmdosimeter entwickelt wurden, haben sich nicht vorhersehbare Probleme im Rahmen dieser speziellen Anwendung ergeben. Deshalb wurden in einer zweiten Phase die Messungen im OP-Bereich wiederholt, wobei statt der EPD ein System der Firma Philips in Zusammenarbeit mit Unfors Instruments eingesetzt wurde. Dieses DoseAware-System erlaubt ebenfalls eine zeitnahe Überwachung der externen Strahlenexposition des Personals, des Weiteren sind tätigkeitsbezogene Analysen in einer automatisierten Weise möglich. Somit besteht ein zusätzliches Werkzeug zur Festlegung von Maßnahmen zur Dosisreduktion, da der Strahlenschutzbeauftragte die Arbeitsweise jedes Teammitarbeiters direkt während der Anwendung ionisierender Strahlung überprüfen kann. Die Verwendung der Alarmdosimeter EPD hat dem Strahlenschutzbeauftragten die Möglichkeit geboten, die Mitarbeiter beim umsichtigen Umgang mit ionisierender Strahlung zu unterstützen. Auf diese Weise wurde erreicht, dass erstmalig (abgesehen von den jährlich stattfindenden Strahlenschutzunterweisungen) eine Diskussionsbasis geschaffen wurde, in dessen Rahmen Dosisbegriffe und -größen beispielhaft analysiert wurden. Problematisch ist in diesem Zusammenhang zu erwähnen, dass bei Erreichen einer Grenzschwelle Alarm ausgelöst wurde. Da dies bei jeder Verwendung der Röntgenröhre geschah, hatte es eine unangenehme Beeinträchtigung des Arbeitsprozesses zur Folge. Beim DoseAware-System konnte hingegen gezeigt werden, dass bei dessen Verwendung das OP-Personal verstärkt bewusstseinsbildend geschult werden konnte, so dass die Grundlagen des Strahlenschutzes (ALARA-Prinzip, 3-A-Regel) sehr gut in die Praxis umgesetzt wurden. Dies wurde im speziellen durch einen anschaulichen Farbbalken erreicht. Damit die Mitarbeiter nicht in Versuchung geraten, die gemessenen Werte während der Untersuchung abzulesen und zu interpretieren, wird eine logarithmische Skala verwendet. Detaillierte Aussagen über die erhaltenen Strahlendosen können in einem entsprechenden Untermenü angezeigt werden, sodass eine anschließende Analyse vor Ort möglich wird. Zu diesem System wurde eine entsprechende Software mitgeliefert, um mehrere Dosimeter in einfacher Art und Weise zu verwalten. Des Weiteren ist es möglich, die gesammelten Daten auch über längere Zeiträume für Schulungszwecke zu speichern. Ergebnis und Diskussion: Es konnte gezeigt werden, dass elektronische Personendosimeter nur bedingt für Schulungszwecke im Routinebetrieb verwendet werden können. Das DoseAware-System hingegen erfüllt prinzipiell die Anforderungen, welche an einen praxisnahen Strahlenschutz gestellt werden. Allerdings sollte die Interpretation der Ergebnisse ein im Strahlenschutz ausgebildetes Personal übernehmen, im speziellen Medizinphysiker oder Strahlenschutzbeauftragte. Dies wird vor allem mit der Tragweite dieser hochkomplexen Thematik begründet. Die Dosisminimierung der Patienten hingegen wird vor allem durch geräteund untersuchungstechnische Parameter (u.a. Feldgröße und Durchleuchtungsdauer) bestimmt, wobei auch hier ein hohes Potential an Dosiseinsparung möglich ist. Abschließend ist zu erwähnen, dass ein Bewusstsein für Strahlungsdosen bei Menschen, die in einer Umgebung mit Röntgenstrahlen arbeiten, geschaffen werden muss. 05.7 Untersuchung zur Strahlenexposition der Bevölkerung durch Patienten nach einer Radioiodtherapie M. Andreeff, J. Claußnitzer, L. Oehme, R. Freudenberg, J. Kotzerke; Uniklinikum der TU Dresden, Klinik für Nuklearmedizin, Dresden, Germany. Ziel/Aim: Bei der Anwendung von J-131 zur Behandlung von Schilddrüsenerkrankungen kommt es nach der Entlassung der Patienten von der Nuklearmedizinischen Station für die Angehörigen im gemeinsamen Haushalt leben, zu geringen Strahlenbelastungen. Nach der Strahlenschutzverordnung (StrlSchV: §46) darf eine Entlassung aus der Therapiestation erst erfolgen, wenn sichergestellt ist, dass die kumulative Strahlenexposition der Bevölkerung unter 1 mSv beträgt. Dies wird mit abgeleiteten Grenzwerten und deren Messung realisiert. So wird eine Entlassung erst möglich, wenn die Dosisleistung des Patienten in 2m Abstand unter 3,5µSv/h (1) gemessen wird. Durch die Untersuchung soll der Nachweis erbracht werden, dass die von der medizinischen Anwendung offener radioaktiver Stoffe in der Schilddrüsentherapie ausgehende Gefahr gering und im Vergleich zum Nutzen zu akzeptieren ist. Methodik/Methods: An 150 Patienten und deren im Haushalt lebenden Angehörigen wurde die Strahlenexposition mittels amtlicher Fingerringdosimeter in Kombination mit nicht amtlichen OSL- und TLDDosimetern ermittelt. Die Patienten und Angehörigen trugen amtliche Fingerringdosimeter und spezielle OSL/TLD-Dosimeter in Kassetten die sie unter dem Kopfkissen lagerten. Nach einer Expositionszeit von 14 Tagen (Integrationszeit T=0→∞) wurden die Dosimeter zur Auswertung zurückgesandt. Die Messergebnisse wurden auf Plausibilität überprüft und es erfolgte eine statistische Bewertung. Ergebnisse/Results: In der Zeit von 03/2008 bis 06/2010 konnten 147 Patienten und ihre Angehörigen für die Untersuchung rekrutiert werden. Der Anteil der auswertbaren Messergebnisse lag bei über 90%, was eine Fehlerquote von unter 10% ergab. Die Fingerringdosis für die Patienten betrug im Mittel (12,4 +/- 9,8) mSv. Die Messung im Umfeld der Patienten ergab für das amtliche Fingerringdosimeter (0,68 +/- 0,54) mSv und für die Kassette (0,65 +/- 0,49) mSv. In 24% der betrachteten Fälle wurde der Grenzwert von 1mSv überschritten. Der gemessene Maximalwert lag bei 3,05 mSv. Schlussfolgerungen/Conclusions: Mit der Messung der abgeleiteten Grenzwerte ist sichergestellt, dass keine Grenzwertüberschreitung nach StrlSchV §46 auftreten kann. Bezogen auf die nuklearmedizinischen Therapien in Deutschland führt die Radioiodtherapie zu keiner nennenswerten Erhöhung der Kollektivdosis der Bevölkerung. Nach der ICRP 103 wird ein Dosiswert von 5mSv/a für Einzelpersonen als akzeptabel angesehen, der aber nicht erreicht wurde. Damit kann gezeigt werden, dass die Reduktion der Aufenthaltszeit der Patienten auf der Station nicht zu einer Erhöhung der Strahlenexposition von Angehörigen im häuslichen Umfeld führt. Literatur: (1) Richtlinie Strahlenschutz in der Medizin, BMU vom 24.06.2002, RSII4-11432/1 05.8 Strahlenschutz und Qualitätssicherung in der Strahlentherapie Quo Vadis? U. Wolff; AKH Wien, Univ. Klinik für Strahlentherapie, Abteilung für medizinische Strahlenphysik, Wien, Austria. Einleitung: Die Verknüpfung des Strahlenschutzes mit der Qualitätssicherung ist in der Strahlentherapie besonders ausgeprägt. Neben der Dosisvermeidung ist die Applikation präziser Dosen auf definierte Zielgebiete das oberste Ziel der Strahlentherapie. Je komplexer die Therapietechniken sind, umso aufwändiger werden auch die erforderlichen geometrischen und dosimetrischen Qualitätssicherungsmaßnahmen und damit auch der Aufwand an Ressourcen jeder Art (z.B. Zeit, Personal, Materialien). Des Weiteren steigt das Fehlerrisiko, sofern keine organisatorischen Abhilfen getroffen werden. Material und Methode: In der MedStrSchV werden in den Strahlenschutzgrundsätzen (vor allem der Rechtfertigung und der Optimierung) allgemein Gegenüberstellungen von Nutzen (Ergebnissen) und Risiken (Kosten) formuliert. Diese Evaluierung setzt aber voraus, dass die komplette Therapie fehlerfrei abläuft, was in der Praxis nicht zu 100% gewährleistet werden kann. Erweitert man daher die NutzenRisiko Evaluierung um den Faktor Fehlerrisiko, speziell auch für komplexere Therapieformen wie IMRT, Stereotaxie oder IGRT, dann ist einer der Schlüssel zum Erfolg ein hochwertiges Qualitätsmanagement (Im weiteren Sinne als Verschränkung aus Qualitätssicherung und Strahlenschutz interpretierbar). In jedem Fall ist dies mit zusätzlich erforderlichen Ressourcen (allem voran Personal) verbunden, damit eine erfolgreiche Umsetzung erfolgen kann. Weil behördliche Auflagen, z.B. zum Personalbedarf, oft auf Basis alter Evaluierungen (viele Jahre 23 zurückliegend) erstellt werden, ist die Verfügbarkeit der notwendigen Ressourcen oft nicht sichergestellt. Aber nur, wenn die Erfordernisse exakt und vollständig definiert werden, können realistische Beziehungen zwischen dem zu erwartenden Nutzen, den damit verbundenen Risiken und dem erforderlichen Aufwand aufgestellt und damit die Kosten einer Therapie richtig abgeschätzt werden. Diskussion: Ziel des Vortrages ist es, einen Denkanstoß für eine Diskussionsgrundlage zu geben, wie möglicherweise in Zukunft eine erweiterte Nutzen- Risiko- Analyse aufgestellt und umgesetzt werden könnte. Weiters ist auch, vorausgesetzt die erforderlichen Ressourcen werden entsprechend bereitgestellt, eine Weiterentwicklung von einem reaktiven auf ein proaktives Fehlermanagementsystem möglich und sinnvoll. Session 6: Qualitätssicherungsaspekte bei Spezialverfahren der Strahlentherapie 06.1 Qualitätssicherung für 4D-CT-Scanner 1 1 1 2 1 1 T. Frenzel , C. Grohmann , K. Ide , R. Werner , D. Albers , F. Cremers ; 1 UKE, Ambulanzzentrum der UKE GmbH, Bereich Strahlentherapie, 2 Hamburg, Germany, Universität zu Lübeck, Institut für Medizinische Informatik, Lübeck, Germany. Einleitung: Die Berücksichtigung von Organbewegungen während einer Strahlenbehandlung stellt eine ganz besondere Herausforderung dar. Durch die Verwendung möglichst kleiner individueller Sicherheitssäume kann die Toxizität der Bestrahlung gesenkt und gegebenenfalls eine Dosiseskalation erfolgen. Basis der 4D-Bestrahlungsplanung sind zumeist Datensätze einer 4D-Röntgen-ComputertomographieUntersuchung (4D-CT). Ziel der aktuellen Untersuchungen ist es, ein universelles Prüfphantom zu entwickeln, mit dem Organbewegungen simuliert und die Bildberechnungsverfahren eines 4D-CT überprüft werden können. In den ersten Experimenten wird untersucht, inwieweit die simulierten Bewegungen mit Hilfe eines CT "eingefroren" und Objekte artefaktfrei wiedergegeben werden können. Materialien und Methoden: Basis des aktuellen Prüfphantoms ist ein Phantom aus RW3-Material, welches kommerziell z.B. unter der Bezeichnung „Easy Cube“ (Fa. Euromechanics) erhältlich ist. (Abb. 1). Dieses Würfel-Phantom kann im Inneren (16 cm x 16 cm x 16 cm) mit beliebigen Materialen bestückt werden. Für die ersten Untersuchungen wurde das Phantom mit RW3-Platten ausgefüllt. In der Mitte des Phantoms wurden zusätzlich Stäbe mit unterschiedlich großen kugelförmigen Bohrungen eingebracht (z.B. Simulation von Lungenrundherden). Das Würfelphantom wurde fest mit einem Bewegungsphantom (Abb. 1) verschraubt, welches eine präzise Bewegung des Würfels in allen drei Raumrichtungen unabhängig voneinander ermöglicht. Die Steuerung der Motoren des Phantoms erfolgt über einen Computer, so dass selbst komplexe Bewegungsabläufe zuverlässig wiedergegeben werden können. Andere Messungen mit diesem Phantom sollen in einem weiteren Beitrag auf der DGMP-Tagung vorgestellt werden. Für die Simulation der Organbewegung wurden die Trajektorien realer Atembewegungen von Tumoren verwendet. Diese stammen aus der Untersuchung von 4D-CT-Datensätzen, welche an Patienten gewonnen worden sind. Das bewegte Würfelphantom wurde zunächst ohne Atemtriggerung mit einem Somatom Emotion Einzeilen-Spiral-CT vermessen (Abb. 2). 24 Teilvolumeneffekte beobachten, die durch Bewegungen noch aggraviert werden können. Diskussion: 4D-CT-Scanner finden eine zunehmende Verbreitung im Bereich der Strahlentherapie. Je nach Rechenalgorithmus werden bewegte Objekte mehr oder weniger artefaktfrei abgebildet. Bislang gab es nur die Möglichkeit, anhand von Patientendaten visuell die Bildqualität zu beurteilen. Mit dem beschrieben Phantom ist es nun möglich, die Abbildungstreue mit Phantommessungen zu überprüfen und die klinisch eingesetzten Scanprogramme zu optimieren. Weitere Messungen an einem 4D-CT sin für die kommenden Monaten geplant. 06.2 Qualitätssicherung eines binären Multi-Lamellen-Kollimators mit systemeigenen Detektoren für die helikale Tomotherapie Es wurden hierfür unterschiedliche Scanprogramme aus dem klinischen Routinebetrieb eingesetzt. Zur weiteren Analyse wurden die Bilddaten an das Bestrahlungsplanungssystem CMS Focal transferiert. Bei der Auswertung der CT-Schnittbilder und deren 3D-Rekonstruktionen kam es darauf an, in wieweit die Kugel-Bohrungen artefaktfrei wiedergegeben werden konnten. Ergebnisse: Ohne Atemtriggerung werden die Kugel-Bohrungen des bewegten Phantoms nur zum Teil artefaktfrei wiedergegeben. Bereits in den Transversal-Schnittbildern fallen Bewegungsartefakte auf (Abb. 3): Deformierung / Größenänderung, Verfälschung der Hounsfield-Werte. Noch gravierender werden die Effekte, wenn die 3D-Rekonstruktionen longitudinal (Abb. 4) und vertikal (Abb. 5) S. Lissner, K. Schubert, S. Klüter; Radioonkologie und Strahlentherapie, Universitätsklinikum Heidelberg, Heidelberg, Germany. Vorhaben: Die helikale Tomotherapie ist ein Rotationsbestrahlungsverfahren. Während der kontinuierlichen Rotation und dem simultanen Tischvorschub wird der Behandlungsstrahl mittels eines binären Multi-Lamellen-Kollimators (MLC) fluenzmoduliert. Die Lamellen werden mit Druckluft in weniger als 20 ms geöffnet oder geschlossen. Für die bildgestützte Patientenlagerung wird ein Detektorfeld mit 738 Xenon-Detektoren gegenüber dem Linearbeschleuniger mitrotiert. Die systemintegrierten Detektoren können für eine von Tomotherapy Inc. entwickelte Qualitätssicherung (TQA) genutzt werden. Der schnelle MLC ist unter anderem Reibungseffekten und Effekten der luftdruckgesteuerten Bewegung unterlegen. Das Detektorfeld wurde genutzt um den Einfluss dieser Effekte auf den MLC zu untersuchen. Material und Methoden: TQA analysiert definierte MLC-Öffnungen hinsichtlich des Öffnungsintervalls und des Zeitpunktes der MLCÖffnung. Die TQA-Messungen werden in Heidelberg innerhalb des täglichen Checks vor Behandlungsbeginn seit Februar 2011 durchgeführt. Für weitere Untersuchungen des Verhaltens des MLC wurden TQA unabhängige Bestrahlungsprozeduren erstellt. Für die Prozeduren wurden eigene Lamellen-Bewegungssequenzen generiert. Mit den Sequenzen wurden Reibungsabhängigkeit der Lamellen und der Einfluss vom Luftdruck zur Bewegung der Lamellen untersucht. Nach Ablaufen der Bestrahlungsprozeduren wurden mit Hilfe der TQASoftware die Detektordaten heruntergeladen und mit einer IDLprogrammierten Software ausgewertet. Dazu wurden das Öffnen und Schließen der Lamellen mit einer Sigmoidal-Funktion gefittet, um Differenzen zu einem Erwartungswert zu bestimmen. Ergebnisse: Die TQA-Messungen führten zu Abweichungen der Zeitpunkte der MLC-Öffnungen von bis zu 2,5 ms von der gewählten Referenzmessung. Die Messung der Zeitintervalle, in denen der MLC geöffnet ist, wich vom Referenzwert um bis zu 2 ms ab. Die Startzeitpunkte des Öffnungs- und Schließvorgangs zeigten Unterschiede bis zu 5 ms zwischen den Lamellen. Die Untersuchungen eines Reibungseffekts zwischen benachbarten Lamellen ergaben keine signifikanten Unterschiede. Die Untersuchungen zur Abhängigkeit der Lamellen-Öffnungszeit vom Luftdruck zeigten, dass die individuelle Lamellen-Öffnungszeit von der Anzahl der simultan geöffneten Lamellen abhängt. Verglichen wurde die Öffnungszeit beim Öffnen der einzelnen Lamelle mit der Öffnungszeit derselben Lamelle bei simultaner Öffnung des gesamten MLC. Dabei ergaben sich im Mittel Unterschiede zwischen dem Öffnen einer einzelnen Lamelle und der des gesamten MLC von 2,3 ms. Schlussfolgerung: Die Messungen mit TQA sind einfach und schnell durchzuführen und erlaubt eine gute Einschätzung der Funktionsfähigkeit des MLC. Für genauere Betrachtungen müssen weitere Effekte bedacht und entsprechende Messungen durchgeführt werden. Das Detektorfeld bietet eine gute Möglichkeit einer lamellenselektiven QA für die schnellen MLC-Bewegungen durchzuführen. Die Untersuchungen bezüglich Reibungsabhängigkeiten und Abhängigkeit vom Luftdruck zeigten kleine Effekte. Diese Effekte könnten sich auf sehr kleine Zeitintervalle geöffneter Lamellen im Bereich der Zeit, die zum Öffnen und Schließen der Lamellen benötigt wird, (20ms) auswirken. Die Lamellen könnten auf die Signalfolge zur Öffnung und Schließung der Lamellen nicht reagieren. Eine Folge langer Öffnungszeiten einer Lamelle könnte den gleichen Effekt hervorrufen. 1 3 Die Öffnungszeiten der Lamellen liegen im Bereich von 10 ms bis 10 ms. Ein Einfluss auf die Dosisverteilung lässt sich daraus schwierig ableiten und ist stark von der patientenindividuellen MLC-Sequenz abhängig. untersucht werden. Je nach Bewegungsmuster werden die Kugeln als Ellipsoid oder polymorph verzerrt wiedergegeben. In weiteren Untersuchungen wurden die Auswirkungen unterschiedlicher Scanprogramme (Variation von: Strahl-Schichtdicke, Schichtdicke der rekonstruierten Bilder) auf die Abbildungsgenauigkeit untersucht. Wie zu erwarten lassen sich selbst am nicht bewegten Phantom Artefakte durch 25 06.3 Klinische Implementierung des Verifikationssystems COMPASS für volumenmodulierte Rotationsbestrahlungspläne des ProstataKarzinoms R. Hielscher, D. M. Wagner; Universitätsmedizin Göttingen, Strahlentherapie und Radioonkologie, Göttingen, Germany. Einleitung: Bei der volumenmodulierten Bestrahlungstechnik VMAT (engl. volumetric modulated arc therapy) werden durch optimale Anpassung der dynamischen Multileafkollimatoren (MLC), der Rotationsgeschwindigkeit der Gantry sowie der Dosisleistung das Zielvolumen mit ausreichender Dosis bei gleichzeitiger Schonung der Risikoorgane erfasst. Um die Patientensicherheit zu gewährleisten, wird jeder dynamische Bestrahlungsplan vor der ersten Bestrahlung verifiziert. Mit Hilfe des COMPASS Systems (IBA, Schwarzenbruck, Deutschland) kann die Dosisverteilung der VMAT Bestrahlungspläne berechnet sowie gemessen werden. Hierfür benötigt das COMPASS System ein an den verwendeten Linearbeschleuniger angepasstes Beammodell. Ziel dieser Arbeit ist es, VMAT Bestrahlungspläne des Prostata-Karzinoms durch ein unabhängiges Verifikationssystems zu überprüfen. Methode: Das COMPASS System besteht aus einem Flächendetektor (MatriXX-Evolution), montiert mittels Gantryhalter direkt an den Kollimatorkopf des Beschleunigers, einem Winkelsensor, sowie einem Softwareprogramm für Auswertung und Visualisierung der erhobenen Ergebnisse. Nach der Optimierung und Berechnung der Dosisverteilung eines VMAT Bestrahlungsplans mittels Eclipse (Varian Medical Systems, Helsinki, Finnland) wurde der komplette Patientendatensatz exportiert und im COMPASS System importiert. Mittels des kommissionierten Beammodells in COMPASS wurde die Dosisverteilung von zehn VMAT Bestrahlungsplänen mit Prostata-Ca gemessen und rekonstruiert sowie berechnet. Zur Bestrahlung des Prostata-Ca werden Gesamtdosen (GD) von 60 Gy bis 72 Gy mit einer Einzeldosis (ED) von 2 Gy auf die Prostataregion verschrieben. Zur Auswertung wurde das DosisVolumen-Histogramm (DVH) mit den Grenzen 99% und 95% der Dosis im PTV, 100% der Dosis im CTV, mittlere Dosis der Blase, Prozent des Volumens bei einer Dosis von 40 Gy, 65 Gy und 70 Gy des Rektums herangezogen. Ergebnisse: Der Vergleich der DVH von COMPASS berechneten sowie gemessenen VMAT Bestrahlungsplänen von Prostata-Ca mit den exportierten Patientendatensätzen aus Eclipse liefern gute Übereinstimmungen beim PTV sowie den mittleren Dosen der OAR. Die statistische Auswertung der Ergebnisse ermöglicht einen schnellen Überblick über etwaige Tendenzen der Dosisentwicklung und eine deutliche Warnung, falls die gewählten Grenzwerte überschritten werden. Schlussfolgerung: Diese Arbeit zeigt die klinische Anwendung eines dreidimensional gestützten Verifikationssystems und einer übersichtlichen Darstellung der Ergebnisse für VMAT BestrahlungsplanQualitätskontrolle. Es konnte gezeigt werden, dass aus 2D Fluenzmessungen von VMAT Bestrahlungsplänen des Prostata-Ca mit einem gültigen Beammodell und den entsprechenden Patientendaten die gemessene Dosisverteilung zu einem 3D Patientendatensatz rekonstruiert werden konnte. 06.4 Multicentric pre-treatment quality assurance study on first 166 patients treated with Truebeam® using flattering filter free beams 1 2 2 3 4 S. Lang , P. Mancuso , G. Reggiori , J. Hrbacek , J. Puxeu Vaque , C. 5 2 1 6 Calle , M. Scorsetti , S. Klöck , L. Cozzi ; 1 2 University Hospital Zürich, Zürich, Switzerland, Istituto Clinico 3 Humanitas, Milano, Italy, Paul Scherrer Institute, Center for Proton 4 Therapy, Villingen, Switzerland, Institut Català d'Oncologia, Barcelona, 5 6 Spain, Kantonsspital, Winterthur, Switzerland, Oncology Institute of Southern Switzerland, Bellinzona, Switzerland. Purpose: Pre-treatment quality assurance data from three centers were analysed with different verification devices to assess reliability of flattening filter free beam delivery for IMRT and RapidArc (RA) techniques. Methods and Materials: TrueBeam is a new linear accelerator designed for delivering flattened, as well as flattering filter free (FFF) beams. Removal of the filter leads to an increased dose rate of 14 Gy/min for 6MV FFF (6FFF) and 24 Gy/min for 10MV FFF (10FFF). Pretreatment dosimetric validation of plan delivery was performed with different verification devices and responses to high dose rates were tested. Treatment panning was done in Eclipse planning system (PRO 8.9, AAA 8.9). γ evaluation was performed with ΔD=3% and DTA=3mm scoring the gamma agreement index (GAI, % of field area passing the test). 166 patients with 1 to 6 lesions in various anatomical regions and dose per fraction ranging from 1.8 Gy to 25 Gy were included in the 26 study; 73 were treated with 6FFF beam energy and 93 with 10FFF beams. For 6FFF: 11 RA and 8 IMRT plans were evaluated with Gafchromics in solid water, 4 with Gafchromics in CIRS lung phantom, 25 RA and 3 IMRT plans with Delta4 and 22 RA with MatriXX. For 10 FFF beam energy 8 IMRT and 8 RA plans were evaluated with Gafchromics in solid water, 1 RA patient with Gafchromics in CIRS lung phantom, 3 IMRT and 7 RA plans with Delta4 and 74 RA with MatriXX. A first coarse stratification was done according to the PTV volume (i: V< 50cc, ii: 50<V<100cc, iii: V>100cc). Results: Mean GAIs of IMRT plans were 98.7±1.4% and 99.7±0.4% for 6FFF and 10FFF respectively; for RA plans mean GAIs were 99.0±0.8% and 98.5±0.8% for 6FFF and 10FFF respectively. 9 stereotactic plans with 6FFF beams were verified with Gafchromic dosimetry obtaining a mean GAI (3mm, 1%) of 98.3±1.4%. Furthermore for 27 patients a pin point dose verification was performed (6FFF beams) obtaining a dose deviation of 1.2±0.9%. The GAI variations with volume were not statistically significant (p<0.01). Conclusion: The TrueBeam FFF modality, analysed with a variety of verification devices, proves to be clinically safe and dose distributions calculated with Eclipse system are dosimetrically accurate for both 6FFF and 10FFF energies. 06.5 "Comptografie": Visualisierung der applizierten Dosis 1,2 1 1 1,3 P. Lewe-Schlosser , L. Tsogtbaatar , C. Lämmler , K. Zink ; 1 Universitätsklinikum Gießen und Marburg GmbH, Gießen, Germany, 2 3 Justus-Liebig-Universität, Gießen, Germany, Technische Hochschule Mittelhessen, Gießen, Germany. Motivation: Während der strahlentherapeutischen Anwendung gibt es keine direkte Dokumentation der örtlichen Verteilung der applizierten Dosis. Der einzige direkte Nachweis besteht in der Reaktion des Gewebes. Einzig mit der virtuellen Rekonstruktion unter zur Hilfenahme von Feldverifikationsaufnahmen gelingt es, bei der 3D-CRT-Anwendung nachträglich die applizierte Dosis indirekt zu validieren. Aber auch diese Methode scheitert bei Anwendungen ohne Verifikationsaufnahmen wie IMRT oder IMAT. Hier ist - wie auch in der Partikeltherapie und der Brachytherapie - eine Methode zum Nachweis der örtlichen Verteilung der deponierten Energie wünschenswert. Idee: Die während der Bestrahlung mit hochenergetischer Photonenenstrahlung im Patienten erzeugte Compton-Streustrahlung beinhaltet die gesuchte Information über die örtliche Verteilung der Therapiedosis, zumindest aber die Ortsinformation über die ComptonWechselwirkung. Die bildliche Erfassung gerichteter Comptonstrahlung („Comptografie“) sollte also dem gewünschten Ergebnis nahe kommen. Die Möglichkeiten dieser Bilderfassung in der MV-Teletherapie und der Ir-192 Afterloadingtherapie auszuloten ist das Ziel dieser Arbeit. Material und Methoden: Mittels einer zu diesem Zweck konstruierten Pinhole-Kamera für hochenergetische Photonenstrahlung (Energie der 90° Comptonstreustrahlung nach MV-Bremsstahlung: ca. 450 keV, nach Ir-192 Gamma-Strahlung: ca. 220 keV) sowie mit dem Einsatz empfindlicher digitaler Speicherfolien (Dosis am Bildempfänger kleiner 1 mikro-Gray) als Bildaufnahmesystem wurden die Rahmenbedingungen dieser Bilderfassung ermittelt. Dabei wurde das Kamerasystem in 1 m Abstand vom Objekt senkrecht zur Zentralstrahlachse justiert (BildObjekt-Verhältnis 1:5) und Aufnahmen an gewebeäquivalenten Phantomen und unter realen Therapiebedingungen am Patienten (2 Gy Referenzdosis in Objektmitte bei 6MV und 18MV Bestrahlungstechniken; 8 Gy in 2 cm Abstand bei der Ir-192 HDR-Brachytherapie) generiert. Ergebnisbeispiele: Aufnahmen der Pinhole-Kamera (nächste Seite) Schlussfolgerung: Die Visualisierung der applizierten Dosis ist durch die bildliche Erfassung der Compton-Streustrahlung möglich. Spielräume für Optimierungen hinsichtlich der Quantenausbeute und der Auflösung sind vorhanden. 06.6 Erfahrungen bei der klinikinternen Eingangsprüfung der Dosisleistung von 106Ru/106Rh-Augenapplikatoren 1 2 T. W. Kaulich , M. Bamberg ; Medizinische Physik, Radioonkologische Universitätsklinik, Tübingen, 2 Germany, Radioonkologische Universitätsklinik, Tübingen, Germany. 1 2 Bild 1. 6MV 15x15 cm Stehfeld auf RW3-Phantom (Kantenlänge 30 cm) Bild 2. 6MV 4-Felder-Box auf RW3-Phantom (Kantenlänge 30 cm) Einleitung: Episklerale Brachytherapie mit 106Ru/106RhAugenapplikatoren ist seit über vierzig Jahren eine bewährte Methode maligne Melanome des Auges zu therapieren. Im Gegensatz zur radikalen Enukleation bleibt bei der episklerale Brachytherapie fast immer das Auge des Patienten erhalten und in den meisten Fällen auch der Visus. Bei der episkleralen Brachytherapie wird auf der Oberfläche des Bulbus oculi temporär ein radioaktiver 106Ru/106RhAugenapplikator (Fa. BEBIG, Berlin, Germany) fixiert und damit der intraokulare Tumor protrahiert durch die Sklera hindurch bestrahlt. Der Hersteller BEBIG gibt für die 106Ru/106Rh-Augenapplikatoren in seinen Zertifikaten an einem Referenzpunkt eine Dosisleistung an, die auf den NIST-Standard (12/2001) rückführbar ist. Der Referenzpunkt befindet sich in 2 mm Abstand von der Mitte der inneren (konkaven) Oberfläche der Applikatoren. Seit der Einführung der NIST-Kalibrierung wurde die Qualität der Weitergabe dieser Kalibrierung von der Fa. BEBIG an den Anwender an n = 54 Augenapplikatoren untersucht. Material und Methode: Der Anwender kann die Energiedosisleistung von 106Ru/106Rh-Augenapplikatoren nicht messen, da es keinen kommerziell erhältlichen Sekundärstandard für Betastrahlung gibt. Es wurde deshalb die auf den NIST-Standard rückführbare Kalibrierung der Fa. BEBIG übernommen, indem die Autoren ihre SzintillatorMesseinrichtung mit Hilfe von 106Ru/106Rh- Augenapplikator kalibrierten. Das verwendete Plastikszintillator-Messsystem besteht aus einem 0,8 mm³-Plastikszintillator, einem Sekundärelektronenvervielfacher und einer Hochspannungseinheit. Der Plastikszintillator wurden mit einem 3d-Wasserphantom MP3S (Fa. PTW-Freiburg, Germany) im Referenzpunkt, in 2 mm Abstand von der Mitte der inneren (konkaven) Oberfläche der Applikatoren, positioniert. Zur Messung des Stroms des Sekundärelektronenvervielfachers wurde ein Therapiedosimeter vom Typ UNIDOS (Fa. PTW-Freiburg, Germany) verwendet, das als Elektrometer betrieben wurde. Ergebnisse: Für die Meßeinrichtung der Autoren ergab sich bei den klinikinternen Eingangsprüfungen von 2002 bis 2004 bei n = 19 Augenapplikatoren ein Kalibrierfaktor von 38.0 mGy/µC. Die relative Messunsicherheit im 95%-Konfidenz-Intervall betrug 3.7%, d.h. BEBIG hat die NIST-Kalibrierung von 2002 bis 2004 offensichtlich sehr gut an den Kunden weitergegeben. Dieser Kalibrierfaktor wird auch heute noch bei den klinikinternen Eingangsprüfungen der Augenapplikatoren verwendet, da BEBIG die Dosisleistungswerte immer noch auf den NIST-Standard (12/2001) rückführt. In den letzten sechs Jahren ergaben sich allerdings bei den klinikinternen Eingangsprüfungen teilweise erhebliche Abweichungen von den Zertifikatswerten. Im Jahr 2005 wurden vier Augenapplikatoren gekauft, bei denen die Dosisleistung im Referenzpunkt um ca. 20% höher war als die Dosisleistung im Zertifikat des Herstellers. Der Hersteller wurde informiert und hat seine Dosisleistungswerte überprüft. Diese Überprüfung ergab einen Fehler in der Messeinrichtung des Herstellers, der daraufhin beseitigt wurde. 2006 und 2007 zeigten die klinikinternen Eingangsprüfungen keine besonderen Auffälligkeiten. In den Jahren 2008 und 2009 wurden 16 Augenapplikatoren gekauft, bei denen die Dosisleistung im Referenzpunkt im Mittel um ca. 13% höher war als die Dosisleistung im Zertifikat des Herstellers. Der Hersteller wurde wieder informiert, hat jedoch bisher keine offizielle Stellungnahme abgegeben. 2010 wurden 9 Augenapplikatoren gekauft, bei denen die Dosisleistung im Referenzpunkt bei der klinikinternen Eingangsprüfung im Mittel um ca. 7% niedriger war als die Dosisleistungsangabe im Zertifikat des Herstellers. Am 11.04.2011 empfiehlt Bebig seinen Kunden Augenapplikatoren, die nach dem 10.12.2010 augeliefert wurden, nicht am Patienten anzuwenden. In einem weiteren Schreiben vom 05.05.2011 teilt Bebig den Kunden mit, dass noch keine weiteren Erkenntnisse vorliegen. Bild 3. Ir-192 im „Krieger“-Phantom mit 5 cm Applikationslänge 27 06.7 Physikalisch-technische Vorbereitung und Durchführung einer Ganzhaut-Elektronentherapie 1,2 1 1 1 1,3 N. Götting , F. Siebert , V. Kneisel , J. Schultze , J. Dunst , B. 1 Kimmig ; 1 Klinik für Strahlentherapie, Universitätsklinikum Schleswig-Holstein, 2 Campus Kiel, D-24105 Kiel, Germany, HELIOS-Strahlenklinik Berlin, 3 HELIOS-Klinikum "Emil von Behring", D-14165 Berlin, Germany, Klinik für Strahlentherapie, Universitätsklinikum Schleswig-Holstein, Campus Lübeck, D-23538 Lübeck, Germany. Hintergrund: Die physikalisch-technische Vorbereitung und Durchführung einer Ganzhaut-Elektronentherapie für einen Patienten mit Mycosis fungoides wird vorgestellt. Eine Beschreibung des klinischen Verlaufes dieser Behandlung findet sich in einem Beitrag zum DEGROKongreß 2011 (J. Schultze et al.). Methodik: Die Behandlung des Patienten mit einer Ganzhaut-Elektronentherapie wurde in einer modifizierten Stanford-Technik durchgeführt. Der Patient befand sich dabei in einem Fokus-Haut-Abstand von 375 cm stehend vor der seitlichen Wand des Behandlungsraumes. Der Patient wurde aus sechs Einfallsrichtungen bestrahlt und dazu jeweils um 60 Grad um seine Längsachse gedreht. Zur Anwendung kam ein Linearbeschleuniger (Clinac 2100 C/D, Varian Medical Systems, USA), der in einem Elektronen-Betriebsmodus mit einer Energie von 6 MeV und besonders hoher Dosisleistung betrieben wurde ("HDTSe"-Modus). Da die vertikale Querverteilung eines solchen Feldes bei einem Gantrywinkel von 270 Grad nicht ausreichend homogen ist, wurde eine Doppelfeldtechnik eingesetzt. Die Behandlung erfolgt dabei unter Gantrywinkeln von 252 Grad bzw. 288 Grad für den Ober- bzw. den Unterkörper. Die für die Erstellung eines Bestrahlungsplanes erforderlichen Messungen der Dosistiefen- und -querverteilungen sowie der Absolutdosis sind mit Hilfe einer Rooskammer (PTW, Freiburg) in einem PMMA-Plattenphantom erfolgt. Zur Kontrolle der Absolutdosis und der Dosisverteilung im Körper wurden außerdem Filmmessungen in einem Aldersonphantom sowie Monte-Carlo-Vergleichsrechnungen (Varian-Eclipse, Version 8.1) durchgeführt. Zum Schutz von Augen, Finger- und Fußnägeln sowie eines implantierten Defibrillators wurden Schutzelemente aus Bleiblech angefertigt und meßtechnisch überprüft. Ergebnisse: Bei der Behandlung traten keine unmittelbar mit der Bestrahlungstechnik verbundenen Probleme auf. Es wurde eine Einzeldosis von 1,5 Gy (aus klinischen Gründen später von 1,0 Gy) in Form von sechs Doppelfeldern mit jeweiliger Drehung des Patienten um 60 Grad innerhalb einer Zeitspanne von etwa 20 Minuten appliziert. Die Filmmessungen sowie die Monte-Carlo-Vergleichsrechnungen zeigen mit Differenzen von ca. 5 bis 10% eine gute Übereinstimmung zu den Messungen mit der Rooskammer. Die regelmäßigen Kontrollen von Absolutdosis und Feldsymmetrien haben keine Abweichungen von mehr als 2% gezeigt. Schlußfolgerung: Die physikalisch-technische Vorbereitung bis zur Durchführung der Ganzhaut-Elektronentherapie konnte innerhalb von vier Wochen abgeschlossen werden. Da es sich bei der Bestrahlungsplanung um einen nicht patientenindividuellen Vorgang handelt, ist nach einmaliger Bestimmung der Bestrahlungsparameter lediglich die jeweilige Einzeldosis anzupassen. Session 7: Audiologie Qualitätsaspekte beim Hören mit Bilateralen Cochleaimplantaten und Hörgeräten 07.1 Tutorial: Binaurale Sensitivität von Cochleaimplantat-Trägern und Schwerhörigen B. Laback, P. Majdak; Institut für Schallforschung, Wien, Austria. Beidohriges Hören ist essentiell für die Lokalisation von Schallquellen und die räumliche Orientierung. Es ermöglicht auch das Verstehen von Sprache in akustischen Umgebungen mit Störsignalen. Dabei wertet das auditorische System binaurale Unterschiede aus, sogenannte interaurale Zeitdifferenzen (ITD) und interaurale Intensitätsdifferenzen (ILD). Die außer Diskussion stehende Wichtigkeit des binauralen Hörens führt zur zunehmend beidohrigen Versorgung von schwerhörigen oder ertaubten Menschen mit Hörgeräten (HG) oder Cochleaimplantaten (CI). Studien zeigen jedoch, dass die Betroffenen trotz beidohriger Versorgung mit HGs und CIs Verschlechterungen bei der Lokalisationsgenauigkeit und Sprachverständlichkeit im Störgeräusch gegenüber Normalhörenden aufweisen. Dies kann sowohl auf die generell reduzierte Sensitivität der Betroffenen für ITDs und ILDs als auch auf die unzureichende Übertragung der binauralen Information aufgrund der derzeitigen Signalverarbeitung in HGs und CIs zurückgeführt werden. Im ersten Teil dieses Tutorials wird der Stand der Forschung zur binauralen Sensitivität von CI-Trägern und Schwerhörigen unter exakter Kontrolle der am Ohr ankommenden Signale präsentiert. Dabei werden die Signale über ein CI-Forschungssystem im Falle der CI-Träger und über Kopfhörer im Falle von Schwerhörigen dargeboten. Besonderes Augenmerk wird auf die Wahrnehmung von ITD in der Feinstruktur und in der Hüllkurve des Signals gerichtet. Im zweiten Teil werden Ergebnisse zur binauralen Sensitivität, zur Lokalisationsgenauigkeit, und zur Sprachverständlichkeit im Störgeräusch unter Verwendung von klinischen CI-Prozessoren und HGs präsentiert. Im dritten und letzten Teil werden mögliche Strategien zur Verbesserung der Übertragung von binauraler Information mit CIs und HGs unter Berücksichtigung der individuellen Sensitivität erörtert. 07.2 Current Research Review: Cochlear Implants for the Treatment of Unilateral Hearing Loss E. von Wallenberg, J. Wyss; Cochlear AG, Basel, Switzerland. Unilateral hearing loss is clinically defined as normal or almost normal hearing in one ear and a hearing loss in the contralateral ear, ranging anywhere between mild to profound degree which may be sensorineural, conductive or mixed. Profound unilateral sensorineural hearing loss, also referred to as Single-sided Sensorineural Deafness (SSD), is an example of the most extreme asymmetrical hearing loss configuration. If left untreated, in spite of normal hearing in one ear, individuals with unilateral deafness do not have access to binaural listening skills and experience significant disabilities in many daily situations. This is particularly true for communication in competing background noise especially when speech arrives at the poorer ear. Furthermore these individuals cannot identify the location of sounds such as warning signals or dynamic speakers such as at a party, class or work situations. Although not regularly applied, approved treatment options such as CROS hearing aids and Baha devices can provide some listening advantages such as greater awareness of sound on the deafened side with inherent limitations to providing true binaural cues. Unilateral hearing loss is not an approved indication for treatment with cochlear implants (CI) however, new clinical research is underway which examines the added benefit of CIs in these patients to partially restore binaural hearing cues for improved listening in more challenging listening situations. The presentation summarizes the recently published research that demonstrates statistically significant improved hearing performance with a CI for unilaterally deafened adults through the use of standard subjective and objective audiological measures of binaural listening skills compared to their performance with conventional approved treatment methods. 28 07.3 Eine neue Methode zur Bestimmung der Lokalisationsfähigkeit bei Kleinkindern B. U. Seeber, C. J. Church, D. A. McCartney; MRC Institute of Hearing Research, Nottingham, United Kingdom. Seit einigen Jahren werden bilaterale Cochlea Implantate gezielt zur Therapie von früher Taubheit bei Kindern eingesetzt. Das Implantationsalter sank deutlich und beträgt oft nicht mehr als 9 Monate. Der objektive und quantitative Nachweis des Erfolgs einer bilateralen Implantation durch Tests für das richtungsabhängige Sprachverstehen oder die Schalllokalisation erfolgt jedoch i.A. nicht bevor das Kind Sprache verstehen und die Spielaudiometrie angewendet werden kann. Um diese Evaluationslücke zu schliessen, wurde eine neue Lokalisationsmethode für Kleinkinder ab einem Alter von circa einem Jahr entwickelt. Die Methode ermöglicht eine quantitative Analyse der Lokalisationsfähigkeit und beruht auf der Messung der Kopfdrehung hin zu Schallen aus verschiedenen Richtungen. Mit Hilfe einer interaktiven visuellen Umgebung wird eine erfolgreiche Kopfdrehung belohnt, so dass das Kind in spielerischer Weise in den Versuch eingebunden wird. Dadurch sind keine Instruktionen an das Kind nötig. Weiterhin wird mit der Methode keine Person benötigt, die im Versuch direkt mit dem Kind arbeitet, was organisatorische und finanzielle Vorteile nach sich zieht. Die Methode wurde in einer Studie mit 30 Kindern im Alter von 1-5 Jahren evaluiert. Dabei wurden drei Belohnungsstrategien für Kopfdrehungen untersucht: 1) Platzierung der visuellen Belohnung immer voraus, 2) an der getesteten Schallrichtung, 3) in der Nähe der getesteten Schallrichtung. Mit den Belohnungsstrategien 2 und 3, die im Zusammenhang mit der Schallrichtung standen, erfolgten die meisten Kopfdrehungen, d.h. sie motivierten die Kinder stärker. Die numerische Analyse der Kopfdrehungen im Hinblick auf die Lokalisationsfähigkeit erfolgte durch Anpassen von idealisierten Verlaufskurven, wodurch auch zufällige Abweichungen unterdrückt werden. Im Vortrag wird die Methode vorgestellt, es werden die verschiedenen Belohnungsstrategien für Kopfdrehungen diskutiert und es werden Lokalisationsergebnisse der Kleinkinder vorgestellt. Gefördert durch das Intramural Programme des Medical Research Council (UK). 07.4 Sprachverständnis im Störschall und Lokalisationsvermögen bei einseitig tauben Patienten mit einem Cochleaimplantat T. Wesarg, R. Laszig, R. Beck, C. Schild, S. Kröger, A. Aschendorff, S. Arndt; Universitätsklinikum Freiburg, HNO-Klinik, Freiburg, Germany. Einleitung: Einseitige Taubheit (single sided deafness, SSD) beschränkt das Sprachverständnis im Störschall sowie das Lokalisationsvermögen. Die Behandlung von SSD-Patienten erfolgt bisher überwiegend mit konventionellen CROS-Hörgeräten oder knochenverankerten Hörgeräten (Baha). Die Versorgung von SSDPatienten mit einem Cochleaimplantat (CI) stellt eine recht neue Behandlungsform für diese Patienten dar. In dieser monozentrischen Untersuchung werden das Sprachverständnis im Störschall sowie das Lokalisationsvermögen von mit einem CI versorgten Patienten mit erworbener SSD in der unversorgten Situation sowie mit dem CI untersucht. Material und Methoden: Bisher wurden 28 Patienten mit einem CI (Modelle Freedom Implant bzw. CI512 der Firma Cochlear) versorgt. Das Sprachverständnis im Störschall wird mit dem Hochmaier-SchulzMoser (HSM)-Satztest bei einem festen Sprach- und Störschallpegel von jeweils 65 dB SPL sowie in Form der Sprachverständlichkeitsschwelle mit dem Oldenburger Satztest (OlSa) in den drei Präsentationsbedingungen S0N0, S45N-45 und S-45N45 ermittelt. Die Untersuchung der Lokalisation erfolgt mittels sieben mit einem Winkelabstand von 30° im vorderen Halbkreis angeordneten Lautsprechern. Als Stimuli werden dabei OlSa-Sätze mit einem Pegel von 65 dB SPL verwendet. Alle Tests wurden 6 und 12 Monate nach der Erstanpassung des CI durchgeführt. Ergebnisse: Bereits 6 Monate und auch 12 Monate nach der Erstanpassung des CI zeigt sich ein signifikant besseres Lokalisationsvermögen sowie eine signifikante Verbesserung des Sprachverständnisses im Störschall mit dem CI im Vergleich zur unversorgten Situation. Zwischen dem Sprachverständnis mit CI in der schwierigsten Hörsituation und der Taubheitsdauer besteht eine positive Korrelation. Schlussfolgerungen: Mit der Versorgung von SSD-Patienten mit einem CI ist eine signifikante Verbesserung des Sprachverstehens im Störschall sowie des Lokalisationsvermögens möglich. Dabei stellt die sorgfältige Patientenselektion einen entscheidenden Faktor für den Erfolg dieser Versorgung dar. Unsere Ergebnisse legen nahe, dass eine kürzere Taubheitsdauer auch eine bessere binaurale Integration der Reizantworten der beiden physikalisch sehr unterschiedlich stimulierten Ohren ermöglicht. 07.5 Sprachverstehen, Frequenzdiskrimination und Melodieerkennung bei Patienten mit elektrisch-akustischer Stimulation (EAS), bimodaler, bilateraler und unilateraler Cochlea-ImplantatVersorgung 1,2 1 2 T. Rader , U. Baumann , H. Fastl ; 1 Audiologische Akustik, Klinik für HNO-Heilkunde, Goethe-Universität 2 Frankfurt am Main, Frankfurt am Main, Germany, AG Technische Akustik, MMK, TU München, München, Germany. Cochlea-Implantat-(CI)-Patienten mit ausreichend nutzbarem akustischen Tiefton-Restgehör am ipsi- oder kontralateralen Ohr zeigen im Mittel bessere Hörleistungen als konventionell uni- und bilateral versorgte CI-Patienten. Besonders das Sprachverstehen in Störgeräuschsituationen sowie die Qualität des Musikhörens sind deutlich durch den zusätzlich zur elektrischen Stimulation nutzbaren akustischen Anteil gegenüber den Patientengruppen ohne nutzbares Restgehör verbessert. Der Beitrag präsentiert Ergebnisse zur Bestimmung der Sprachverständlichkeitsschwelle (SVS) im Störgeräusch, erfolgte in verschiedenen Störgeräuschsituationen mit Hilfe des Oldenburger Satztests in einem räumlichen Schallfeld (Multi-Source Noise Field, MSNF, Rader 2008). Das Sprachsignal wurde hierbei frontal in einer Hörkabine mit adaptiv gesteuertem Schallpegel dargeboten. Die Störgeräuschdarbietung erfolgte über vier unkorrelierte Kanäle, bei der die Lautsprecher für das Störgeräusch in den Raumecken der Hörkabine angeordnet waren. Vergleicht man die Ergebnisse der verschiedenen Patientengruppen, so zeigt sich im Störgeräusch nach Fastl in der EAS aber auch der bimodal versorgten Gruppe eine günstigere SVS (CI gemeinsam mit Hörgerät am Gegenohr). Beiden Gruppen steht ein „mehr“ an akustischer Information zur Verfügung, insbesondere feine Tonhöhenunterschiede können besser detektiert werden. Sprachverständlichkeitsschwellen im Multi-Source Noise Field mit FastlRauschen Unilateral CI Bilateral CI Bimodal CI/HG EAS/HG Normalhörend 5.6 dB SNR 1.5 dB SNR -1.75 dB SNR -3.9 dB SNR -14.1 dB SNR Die Melodie-Erkennung von bekannten Liedern wurde mit Reintonsignalen untersucht. Bei diesem Test erzielte die EAS Gruppe mit 98 % richtig erkannten Melodien ein nahezu identisches Ergebnis zu den Normalhörenden (100 %), wobei die unilateral versorgte CIPatientengruppe ohne nutzbares Restgehör mit 59 % Diskrimination eine deutlich geringere Erkennungsrate zeigte. Die Ergebnisse dieser Studie belegen den Beitrag von nutzbarem akustischen Restgehör bei CI-Trägern sowie den durch eine bilaterale Versorgung bewirkten Gewinn im Bezug auf das Sprachverstehen im Störgeräusch und auf die Melodieerkennung. Rader T, Schmiegelow C, Baumann U, and Fastl H.: Oldenburger Satztest im "Multi-Source Noise Field" mit unterschiedlichen Modulationscharakteristika. In: U. Jekosch and R. Hoffmann, editors, Tagungsband Fortschritte der Akustik - DAGA 2008, Dresden, pp. 663664, 2008. 29 Session 8: Aktuelle Entwicklungen in der Dosimetrie 08.1 CE Lecture: Refresher: Dosimetrie kleiner Photonen-Felder in der DIN 6809-8 G. Bruggmoser; Universitätsklinikum Freiburg, Klinik für Strahlenheilkunde, Freiburg, Germany. Einleitung: Die kleinen Photonen-Felder stellen weitere Anforderungen an die Dosimetrie als konventionelle Felder bedingt durch die geringe Ausdehnung der Strahlenfelder, die bei stereotaktischen Bestrahlungen, bei der IMRT, bei der IMAT und bei der Tomotherapie verwendet werden. In der Norm werden Detektoren empfohlen, die geeignet für kleine Felder sind. Zur Dosimetrie in kleinen Photonenfeldern wird ein „kleines Kalibrierfeld“ der Größe 4 cm x 4 cm definiert und die dabei relevanten Korrektionsfaktoren für kleine Photonenfelder angegeben. Die Norm umfasst weiterhin die Messung von Streufaktoren im Wasserphantom sowie frei Luft zur Bestimmung des Phantom-Streufaktoren. Falls kein Feld 10 cm x 10 cm eingestellt werden kann, werden alternative Methoden angegeben. Schlussendlich werden Vorschläge zur Parametrisierung von Dosisverteilungen in kleinen Feldern und Angaben zur Messunsicherheit getroffen. Methode: Kalibrierung von hochauflösenden Detektoren im „kleinen Kalibrierfeld“ Äquivalente Feldgrössen kleiner als 5 cm x 5 cm werden der Norm als „kleines Feld“ bezeichnet.Die Referenzbedingungen für die Dosimetrie in der Strahlentherapie sind in der DIN 6800-2 beschrieben. Diese Referenzbedingungen wirken sich bei der Kalibrierung hochauflösender Detektoren wie Silizium-Dioden aus, weil das zu hohe Ansprechen dieser Detektoren auf niederenergetische Streustrahlung den Kalibrierfaktor beeinflusst. Deshalb wird in der neuen DIN 6809-8 eine Anschlussmessung in einem „kleinen Kalibrierfeld“ mit einer Feldgröße von 4 cm x 4 cm für das Kalibrieren von Silizium-Dioden an Ionisationskammern eingeführt. Bei kleinen Feldern ist die feldgrößenabhängige Korrektion auf Grund des geringen niederenergetische Dosisbeitrags bei einigen Dioden sehr klein, muss jedoch ggf. berücksichtigt werden [Sauer]. Bei der als Referenz dienenden Ionisationskammer ist der Volumeneffekt bei 4 cm x 4 cm ebenfalls klein, kann jedoch über einen Volumenskorrektionsfaktor kV berücksichtigt werden. Die Norm beschreibt alle Bedingungen für die Kalibrierung von hochauflösenden Detektoren im kleinen Kalibrierfeld. Messungen im kleinen Photonen-Feld Anschlussmessung Nach DIN 6800-2 kann die Energiedosis bei Photonenstrahlung mit Hilfe 60 einer Kompaktkammer bei 10 cm x 10 cm und Co bestimmt werden. Damit wird die Wasserenergiedosis bei 4 cm x 4 cm bestimmt und eine Anschlussmessung für hochaulösende Detektoren (z.B. Si-Diode) durchgeführt.Diese Detektoren können dann für Messungen in kleinen Feldern herangezogen werden. Messung der Streufaktoren (Outputfactors) Die Wasserenergiedosis D an einem Punkt im Wasserphantom für eine Strahlungsqualität Q setzt sich aus der primären Strahlung des Beschleunigers und Streubeiträgen zusammen. Zur quantitativen Beschreibung dieser Beiträge in Abhängigkeit von der Feldgrösse (Seitenlänge s) dient der Totale Streufaktor in Wasser Scp(s), s. Formel (1). Scp erhält man aus dem Verhältnis der Achsendosen pro Monitoreinheit D(s,zref,dref)/MU bei der Seitenlänge s und D(sref,zref,dref)/MU bei der Seitenlänge sref des Referenzfeldes: (1) Scp(s) = [D(s, zref, dref)/MU] / [D(sref, zref, dref)/MU] Zur Messung des Strahlerkopfstreufaktors Sc(s) ist nach [Zhu] ein wasseräquivalentes Miniphantom mit ausreichender longitudinaler und lateraler Ausdehnung zur Eliminierung der Elektronenkontamination zu verwendet. Für kleine Felder (s < 5 cm) kann ein Phantom, bestehend aus einem Material mit höherer Ordnungszahl (z.B. Messing) zum Einsatz kommen. Aus Scp(s)·und dem Strahlerkopfstreufaktor Sc(s)· erhält man den Phantom-Streufaktor Sp(s)·: (2) Scp(s) = Sc(s)·Sp(s) Schlussfolgerung: In DIN 6809-8 wird die Methode zur Messung der Wasserengiedosis bei kleinen Feldern beschrieben.. Literatur Entwurf DIN 6809, Klinische Dosimetrie - Teil 8: Kleine Photonen-Bestrahlungsfelder DIN 6809, Klinische Dosimetrie - Teil 6: Anwendung hochenergetischer Photonen- und Elektronenstrahlung in der perkutanen Strahlentherapie. DIN 6800, Dosismessverfahren nach der Sondenmethode für Photonenund Elektronenstrahlung, Teil 2: Dosimetrie hochenergetischer Photonen- und Elektronenstrahlung mit Ionisationskammern. Sauer, O.A., Wilbert, J. (2007): Measurement of output factors for small photon beams Med. Phys. 34 1983-1988 30 Zhu, T.C., Ahnesjö, A., Lam, K.L., Li, X.A., Ma, C.-H.C., Palta, J.R., Sharpe, M.B., Thomadsen, B., Tailor, R.C. (2009): Report of AAPM Therapy Physics Committee Task Group 74: In-air output ratio, Sc, for megavoltage photon beams. Med. Phys. 36, 2561-5291. 08.2 State-of-the-Art Lecture: Aktuelle Entwicklungen in der Dosimetrie 2010/2011 B. Poppe; AG Medizinische Strahlenphysik, Carl von Ossietzky Universität, Oldenburg, Germany. In diesem Beitrag sollen als Fortsetzung eines Vortrages aus dem Jahr 2010 die aktuellen Entwicklungen im Bereich der Dosimetrie beleuchtet werden. Es wird ein Überblick über die im letzten Jahr in den wichtigsten Journals erschienenen Artikel gegeben. Anhand einer sinnvollen Gruppierung der Beiträge in detektorspezifische und methodische Verfahren soll eine Einordnung und generelle Linie der Entwicklungen erarbeitet werden. 08.3 Eigenschaften der Patienten-Streustrahlung, der Hauptkomponente der peripheren Dosis 1 2 1 1 N. Chofor , D. Harder , K. Willborn , B. Poppe ; 1 2 Pius-Hospital Oldenburg, Oldenburg, Germany, Georg-August University, Göttingen, Germany. Bei der Photonen-Strahlentherapie ist nicht nur die vor und hinter dem Zielvolumen, sondern auch die seitlich neben dem Nutzstrahl erzeugte "periphere Dosis" ein unerwünschtes, möglichst zu minimierendes Nebenprodukt. Der peripheren Dosis gilt besonderes Interesse, seit bei geheilten Patienten vorwiegend am Feldrand strahleninduzierte sekundäre Malignome entdeckt worden sind und intensiv studiert werden [1]. Systematische Messungen der peripheren Dosis bei 6 und 15 MV in RW3-Phantomen wurden an dem Beschleuniger Siemens Primus 6/15 durchgeführt, der analog wie andere Beschleunigertypen durch ein zweites, in crossplane-Richtung wirksames Blockblendenpaar (5 cm dicke Bleiblöcke) ergänzt war [2]. Das in Fig. 1 dargestellte Ergebnis lässt erkennen, dass die Dosisanteile der Kollimator-DurchlassStrahlung und der Strahlerkopf-Streustrahlung bei guter Abschirmung deutlich kleiner sind als der Anteil der vom bestrahlten Volumenbereich des Patienten bzw. Phantoms ausgehenden "Patienten-Streustrahlung" bzw. "Phantom-Streustrahlung". Das Verhältnis beträgt je nach Achsenabstand etwa 1:4 bis 1:2. Für Abschätzungen der peripheren Dosis, z. B. zwecks Aufstellung von Dosis-Wirkungs-Beziehungen für strahleninduzierte sekundäre Malignome, sind daher die Eigenschaften der Patienten-Streustrahlung besonders wichtig. Die PatientenStreustrahlung ist nicht nur die größte, sondern auch diejenige Komponente der peripheren Dosis, die sich durch konstruktive Maßnahmen am Beschleunigerkopf nicht verringern lässt. In einer Monte-Carlo-Studie unter Verwendung des EGSnrc-Modells, das in vorausgehenden Untersuchungen experimentell validiert wurde [3], haben wir die Eigenschaften des Beitrages der PhantomStreustrahlung zur peripheren Dosis systematisch untersucht. Am Feldrand quadratischer Felder erreicht der Streubeitrag bei großer Feldseitenlänge die Größenordnung von 10 % der Dosis in Feldmitte; er ist der Seitenlänge annähernd proportional. Außerhalb der Feldgrenzen nimmt der Streubeitrag mit wachsendem Achsenabstand annähernd exponentiell ab; die Halbwertsdicke beträgt etwa 3 bis 5 cm. Bei 6 MV ist der Streubeitrag größer als bei 15 MV, und mit der Tiefe nimmt er zu. Bei unregelmäßiger Feldform kann der periphere Streubeitrag aus den Beiträgen von pencil beams zusammengesetzt werden. Das Spektrum der Streustrahlung ist durch mehrfachen Comptoneffekt weitgehend zu Energien im Bereich einiger hundert keV verschoben. Dies lässt im Vergleich zu den Verhältnissen im Nutzstrahl erhöhte RBW-Werte sowie verändertes Ansprechvermögen von dosimetrischen Detektoren und veränderte Fluenz-Dosis-Konversionsfaktoren erwarten. [1] Tubiana M 2009 Can we reduce the incidence of second primary malignancies occurring after radiotherapy? A critical review Radiother. Oncol. 91 4-15 [2] Chofor N, Harder D, Rühmann A, Willborn K C, Wiezorek T and Poppe B 2010 Experimental study on photon-beam peripheral doses, their components, and some possibilities for their reduction Phys. Med. Biol. 55 4011-4027 [3] Chofor N, Harder D, Willborn K C, Rühmann A and Poppe B 2011 Low-energy photons in high-energy photon fields - Monte Carlo generated spectra and a new descriptive parameter Z. Med. Phys. 21 (2011) doi: 10.1016/j.zemedi.2011.02.002 [1] Djouguela A., Griessbach I., Harder D., Kollhoff R., Chofor N., Rühmann A., Willborn K., Poppe B. Dosimetric characteristics of an unshielded p-type Si diode: linearity, photon energy dependence and spatial resolution. Z Med Phys 2008; 18: 301-306. [2] Schwedas M., Scheithauer M., Wiezorek T., Wendt T.G. Strahlenphysikalische Einflussgrößen bei der Dosimetrie mit verschiedenen Detektortypen. Z Med Phys 2007; 17: 172-179. 08.4 Beschreibung der Halbschattenverbreiterung durch das endliche Volumen von Ionisationskammern mit Hilfe von Gaußschen Faltungskernen 1 1,2 3 1,2 T. S. Stelljes , H. Looe , D. Harder , B. Poppe ; 2 Carl von Ossietzky Universität Oldenburg, Oldenburg, Germany, Pius Krankenhaus Oldenburg – Klinik für Radiologie und internistische 3 Onkologie, Oldenburg, Germany, Georg-August-Universität Göttingen, Göttingen, Germany. 1 Dosisquerprofile hochenergetischer Photonenstrahlungen erfahren bei der Messung mit Ionisationskammern eine Verbreiterung ihrer Halbschattenregion. Die durch die endliche Größe eines Detektors verursachte Verbreiterung des gemessenen Dosisprofiles M(x) lässt sich mathematisch als Faltung des wahren, ungestörten Dosisprofils D(x) mit der lateralen Ansprechfunktion f(x) des zur Messung verwendeten Detektors beschreiben. Die Messungen von f(x) bei 6 und 15 MV in den Tiefen 5 cm und 15 cm wurden an einem Siemens Primus Beschleuniger 6/15 (Siemens Medical Solutions, Erlangen, Deutschland), in Kombination mit einem MP3-Wasserphantom (PTW-Freiburg), an zwei Semiflex Ionisationskammern (31013, 31010 - beide PTW-Freiburg), einer PinPoint Kammer (31014 - PTW-Freiburg) und einem Diodendetektor (60012 - PTW-Freiburg) durchgeführt. Es wurde angenommen, dass die Messwerte der Diode in guter Näherung das ungestörte Dosisprofil D(x) darstellen [1], wobei die Diode bei vermehrter niederenergetischer Streustrahlung im peripheren Bereich die Dosis leicht überschätzt [2]. Die Ansprechfunktionen f(x) werden durch eindimensionale Gaußfunktionen mit den Parametern σlat bzw. σlong modelliert, welche für die Anordnung der Kammerachse senkrecht bzw. parallel zur Scanrichtung gelten. Die Parameterwerte werden schrittweise so lange verändert, bis die Faltung des Diodenprofils mit f(x) mit dem durch die untersuchte Ionisationskammer gemessenen Profil M(x) übereinstimmt. Die Bestimmung von σlat erfolgte an einem 1 mm breiten Schlitzstrahl, diejenige von σlong an einem 4 cm breiten Rechteckfeld. Die Messergebnisse sind in Tab. 1 und Tab. 2 dargestellt. Eine Tiefenabhängigkeit der Parameter σlat und. σlong wurde nicht gefunden. Der Fehler bei der Abschätzung der Parameter beträgt ±0,1 mm, abgeleitet aus der Beurteilungs-Unsicherheit des Anpassungs-Optimums bei ihrer schrittweisen Veränderung. Semiflex 31013 Semiflex 31010 PinPoint σlat / mm 6 MV 2,39 ± 0,01mm 2,18 ± 0,01mm 0,94 ± 0,01mm σlat / mm 15 MV 2,42 ± 0,01mm 2,28 ± 0,01mm 0,90 ± 0,01mm Tabelle 1: Sigmawerte der lateralen Ansprechfunktion Semiflex 31013 Semiflex 31010 PinPoint σlong / mm 6 MV 4,86 ± 0,01mm 2,26 ± 0,01mm 1,96 ± 0,01mm σlong / mm 15 MV 5,04 ± 0,01mm 2,48 ± 0,01mm 2,00 ± 0,01mm Tabelle 2: Sigmawerte der longitudinalen Ansprechfunktion Um die Validität der Parameterwerte zu beweisen, wurden zusätzlich Messungen an quadratischen Feldern der Größe 2 x 2 cm² und 4 x 4 cm² vorgenommen. Es zeigte sich, dass auch hier die Faltung der Diode mit Gaußfunktionen, unter Verwendung der in Tabelle 1 aufgeführten σWerte, die Messung mit Ionisationskammern sehr gut wiedergibt (siehe Abbildung 1). Die Ansprechfunktionen von Ionisationskammern in lateraler und longitudinaler Richtung können also durch Gaußfunktionen sehr gut angenähert werden. Durch die Kenntnis der Faltungskerne f(x) für verschiedene Bauarten von Ionisationskammern ist es möglich, die mit ihnen gemessene Dosisprofile M(x) zu entfalten, um die ungestörten Dosisprofile D(x) zu erhalten. Zusätzlich zu den hier bereits aufgeführten Kammern werden z. Zt. auch Ionisationskammern der Firma IBA Dosimetry vermessen. Abbildung 1: Beispiel für die Gültigkeit des Parameters σlong der Semiflex 31010 Kammer bei 6 und 15 MV und in den Tiefen 5 und 15 cm in Wasser. Als Testfeld wurde hier ein kleines Quadratfeld verwendet. 08.5 Positionsabhängig korrigierte Dosismessungen mit Kombinationen aus Si-Diode und Ionisationskammer im Photonenfeld M. Parczyk, O. A. Sauer; Klinik und Poliklinik für Strahlentherapie, University of Würzburg, Würzburg, Germany. Motivation: Ionisationskammern (IK) haben ein nur geringfügig energieabhängiges Ansprechvermögen und eignen sich deshalb besonders für die Relativdosimetrie. Nachteilig ist ihr relativ großes Volumen, weshalb sie für die Dosimetrie kleiner Felder weniger geeignet sind. Silizium-Dioden (Si-Dioden) haben eine hohe Empfindlichkeit und kleine Volumina. Sie sind deshalb für Dosismessungen mit hohen räumlichen Auflösungen besser geeignet. Jedoch weisen Si-Dioden für Photonen niedrigerer Energien ein erhöhtes Ansprechvermögen auf und liefern beispielsweise zu hohe Signale außerhalb des Photonenfeldes und in größeren Messtiefen. Um korrekte Dosisverteilungen mit hoher räumlicher Auflösung zu messen, wurden Dosisquerprofile mit Kombinationen aus IK und Si-Diode aufgenommen. Aus denen wurden ortsabhängige Korrekturfaktoren und somit dosimetrisch korrigierte Dosisverteilungen mit hoher räumlicher Auflösung bestimmt. Methoden: Bei Photonen mit 6 MV wurden Dosisquerprofile in einem 2 2 Standardfeld (9,6 x 10,4 cm ) und einem schmalen Feld (0,8 x 10,4 cm ) simultan mit Kombinationen aus Ionisationskammer (PTW 31010) und Si-Dioden gemessen. Verwendete Si-Dioden waren die Scanditronix/IBA SFD, die PTW E 60012 und der Sun Nuclear Edge Detector. Die Messwerte wurden anhand des zentralen Bereichs des Standardfeldes normiert. Nachdem für jedes Detektorpaar die Messwerte mit der räumlichen Empfindlichkeit des jeweils anderen Detektors gefaltet wurden, ergab das Verhältnis der Dosiswerte von Ionisationskammer und Si-Diode den ortsabhängigen Korrekturfaktor. Multiplikation der Korrekturfaktoren mit den Si-Diodenmesswerten ergab die hoch aufgelösten, dosimetrisch korrigierten Dosisquerprofile. Ergebnisse: Fünf Zentimeter außerhalb der Feldgrenze überstiegen die unkorrigierten Messwerte der Si-Dioden das Signal der IK des Standardfeldes bzw. des schmalen Feldes um 10% bis 46% bzw. um 6% bis 14%. Vor der Korrektur unterschieden sich die Signalstärken der Si-Dioden deutlich, nach der Korrektur zeigten alle einen einheitlichen Verlauf. Im zentralen Bereich des schmalen Feldes lagen die Korrekturfaktoren zwischen 1 und 1,1 (d.h. unkorrigierte Messwerte waren im kleinen Feld zu niedrig). Korrigierte Messwerte im Zentrum des schmalen Feldes lagen ca. 20% über denen der IK. Die Breiten der Halbschatten der korrigierten Querprofile hatten nur 62% der Breiten, welche mit der IK gemessen wurden. Schlussfolgerung: Korrekturfaktoren sind für die Dosimetrie kleiner Felder mittels Si-Dioden essentiell. Durch kombinierte Messungen mit IK und Si-Dioden können ortsabhängige Korrekturfaktoren für räumlich höher aufgelöste Dosismessungen mit Si-Dioden bestimmt werden. Die 31 Dosisverteilungen der Si-Dioden können korrigiert werden. Reduzierte Halbschattenbreiten und höhere gemessene Dosiswerte im Zentrum des schmalen Feldes belegen eine Verringerung des Volumeneffektes im Vergleich zu IK-Messungen. 60 L-α-alanine for neutron irradiation compared to the Co reference beam. This factor is determined in Mainz by means of a one-hit detector model and currently ranges at ~0.82. The second series of simulation focus on the determination of the relative biological effectiveness (RBE-factor) of the neutron and photon dose for liver cells. Therefore cell culture plates 157 10 Gd and B at different with the cell medium enriched with concentrations are irradiated. The respective RBE-factors are then deducted from survival curves. Results: The MCNP calculations show very stable results with statistical relative errors of 3% and less. When comparing the calculated absorbed dose in the alanine pellets to the results from NPL one can observe two remarkable parallel curves. However for the RE-factor the results from this calculation would imply a value of ~0.70 which seems to be in contradiction with the theoretical model, but similar values have been found by other authors in accordance with experimental studies [2]. The cell culture calculations showed the enormous impact of the added isotopes with high thermal neutron cross sections on the absorbed dose. Conclusion: As cell killing is mainly influenced by the linear energy transfer (LET) and the range of the secondary produced particles it is crucial for BNCT to get more information on the site of boron accumulation - intracellular or extracellular. Gadolinium shows to be an interesting alternative for neutron capture therapy due to effective electron production and its paramagnetic properties (MR-Imaging). [1] Zonta et al. Appl Radiat Isot. 2009;67:67-75 [2] Waligorski et al. Appl Radiat Isot. 1989;40:923-933 08.7 Bestimmung der Energiedosis in einem Medium dichter als Wasser bei 6MV Photonen mit einer zur Anzeige der Wasserenergiedosis kalibrierten Ionisationskammer 1 2 B. Rhein , G. Hartmann ; 1 Medizinische Physik, RadioOnkologie und Strahlentherapie, 2 Universitätsklinik, Heidelberg, Germany, Medizinische Physik in der Strahlentherapie, DKFZ, Heidelberg, Germany. 08.6 Dosimetry simulations of irradiated alanine pellets and cell cultures with MCNP in Boron Neutron Capture Therapy (BNCT) 1,2 2 3 4 4 M. Ziegner , H. Böck , N. Bassler , P. Sharpe , H. Palmans , T. 5 5 5 5 6,7 Schmitz , C. Grunewald , C. Schütz , G. Hampel , M. H. Holzscheiter , 1 M. Blaickner ; 1 Austrian Institute of Technology GmbH, Health & Environment 2 Department - Molecular Medicine, Vienna, Austria, Institute of Atomic and Subatomic Physics, Vienna University of Technology, Vienna, 3 4 Austria, University of Aarhus, Aarhus, Denmark, National Physical 5 Laboratory, Teddington, United Kingdom, Institute for Nuclear 6 Chemistry, University of Mainz, Mainz, Germany, Max Planck Institute 7 for Nuclear Physics, Heidelberg, Germany, Dept. of Physics & Astronomy, University of New Mexico, Albuquerque, United States. Introduction: This work is part of a larger project initiated by the University of Mainz and aiming to use the university’s TRIGA reactor to develop a treatment for liver cancer based on Boron Neutron Capture Therapy (BNCT). Diffuse distribution of cancerous cells within the organ makes complete resection difficult and the vicinity to radiosensitive organs impedes external irradiation. Therefore the method of “autotransplantation”, first established at the University of Pavia, is used [1]. The liver is explanted, irradiated in the thermal column of the reactor, therewith purged of metastases and then reimplanted. A highly precise dosimetry system including quantification of radiobiological effects on liver tissue is to be developed by means of measurements and in vitro experiments at the University of Mainz as well as computational calculations at the AIT. Materials and Methods: The Monte Carlo Code MCNP-5 is applied for the simulations. To verify the calculations alanine dosimetry is used. Dissected human liver lobes are cut into slices and L-α-alanine pellets are shrink-wrapped in PE foil and sewed into it. The calculated absorbed dose in the pellets is compared to analysis of the Primary Standard Laboratory at the National Physical Laboratory (NPL) in the United Kingdom where electron spin resonance spectrometer are used to detect the amount of radiation induced radicals formed. In order to compare both quantities the NPL signal has to be scaled with a factor called relative effectiveness (RE) to take into account the reduced sensitivity of 32 Einleitung: Die experimentelle Validierung der in einem TPS implementierten Dosisberechnungsalgorithmen sollte nicht nur in Wasser, sondern auch Materialen anderer Dichte als Wasser erfolgen. In diesem Beitrag wird die Dosisbestimmung mit einer kalibrierten Ionisationskammer in einer 4 cm dicken Aluminiumschicht beschrieben. Aluminium wurde als Knochenersatz und als Extremum für den oberen Dichtebereich gewählt. Mit einer in Wasser kalibrierten Ionisationskammer wird in einem beliebigen Medium, in diesem Fall Aluminium, ein Wert gemessen, der näherungsweise als WasserEnergiedosis betrachtet werden kann. Dieser Wert muss über einen Inhomogenitäts-Korrektur-Faktor (ICF) in die Dosis im Medium (Aluminium) überführt werden. Material und Methode: In einem RW3 Plattenphantom wurden vier 1cm dicke Aluminium Platten in die Tiefe 6-10cm eingebracht. Mit einer PTW 0.125cm³ Ionisationskammer wurde in 1 cm Schritten die WasserEnergiedosis durch den Phantomaufbau bei 6MV Photonen eines LB Siemens Artiste für isozentrische Felder 3x3cm² und 12x12cm² (SSD:95cm) gemessen. Innerhalb der Aluminium- Inhomogenität wurde eine ICF Korrektur angewendet, um die Dosis im Medium (Aluminium) wiederzugeben (AAPM Report 85). Die ICF Korrektur entspricht dem Verhältnis der beschränkten Massenstoßbremsvermögen Medium zu Wasser, dem Verhältnis der Wandstörungsfaktoren pwall und dem Verhältnis der Fluenzstörungsfaktoren pcav von Medium zu Wasser. Die zur ICF Berechnung notwendigen Photonen- und Elektronenspektren stammen aus früheren Monte Carlo Berechnungen für 6 MV Photonen. Die damit ermittelte Dosis in Aluminium wurde mit einer Monte Carlo Rechnung (BEAMnrc) verglichen. In diesem Fall wird die Energiedosis immer im Medium der eingegebenen Geometrie berechnet. Als Quelle wurden die Daten eines Phase-Space-Files für einen 6 MV Primus verwendet. Die MC Ergebnisse wurden als die der Wirklichkeit am nähesten Daten betrachtet. Parallel dazu wurde der Dosistiefenverauf mit dem am DKFZ entwickelten Pencil Beam Algorithmus DC09 berechnet. Ergebnisse: Für die PTW 0.125cm³ Kammer wurde für Aluminium bei dem 6 MV Photonenspektrum ein Korrekturfaktor ICF = 0.87 ermittelt und die im Aluminium gemessene Wasserenergiedosis in die Aluminiumenergiedosis überführt. Die Abweichung der gemessenen gegenüber der Monte Carlo berechneten Aluminiumdosis beträgt im Mittel 3.5% für das 3x3cm² Feld und 2.5% für das 12x12cm² Feld. Die folgende Abbildung zeigt den Tiefendosisverlauf durch den Phantomaufbau für das 3x3cm² Feld, berechnet mit dem Pencil Beam Algorithmus, der Monte Carlo Dosisberechnung und der gemessenen Dosis im Medium (0.125cm³ - ICF korrigiert). Der auf Wasserdaten basierte Pencil Beam Algorithmus gibt die Dosis in Aluminium durch Umrechnung in wasseräquivalente Wegstrecken zwar nicht ganz genau, jedoch relativ gut wieder. improved with BCC to 0.1% and 0.5%, respectively. A study of 210 film pieces resulted in an excellent sheet-to-sheet uniformity. Sensitometric curves didn’t show an influence in the observed energy range and the chosen setup parameters. Therefore a reference curve representing the mean value was used. This reference curve together with relative deviations between sensitometric curves of each energy and relative to the reference curve is shown in figure 1. Discussion: The new EBT2 film yields comparable results to its predecessor EBT. The general advantages of radiochromic film dosimeters are completed by high film homogeneity, low energy dependence for the observed energy range and an independency to the used setup parameters. The implementation of the BCC as recommended by the manufacturer didn’t show a significant improvement in film uniformity. Figure 1: Zusammenfassung: Ma und J Li (2011) kommen zu dem Schluss, dass auf Wasserdaten basierte Rechenalgorithmen näher an der korrekten Energiedosis im Medium liegen, als die Wasserdosis im Medium, die über den Ansatz der Bragg Gray Theorie bestimmt wurde. Zum Vergleich muss daher auch die Energiedosis im Medium durch eine geeignete Korrektur mit Hilfe einer Ionisationskammer bestimmt werden können. Es wäre wünschenswert, wenn in IonisationskammerDosimetrieprotokollen ICF Faktoren für definierte Gewebeersatzmaterialen in Abhängigkeit des Strahlenqualitätsfaktors Q angegeben werden könnten. Literatur: C-M Ma und J Li (2011) Dose specification for radiation therapy: dose to water or dose to medium? Phys. Med. Biol. 56 3073-3089 AAPM Report No. 85 (2004) Tissue Inhomogeneity Corrections for Megavoltage Photon Beams www.aapm.org/pubs/reports/rpt_85.pdf 08.8 Charakterisierung und Kalibrierung von Gafchromic EBT2 Filmen für Qualitätssicherung in der Strahlentherapie R. Dreindl, M. Stock, D. Georg; Medizinische Universität Wien, Wien, Austria. Introduction: Radiochromic film is a widely used dosimetric tool for quality assurance in radiation therapy. One of the most popular radiochromic films is the Gafchromic EBT film (ISP, New Jersey). When EBT2 was presented as a replacement for the first generation EBT films, the question arose if this new radiochromic films will be comparable or even better in terms of homogeneity, reproducibility and usability. An obvious change of EBT2 films was the inclusion of a yellow marker dye that gives the films its color. According to the manufacturer this dye can be used to compensate for non-uniformities in film thickness by implementing a provided correction algorithm (Blue channel correction BCC). The aim of this study was to implement the BCC and to benchmark the EBT2 film against the well-known characteristics of EBT films. Materials and Methods: A protocol based on the experience of the department with first generation EBT films was established to ensure comparable results. For digitalization of the films we used a flatbed transparency scanner (type Epson Expression 1680). Further calculations and the implementation of BCC were done in Matlab. For the quantification of the film’s post-irradiation darkening and the effect of film orientation in the scanner we used doses of 0cGy, 30cGy, 200cGy and 800cGy. Homogeneity of unirradiated and irradiated EBT2 films was investigated on three different aspects: (i) local uniformity of single pixel values, (ii) regional uniformity within single film sheets and (iii) sheet-tosheet uniformity. Furthermore the influence of BCC regarding regional uniformity was investigated and sensitometric curves for energies 6MV, 10MV and 18MV were determined in a dose range from 0cGy to 800cGy and used to derive a calibration curve for absolute dosimetry afterwards. In addition the influence of experimental setup parameters like measurement depth and field size was evaluated. Results: For post-irradiation darkening all measured dose levels reached 98% of their 5-day optical density within 22h. Pixel values measured in portrait and landscape orientation differed for 1.7%, 2.7%, 4.7% and 5.7%, respectively for doses 0cGy, 30cGy, 200cGy and 800cGy. Investigations on local uniformity showed a stable pixel noise for ODs around 0.9%. Regional uniformity was found to be 0.2% for pixel values of unirradiated and 0.8% of irradiated films and could be 33 Session 9: Freie Themen aus dem Bereich der Strahlentherapie 09.1 Optimierung der dosimetrischen Randbedingungen zur intraoperativen Bestrahlungsplanung der Permanenten Seedimplantation (PSI) auf Grundlage von Postimplantationsanalysen 1 2 3 3 K. U. Kasch , P. Wust , T. Henkel , F. Kahmann ; 1 2 Beuth Hochschule für Technik Berlin, Berlin, Germany, Charité, 3 Universitätsmedizin Berlin, Berlin, Germany, Ambulantes OP-Zentrum im Ullsteinhaus, Berlin, Germany. Motivation: Die Permanente Seedimplanation (PSI) zählt heute zu den etablierten Alternativen bei der Behandlung des lokalen Prostatakarzinoms mit im Vergleich oft reduzierten Nebenwirkungen bei gleicher Tumorkontrolle. Gegenwärtig verfügbare Algorithmen zur (notwendigerweise) inversen Planung der Methode beschränken sowohl Anzahl als auch Art klinisch wünschenswerter Randbedingungen. Entsprechende Leitlinienempfehlungen zu dosimetrischen Randbedingungen stellen deshalb nur einen Grundstandard sicher. In dieser Studie wird nach einem von den Algorithmen erlaubten und in der klinischen Praxis einsetzbaren Satz von (dosimetrischen) Randbedingungen gesucht, der zu einem optimalen klinischen Ergebnis führt. Material und Methoden: Im Rahmen dieser Studie standen Daten von insgesamt fast 2000 von den Autoren bisher implantierten Patienten zur Verfügung. Für eine Untergruppe von 400 Patienten existieren standardisierte Patienten-Rückmeldungen, die eine Auswertung von akuten und späten Nebenwirkungen ermöglichen. Aus den zugehörigen, CT-basierten Postimplantationsanalysen ergeben sich Aussagen über die Stabilität der dosimetrischen Faktoren, d.h. der Zusammenhang zwischen bei intra-operativer Planung angestrebten und in der Postimplantationsanalyse tatsächlich erreichten dosimetrischen Randbedingungen. Die zusätzliche Auswertung der Korrelation der dosimetrischen Faktoren mit den aus den Patientenrückmeldungen abgeleiteten klinischen Ergebnissen ergibt schließlich einen Satz von für das Planungssystem handhabbaren dosimetrischen Randbedingungen. Hierfür wurden mit einer Gruppe von 20 Masterstudierenden retrospektiv mehr als 300 Patientendatensätze erneut und jeweils mehrmals geplant. Die Ergebnisse der retrospektiven Planungen werden anhand einer einfachen Zielfunktion (quadratische Norm) für die Randbedingungen sowie den resultierenden Dosis-Volumen-Histogrammen (DVH) für die Prostata und die beiden Risikoorgane Urethra und Rektum bewertet. Die Ergebnisse der Mehrfachplanungen werden in einer Lernkurve interpretiert. Ergebnisse: Für die verwendeten Randbedingungen besteht ein klar herausgearbeiteter Zusammenhang zwischen dem Wert der Zielfunktion und den DVH. Es wird gezeigt, dass dies unabhängig von der verwendeten Seedaktivität gilt. Die Lernkurve der Masterstudierenden zeigt eine steile Tendenz, was als klinische Praktikabilität und Robustheit der verwendeten Randbedingungen interpretiert wird. Schlussfolgerung: Die Auswertung von Postimplantationsanalysen und Patientenbefragungen erlaubt eine Optimierung der dosimetrischen Randbedingungen für die intra-operative Bestrahlungsplanung der PSI, die neben der mit der Zahl der Implanationen wachsenden Erfahrung maßgeblich zur Verbesserung der klinischen Ergebnisse der PSI beitragen. 09.2 Darstellung der Wasserenergiedosis für I-125 interstitielle Brachytherapiequellen T. Schneider, H. Selbach; PTB, FB 6.2, Braunschweig, Germany. Im Rahmen des “EURAMET joint research project: Brachytherapy” entwickeln die Nationalen Metrologie Institute (NMI’s) in Europa neue Primärnormale, um die Dosisleistung von radioaktiven Photonenquellen, wie sie in der „Low-Dose-Rate“ (LDR)-Brachytherapie zur Anwendung kommen (z.B. Jod-125), in der Messgröße Wasser-Energiedosis (Dw) zu bestimmen. Diese sollen in Zukunft die gegenwärtigen Primärnormale in der Messgröße Luftkermaleistung (Reference Air Kerma Rate, RAKR) ersetzen. Mit diesem Schritt soll das Ziel erreicht werden, eine Genauigkeit, vergleichbar mit der in der Radiotherapie mit externen Strahlen, zu erreichen. Da für die Vermessung von LDR-Quellen aufgrund ihrer höheren Sensitivität ionisierende Methoden zu bevorzugen sind, basiert das Primärnormal der Physikalisch-Technische Bundesanstalt (PTB) auf dem Prinzip einer Extrapolationskammer (EXPO), die sich in einem Phantom aus wasseräquivalentem Material befindet. 34 Basierend auf der Strahlungstransporttheorie wurde eine neue Messmethode entwickelt. In einer kürzlich erschienenen Publikation konnte gezeigt werden, dass diese Methode sehr robust ist gegenüber Unsicherheiten der atomaren Wechselwirkungsquerschnitte und der Spektren. In dem dargestellten Vergleich konnten die daraus resultierenden Unsicherheiten von 10 % (RAKR) auf 1 % (EXPO) reduziert werden. In dieser Präsentation wird das Design der Extrapolationskammer sowie die Messmethode vorgestellt. Die Wasserenergiedosis von einer „BEBIG Symmetra I25.S16 - Quelle“ wird bestimmt und die Unsicherheiten werden diskutiert. Um einen Vergleich mit Literaturdaten zu ermöglichen, wurde zusätzlich die Dosisleistungskonstante dieser Quelle experimentell durch eine Bestimmung der RAKR mit dem Primärnormal GROVEX I ermittelt. Die voraussichtlichen Vorteile der neuen Methode im Vergleich zu RAKR-Messungen werden sowohl für die untersuchte Quelle, für andere radioaktive LDR-Quellen, als auch für Miniaturröntgenröhren diskutiert. ACKNOWLEDGMENT: The research within this EURAMET joint research project leading to these results has received funding from the European Community's Seventh Framework Programme, ERA-NET Plus, under Grant Agreement No. 217257. 09.3 Selektive Interne Radiotherapie bei diffuser Lebermetastasierung 1 2 3 M. Wösle , S. J. Diehl , J. Hesser ; Ubbo-Emmius-Klinik gGmbH/Radioonkologie, Aurich (Ostfriesland), 2 Germany, Universitätsklinikum Mannheim/Klinische Radiologie und 3 Nuklearmedizin, Mannheim, Germany, Universitätsklinikum Mannheim/Strahlentherapie und Radioonkologie, Mannheim, Germany. 1 Der Goldstandard bei der Behandlung von Lebermetastasen und primärtumoren ist die Resektion. Es gibt jedoch Krankheitsfälle, bei denen die Resektion, Chemotherapie oder Radiotherapie mittels Teleund interstitieller Brachytherapie nicht möglich sind oder höchstens palliativen Charakter haben. Bei der Teletherapie sind die erreichbaren Energiedosiswerte in den Tumorherden begrenzt, da das gesunde Leberparenchym radiosensitiver als die Tumorzellen ist. Für die meisten Lebermetastasen, die histologisch gesehen Adenocarcinome sind, benötigt man mindestens 70 bis 90 Gy zur Nekrotisierung. Seit 2006 wird in Deutschland eine neuartige strahlentherapeutische Methode bei großvolumigen Leberläsionen angewendet, die die oben genannten Therapieoptionen sinnvoll ergänzt: die Selektive Interne Radiotherapie (SIRT). Mittels SIRT lassen sich kurative Energiedosiswerte im Bereich 100 bis 300 Gy in den Tumorherden erreichen, ohne das gesunde Leberparenchym nachhaltig zu schädigen. Dabei werden mikroskopisch kleine Kügelchen (Mikrosphären) aus Kunstharz oder Glas, die einen Elektronenstrahler tragen, in die tumornahen Abschnitte der Leberarterie eingeschwemmt. Meist wird dazu Yttrium-90 oder Phosphor-32 mit Aktivitäten im Bereich 2 bis 3 GBq verwendet. Beim Zerfall von Yttrium90 entstehen Elektronen mit einer mittleren Energie von 933 keV, die im Gewebe des Patienten weiche bis harte Bremsstrahlung erzeugen, die sich effektiv zur Therapiekontrolle nutzen lässt. Die Mikrosphären mit Durchmessern im Bereich 20 bis 60 μm werden permanent in den Arteriolen der Tumorherde implantiert. Von dort aus erfolgt die Nekrotisierung der Tumorzellen auf zweifache Weise. Die Bestrahlung mittels Elektronen erfolgt aufgrund ihrer maximalen Reichweite von 11 mm in Weichteilgewebe in unmittelbarer Nähe der Elektronenbahnen. Man erhält sehr steile Dosisgradienten am Tumorrand, und mit der individuellen Wahl der Einschwemmorte ist die Therapie äußerst selektiv. Problemlos können mehrere Tumorherde zur internen Bestrahlung ausgewählt werden. Der zweite Wirkungsmechanismus bei der SIRT ist die Embolisation, da die Mikrosphären die Blutversorgung der Tumorherde fast vollständig zum Erliegen bringen. Das Resultat ist eine Kombination aus der vom arteriellen Blutfluss gesteuerten Brachytherapie sowie der Embolisation der arteriellen Tumorblutversorgung, also eine Radioembolisation. Eine radiogene Hepatitis, großvolumige Fibrosierungen sowie Leberversagen treten bei der SIRT äußerst selten auf. Zwei pathophysiologische Umstände in der erkrankten Leber befördern die geringe Nebenwirkungsrate: Die gesunden Leberzellen werden zu ungefähr 75 % aus der Pfortader mit nährstoffreichem Blut versorgt; die restlichen 25 % der Blutversorgung werden durch die Leberarterie bewerkstelligt. Bei den Tumorherden mit arterieller Hypervaskularisation stehen die Beiträge der Gefäßsysteme ungefähr in umgekehrtem Verhältnis. Da die SIRT meist intraarteriell durch die Leberarterie durchgeführt wird, bleiben die Pfortader und somit große Teile des gesunden Leberparenchyms von der Therapie unberührt. Es werden die medizinischen und physikalischen Aspekte der Therapie von Leberkrebs mittels SIRT, die Bedeutung des ganzen verfügbaren medizinischen Bildgebungsspektrums sowie die Wichtigkeit der Simulation bei dieser Therapieart beleuchtet. Der etablierten Simulationsmethode mittels makroaggregierten Albuminpartikeln und des Markers Technetium-99m wird eine neue vielversprechende Methode mittels der kontrastmittelverstärkten quantitativen Perfusionsmessung bei der Magnetresonanzangiographie gegenübergestellt. 09.4 A mathematical framework for modeling brain tumor progression and responses to radiation therapy 1,2 1 1,3 1,2 1 S. Becker , A. Mang , T. A. Schütz , A. Toma , T. M. Buzug ; University of Lübeck, Institute of Medical Engineering, Lübeck, 2 Germany, Centre of Excellence for Technology and Engineering in 3 Medicine, Lübeck, Germany, Graduate School for Computing in Medicine and Life Science, Lübeck, Germany. 1 Introduction: The present work extends a mathematical model that simulates the progression of malignant brain tumors as well as the effect of radiotherapy. In clinical practice, an optimization of treatment outcome, which includes a maximization of tumor control while minimizing normal tissue toxicity, necessitates not only a quantification of the biological effect on cancerous but also on healthy tissue. The present model therefore extends the standard approaches by also modeling the effect of radiotherapy on normal tissue. Ultimately, such models could allow for estimating the biological effect of different treatment schedules and, thus, could contribute to predictions of individualized therapy outcomes. Methods: The present model describes the spatio-temporal dynamics of tumor cell density on the basis of a reaction-diffusion equation, which describes the proliferation of tumor cells as well as their migration into surrounding healthy tissue. The effects of radiation are described by an extension of the linear-quadratic model. This model offers in addition to low-dose hypersensitivity a high flexibility for integrating repair and varying therapy parameters (e.g. irradiation duration, treatment delays). A second differential equation describes the spatio-temporal progression of the necrotic density that accounts for the effects of irradiation on cancerous and normal tissue as well as degradation due to phagocytosis. Results: We quantitatively analyzed tumor growth and the efficacy of irradiation under a variety of treatment schedules and dose distributions. Figure 1(a) depicts first results of the described model illustrating the simulated cell density before (left) and after (right) therapy (2 Gy/fraction, 5 fractions/week, 6 weeks of treatment). Here, blue indicates areas predominantly determined by passive diffusion (low tumor density), whereas red and green areas (high tumor density) constitute the domain estimated to be detectable in modern imaging devices. The diffusive character of the simulated tumor before treatment and a strong reduction in cell density after treatment are clearly visible. Changes in the size of the safety margin yield, as shown in figure 1(b), significant differences in the total number of tumor cells NT (left) and the total number of cells NHN that were healthy and have become necrotic due to irradiation (right). Conclusion: The present work introduces a novel approach that allows for simulating tumor growth and the effects of irradiation. Typically, radiation-induced cell death is modeled by the linear-quadratic model, which has shown to be limited in describing, for instance, incompleterepair and high-dose radiation. To overcome these limitations, we introduced an extension to the standard approach that not only allows for incorporating prior knowledge about low-dose hypersensitivity but also offers a high flexibility for varying therapy parameters. At this, we are able to analyze growth delays under different fractionations and dose distributions. By additionally describing the effects of radiation on healthy tissue it is possible to determine a tradeoff between tumor control and normal tissue toxicity. Incorporation into clinical planning systems could ultimately allow for highly individualized refinement of treatment parameters based on model predictions. Avenues for research in near future include clinical evaluation and extension to other types of external beam radiation therapies. 09.5 Clinical investigation of a laser-based surface imaging system for setup correction in radiotherapy 1 2 2 2 2 T. Moser , K. Schubert , G. Sroka-Perez , M. Uhl , G. Habl , K. 2 2 1 Herfarth , J. Debus , C. P. Karger ; 1 German Cancer Research Center/Dept. of Medical Physics in Radiation 2 Oncology, Heidelberg, Germany, Heidelberg, Germany, University Hospital of Heidelberg/Dept. Radiation Oncology, Heidelberg, Germany, Heidelberg, Germany. Purpose: To evaluate the suitability of a 3D-laser surface imaging system in determining inter-fractional setup corrections for different tumour sites in radiotherapy. Materials and Methods: A laser-imaging system (Galaxy, LAP Laser, Lüneburg, Germany) was used to reconstruct 3D patient surfaces with high resolution. The system is mounted at the ceiling of a tomotherapy unit (tomo, Hi•Art System, TomoTherapy, Madison, WI, USA). The reflections of the projected laser lines are recorded by a camera and a 3D-surface model of the patient is reconstructed. The actual patient position is then registered with a reference model. That can be acquired with the system itself or imported as skin contour from the treatment planning CT via DICOM interface. As a result, a setup correction with 6 degrees of freedom is calculated. This correction can be used to improve the inter-fractional setup accuracy of the patient. A study was performed to investigate the clinical suitability of the described setup correction procedure for six different tumour sites (brain, head & neck, breast, thorax, abdomen, and pelvis). For each site, 20 patients were included. The setup corrections derived from registration of the Megavoltage (MV) CT with the treatment planning CT were considered as gold standard. After initial setup using skin marks and room lasers, a surface image was acquired. The corrections proposed by the surface imaging system in lateral (LAT), longitudinal (LNG) and vertical (VRT) direction were compared with the respective values from the MVCT. In addition, the radial deviation in space (RAD) was calculated. Informed consent was obtained from all patients. The study was approved by the local ethics committee. Results: As an example, the tumour locations upper abdomen and brain are shown for the reference image obtained with the laser system at the first fraction after the MVCT-based correction (Fig. 1). For the tumour site upper abdomen, the deviations between both correction methods are generally larger than for the brain. The maximum deviation of the median from zero is -2.3 mm (abdomen) and -0.6 mm (brain), respectively. The better agreement for the brain is attributed to the use of a mask system and the fact that the skull presents a rigid structure. If the DICOM structure was used as reference, significant deviations especially in VRT were observed. Conclusion: Surface imaging systems may be used to improve interfractional setup accuracy in radiotherapy. The use of a reference images acquired with the system itself appears more reliable than the use of DICOM structures. A potential workflow could be to generate a reference image at the first fraction after initial MVCT setup and performing further radiological image guidance during the treatment course, only if predefined intervention thresholds are exceeded. This approach would help to reduce the imaging dose for the patient. Nevertheless, the overall accuracy of the proposed corrections was found to be strongly dependent on tumour site. Acknowledgement: This work was partly funded by LAP (Lüneburg, Germany). 09.6 Verringerung der Lagerungsvariabilität durch Einführung einer indexierten Patientenpositionierung und Anpassung der Toleranztabellen für die Tischparameter im Verifikationssystem T. Krieger, R. Schmitt, H. Hutzel, J. Wilbert; University of Würzburg, Klinik und Poliklinik für Strahlentherapie, Würzburg, Germany. Moderne Record- und Verify-Systeme (R&V) sind in der Lage, neben den Bestrahlungsfeldparametern auch die Koordinaten des Behandlungstisches zu überwachen und aufzuzeichnen. Sie bieten außerdem die Möglichkeit, durch die Wahl von Toleranztabellen einen Beschleunigerinterlock anzusprechen, der bei zu hohen Abweichungen der Tischparameter von einer festgelegten Referenzposition die Bestrahlung verhindert. Der richtige Einsatz dieses Interlocks kann also dem Anwender einen Warnhinweis auf einen potentiellen Fehler bei der Patientenlagerung geben und somit helfen Fehlbehandlungen zu vermeiden. Um die Toleranzen möglichst niedrig halten zu können, wurde an unserer Klinik im Laufe des letzten Jahres schrittweise an 3 35 von 4 geometrisch baugleichen Beschleunigern eine indexierte Patientenpositionierung eingeführt. Die Indexierung erfolgt dadurch, dass verschiedene Lagerungshilfen in geeigneter Weise am Bestrahlungstisch fixiert werden. Für 82 Patienten, die mit insgesamt 1948 Fraktionen im Brust-/Thoraxbereich bestrahlt wurden, wurden die im R&V-System aufgezeichneten lateralen und longitudinalen Tischparameter retrospektiv analysiert. Es wurden jeweils die Abweichungen von den bei der ersten Fraktion festgelegten Referenzwerten betrachtet. Bei 47 Patienten mit 1148 Fraktionen, welche ohne Indexierung gelagert wurden, ergab sich eine mittlere Abweichung lateral von 1,92±1,53cm, longitudinal von 4,02±3,14cm. Bei den indexiert gelagerten Patienten (n=35, 800 Fraktionen) verringerten sich die Werte lateral auf 0,9±0,84cm und longitudinal auf 0,94±1,43cm. Anders ausgedrückt: Um 95% (98%) der Fraktionen ohne Beschleunigerinterlock applizieren zu können benötigt man bei der nichtindexierten Lagerung einen Toleranzbereich von ±5cm (±6cm) lateral und ±10cm (±12,5cm) longitudinal. Bei indexierter Lagerung reduziert sich die Toleranz auf lateral ±2,2cm (±3,2cm) und longitudinal ±2,5cm (±4,3cm). Abb. 1 und 2 zeigen die Ergebnisse in graphischer Form. Zusammenfassung: Die vorliegende Arbeit zeigt, dass bei Bestrahlungen im Thoraxbereich durch eine indexierte Patientenpositionierung die Lagerungsvariabilität signifikant verringert werden kann. Als Konsequenz können die Toleranzen für die Tischparameter im R&V-System sehr eng gewählt werden und der von diesen getriggerte Beschleunigerinterlock bietet einen verlässlichen Hinweis auf eine potentiell fehlerhafte Patientenlagerung, da die im R&V-System aufgezeichneten Bestrahlungstischparameter als Surrogat für die Patientenposition verwendet werden können. Literatur: Hadley SW, Balter JW, Lam KL; Analysis of couch position tolerance limits to detect mistakes in patient setup; J Appl Clin Med Phys 2009; 10(4):207-219 09.7 Monte-Carlo Simulation zur Bestimmung der totaler Streufaktoren bei unterschiedlichen Detektoren D. Czarnecki, J. Wulff, K. Zink; Institut für Medizinische Physik und Strahlenschutz, Giessen, Germany. Einleitung: Bei der Intensitätsmodulierten Radiotherapie (IMRT) sowie in der sterotaktischen Radiotherapie werden kleine Felder (<4x4cm²) am Patienten eingesetzt, deren Dosimetrie mit großen Unsicherheiten verbunden ist. Gründe hierfür sind der Volumeneffekt des Detektors sowie die Abschattung des Fokus der Strahlenquelle durch das Blendensystem. In der vorliegenden Arbeit wurden Monte-Carlo Simulationen aber auch Messungen durchgeführt, um Streufaktoren in kleinen Feldern zu bestimmen (Outputfaktoren). Der Streufaktor SCP ist wie folgt definiert. 36 Darin bedeutet A die Feldgröße, z die Messtiefe und d der FokusOberflächen-Abstand. Die mit ref indizierten Größen beziehen sich auf die jeweiligen Referenzbedingungen. Material und Methode: Um den Streufaktor zu bestimmen wurden Dosismessungen in einem Wasserphantom bei einem FokusOberflächen-Abstand dref=90cm und einer Messtiefe zref=10cm bei unterschiedlichen Feldgrößen an einem Siemens-Beschleuniger KD 2 durchgeführt. Diese Messungen wurden mit den Ionisationskammern PTW31016, PTW31010, dem abgeschirmten Halbleiter-Detektor PTW60008 sowie den nicht abgeschirmten Halbleiter-Detektor PTW60017 durchgeführt. Die Messungen wurden mit Ergebnissen aus Monte-Carlo Simulationen verglichen. Für die Monte-Carlo Simulationen wurde das Programm Paket EGSnrc und BEAMnrc eingesetzt. Mit BEAMnrc wurde der Teilchentransport durch den Linearbeschleuniger Siemens KD bei unterschiedlichen Feldgrößen simuliert. Mit dem Benutzercode egs_chamber wurde der weitere Teilchentransport durch das Wasserphantom und die Detektoren simuliert. Mit den beiden Luftgefüllten Ionisationskammern PTW30016 und der PTW31010 aber auch dem Halbleiter-Detektoren PTW60016 und PTW60017 wurden die Energiedosen in 10cm Wassertiefe bei unterschiedlicher Feldgröße berechnet. Da in der Dosimetrie die Wasserenergiedosis als Bezugsgröße gilt, wurde auch in einem genügend kleinen Wasservoxel (1mm³) die Energiedosis berechnet. Aus den errechneten Dosiswerten wurde schließlich die Streufaktor Scp bei unterschiedlicher Feldgröße bestimmt. Ergebnisse: Die Ergebnisse aus den Simulationen und aus den Messungen weichen geringfügig von einander ab (Abbildung 1). Im Rahmen der Ungenauigkeiten bei den Messungen und den Simulationen, kann die Simulation als realitätsnah angesehen werden. Die Ergebnisse zeigen, dass ab einer Feldgröße von 2x2cm² die Streufaktoren eine starke Abhängigkeit von den Detektoren aufweisen (Abbildung 2 und 3). Es ist erkennbar, dass sich kleinere Streufaktoren ergeben, je größer der Detektor ist. Vergleicht man die Abweichung der Streufaktoren aus der Wasserenergiedosis im Wasservoxel mit den Streufaktoren ermittelt mit den Detektoren, so ergibt sich für die Halbleiterdetektoren die geringste Abweichung. Dies ist vor allen durch das kleine Messvolumen zu erklären. Damit scheinen Halbleiterdetektoren für die Dosimetrie mit kleinen Feldern am geeignetsten. Es werden noch Simulationen und Messungen mit kleineren Feldern durchgeführt, um das Verhalten der Detektoren bei sehr kleinen Feldern zu untersuchen. Für die Erzeugung solcher Felder werden Rundkollimatoren eingesetzt. Abbildung 1: Vergleich der Outputfaktoren des Siemens KD Linearbeschleunigers aus Simulationen und Messungen bei einer Energie von 6MV-X mit den angegebenen Detektoren. Zur Messung der Dosis wurde sowohl bei den Messungen als auch bei den Simulationen der Halbleiterdetektor PTW60016 (links) und die Ionisationskammer PTW31010 (rechts) verwendet. Zusätzlich ist der Quotient aus simulierten und gemessenen Werten dargestellt. Abbildung 2: Aus der Monte-Carlo Simulation errechnete Outputfaktoren für den Siemens KD Linearbeschleuniger mit einer Photonenenergie von 6MV-X mit Detektoren unterschiedlich großen Messvolumens Isodosenabstand wieder mehr dem Ruhezustand an, allerdings nicht mit der Regelmäßigkeit der offenen Felder. Der Gatingeffekt erwies sich in einer Reihe von 10 Messungen als stabil. Eine 1D mathematische Modellierung mit konstanten Funktionen und an den Rändern angestückelten Gausfunktionen simuliert sehr genau die offenen Felder. Bei dyn. KF können die beobachteten 8-10% Änderungen der Dosisverteilung in beide Richtungen ebenfalls mathematisch mit ihrer Abhängigkeit von den rel. Bewegungsrichtungen von Tisch und Blende simuliert werden. Schlussfolgerung: Die Isodosenverteilungen ändern sich bei lungentypischen Bewegungen des Targets in beträchtlichem Ausmaß gegenüber dem Ruhezustand (was von einem TPS nicht berücksichtigt wird). Die Verschmälerung der Isodosenlinien (>50%) bzw. Verbreiterung (<50%) bei offenen Feldern kann mithilfe eines einfachen mathematischen Modells beschrieben werden. Isodosenverteilung und Neigungswinkel erweisen sich bei mechanischen Keilfilterfeldern als sehr robust gegenüber Bewegung, während es bei dynamischen Keilfilterfeldern sowohl zu Verbreiterungen, als auch Verschmälerungen der z.B. 90%-Isodose und Neigungswinkeländerungen kommen kann. Diese Effekte aufgrund der konkurrierenden Bewegungen können ebenfalls mithilfe eines einfachen mathematischen Modells verstanden werden. Ob es insgesamt zu einer Verbreiterung oder Verschmälerung kommt, hängt unter anderem von den Startbedingungen ab. Da man im Patientenbetrieb dies nicht beeinflussen kann, sollte vom Einsatz virtueller Keile bei bewegten Zielvolumen, wie z.B. Lungentumoren, abgesehen werden. Gating stellt bei offenen und allen Keilfilterfeldern annähernd den Ruhezustand in der Dosisverteilung wieder her. 09.9 The Online Study Program “Master of Advanced Physical Methods in Radiotherapy“ 1,2 3 2 4 4 4 O. Jäkel , J. Debus , W. Schlegel , T. Hetz , M. Schäfer , C. Mainka ; Dep. Radiation Oncology, University Heidelberg, Heidelberg, Germany, 2 Deutsches Krebsforschungszentrum, Abt. Medizinische Physik, 3 Heidelberg, Germany, Dep. Radiation Oncology, Heidelberg, Germany, 4 Heidelberg University, Postgraduate Scientific Studies, Heidelberg, Germany. 1 Abbildung 3: Mit verschiedenen Detektoren gemessene Outputfaktoren am Siemens KD Linearbeschleuniger bei einer Photonenenergie von 6MV-X. 09.8 Welchen Einfluss üben die konkurrierenden Target- und Blendenbewegungen auf die zweidimensionale Dosisverteilung von dynamischen Keilfilterfeldern ohne und mit Gating aus? 1 2 3 2 A. Block , J. Lenz , E. Radtke , B. Spaan ; 1 Institut für Medizinische Strahlenphysik, Klinikum, Dortmund, Germany, 2 Experimentelle Teilchenphysik E5, Technische Universität, Dortmund, 3 Germany, Institut für Experimentalphysik 1, Ruhr-Universität, Bochum, Germany. Zielsetzung: Der Einfluss der konkurrierenden Blenden- und Targetbewegungen auf die zweidimensionale Dosisverteilung von dynamischen Keilfilterfeldern soll untersucht und mit offenen und mechanischen Keilfilterfeldern verglichen werden. Des Weiteren soll der Gatingeffekt auf die jeweiligen Dosisverteilungen gemessen werden. Mit einer einfachen mathematischen Modellierung sollen die gefundenen Trends in der Isodosenverteilung beschrieben werden. Methodik: Die Untersuchungen wurden am Clinac 2100C/D, der mit dem Enhanced Dynamic Wedge (EDW) und für atemgetriggerte Bestrahlungen mit dem RPM-System (alles Fa. Varian) ausgerüstet ist, bei den Photonenenergien 6 MV und 15 MV durchgeführt. Die Dosisverteilung wurde mit dem 2D-Array MapCheck 2 (Fa. SunNuclear, 2 1527 Halbleiterdetektoren, aktive Detektorfläche 0,64 mm , max. Feldgröße von 32 cm x 26 cm) gemessen. Die Patientenbewegungen wurden mit dem Hochpräzisionsmesstisch MotionSim (Fa. Sun Nuclear) durch ein periodisch sinusförmiges Bewegungsmuster (Amplitude 1,1 cm, Periode 6 Sekunden) simuliert. Die Feldgröße betrug 10 cm x 10 cm, die Keilfilterwinkel 15°, 30° und 45°. Ergebnis: Bei den offenen Feldern ist der Abstand der 90%-Isodosen 93 mm (6 MV) bzw. 92 mm (15 MV). Beim bewegten Target verschmälern sich die 90%-Isodosen auf 84 mm. Unter Gatingbedingungen wird mit Verringerung der Gatingamplitude bzw. des Duty Cycles (DC) der Abstand wieder größer, auf 86 bzw. 85 mm (DC 64%), 91 mm (DC 35%), 95 mm (DC 12%). Ab der 50%-Isodose verbreitert sich der Abstand. Der Isodosenabstand bei den mechanischen KF ist aufgrund des steilen Dosisgradienten sehr robust gegenüber Bewegungen (Abweichung maximal 1 - 2 mm). Eine Messreihe bei fortlaufender Targetbewegung führt beim dyn. KF bei 5 Messungen zu Verbreiterungen von 4 und 11 mm und in den anderen 7 Messungen zu Verschmälerungen zwischen 4 und 15 mm der 90%Isodosen. Unter Gatingbedingungen nähert sich der 90%- Due to the enormous technical and scientific advancement of radiation oncology in the last decades, there is an increasing need for education and training of medical physicists in the various specialized areas. While most existing master programs in medical physics are aiming at an introduction into the basic concepts, there are currently very few academic programs offering an in depth training of advanced techniques like intensity modulated radiotherapy, image guided radiotherapy and proton and ion beam therapy, as well as the connected quality assurance and dosimetry concepts. The University of Heidelberg is trying to fill that gap and moreover to adapt to the needs of extra-occupational training of professional medical physicists, offering an advanced and flexible adult learning program. The master program for Advanced Physical Methods in Radiotherapy is designed as a study course which is mainly delivered online, so that it can be followed from any place worldwide and adapted to the individual time constraints. The course is designed for graduates in physics or biomedical engineering with a clear background in medical physics and two years working experience. It will allow postgraduate extraoccupational education and training. The program will accept new students every winter semester. The course is accredited by AQUIN. Recognition through the DGMP, EFOMP and CAMPEP is envisaged. The program concentrates on modern treatment techniques, like IMRT, IGRT and radiotherapy with proton and ion beams. It is supplemented with an advanced course on anatomy, an update of modern imaging techniques as well as special quality assurance and dosimetrical methods needed for the new radiotherapy modalities. The course is modular and consists of online phases based on the “Moodle” software platform, few attendance phases, practical training phases and a master thesis. The training is done by a unique team of outstanding lecturers from the University of Heidelberg, the German Cancer Research Center (DKFZ), the Heidelberg Ion Beam Therapy center (HIT) and cooperating centers like RMH in London, MGH in Boston, GSI Darmstadt, PSI Villigen and others. The teachers all have long-lasting teaching experience, research skills and practice in clinical application of modern radiotherapy techniques. Many of them have been pioneers in the development and clinical implementation of these new techniques during the last decades. Practical courses offer the possibility to directly work with the latest equipment like Tomotherapy units, on board imaging for IGRT and scanning proton and carbon ion beams. The master thesis may either be performed directly at one of the contributing institutions (University Hospital, DKFZ, HIT), at the participants home institution or at one of our partner institutions like GSI, University of Marburg, MGH or MDACC (Houston), while still being under supervision of the team in Heidelberg. 37 The course offers participants the possibility to learn about state of the art in radiotherapy. The master degree from Heidelberg University will provide new professional perspectives and possibilities to the participants. It will also contribute to the education of the many professionals, which will be needed in all modern centers for radiation oncology in Germany and worldwide. 09.10 Situation of Medical Physicists in Switzerland - a Self Assessment 1 2 3 4 J. Ray , L. André , A. Pfäfflin , S. Klöck ; 1 Service de Radio-Oncologie / Hôpital de Sion, Sion, Switzerland, 2 3 Radio-Onkologie Lindenhofspital, Bern, Switzerland, Bildungszentrum 4 Gesundheit Basel-Stadt, Basel, Switzerland, UniversitätsSpital Zürich, Zürich, Switzerland. Summary: With the aim to evaluate the status and needs of its members and to adapt its strategy correspondingly, the former Swiss Professional Association of Medical Physicists (SPAMP) conducted a survey of its membership actual position and daily concerns, self reflection and expectations for the future. The professional affairs committee of the Swiss Society of Radiobiology and Medical Physics (SSRMP) as the successor of SPAMP analyzed the results, which are presented here. Materials and Methods: End of 2009, all physicists of SSRMP were invited to participate in an electronic survey developed by a small working group. The survey consisted of 65 questions investigating various topics of the daily professional conditions of a medical physicist working in Switzerland. Expectations and actual positions were surveyed along with their relationships to other coworkers (Part 1). Global satisfaction was evaluated based on the expected and actual duties and salary (Part 2). Further questions were asked (Part 3), for example about the organizational structure of SSRMP, its member needs, and how medical physics education could be developed in Switzerland. Results: 64 took part out of 161 sent invitations. 86 of them opened the questionnaire and mainly “medical physicists”, working in clinical environement answered. Involvement was not equally for all three parts: only 49 people took the time to answer the questions about the future. Position: Overall, a fairly high global satisfaction is measured despite recurrent management and resources related bothers. Problems are seen nearly equally distributed - about 30% - on “not enough time to do the job”, “acknowledgement” and “management”. More than 50% would delegate mainly periodical quality assurance tasks to others, mainly radiographers. 41% are not satisfied with their salary. 50% would aim at a position with salary and workload equivalent to a physician. 86% feel valued by other professional coworkers in general. About 44% have not a medical physicist as direct chief. 80% still recommend medical physics to young scientists as an attracting profession. Education: 55% of the participants state that the working time dedicated for continuous education is fitting their expectations. Only 32% got their SSRMP certification based on an MAS at ETH Zurich or as MSc of a foreign University, the others had individual ways or foreign certifications. As a plan for setting up education in medical physics, building up two faculties of medical physics in Switzerland launching an MSc course each is supported. But 28% do not see any potential in residence positions for MPs in training. Future: Concerning their community, 90% confirm the needs for a dedicated scientific platform and a strong professional representation. In the meantime the professional society of medical physics SPAMP was dissolved and transferred to the SSRMP committee of professional affairs. The survey strengthened the executive committee in reorganizing SSRMP structures in a way that education and professional affairs became integrative and institutional parts of the society besides science. The national professional surveys will be carried on and plans for setting up an education scheme in medical physics will continued to be pursued. Session 10: Audiologie 10.1 CE Lecture - Basisvortrag: Hören mit zwei Ohren - Wie funktioniert es und was müssen Hörhilfen dafür leisten? B. Kollmeier; Kompetenzzentrum HörTech, Hörzentrum Oldenburg, Fraunhofer Projektgruppe HSA und Universität Oldenburg, Oldenburg, Germany. Früher hinkten Hörhilfen ihren audiologischen Anforderungen hinterher heute ist es fast umgekehrt: Dank der hohen Miniaturisierung können in modernen Hörgeräten viel mehr Algorithmen und AnpassungsParameter individuell eingestellt werden, als sinnvoll spezifiziert werden kann. Auch die drahtlose Verbindung zwischen den Hörgeräten an beiden Ohren bietet prinzipiell eine Unterstützung des beidohrigen (binauralen) Hörens. Dennoch ist der erzielbare Benefit durch die Versorgung selbst mit den aktuellsten Hörgeräten für den individuellen Patienten begrenzt - woran liegt das? Wie sollen zukünftige Generationen von Hörgeräten und Hör-Implantaten den natürlichen, ohne Hörstörung zu erwartenden Hör-Eindruck beim individuellen Patienten wiederherstellen? Dieser Beitrag gibt einen Überblick über Ansätze zum binauralen Hören, seine möglichen Störungen und die zugehörigen Funktion technischer Hörhilfen, die zur Kompensation oder zum Ersatz dieser Defizite notwendig ist: Die Diskrimination interauraler (d.h. zwischen beiden Ohren auftretender) Zeit- und Pegelunterschiede und die zugehörige Lokalisations-Auflösung kann durch interaurale Verstärkung unterstützt werden. Bei der absoluten Lokalisation z.B. in der Medianebene oder zur Vermeidung von vorn- hinten Verwechslungen ist die adäquate spektrale Darstellung von Bedeutung. Beim „Cocktail-Party-Effekt“, d.h. der Sprachdiskrimination bei störenden Umgebungsgeräuschen und Nachhall, der wesentlich durch das binaurale Hören unterstützt wird, können bisher nur Algorithmen zur gezielten Verbesserung des Signal-Rauschabstandes helfen (z.B. Mikrophonarrays, Richtungsfilterung, externe Mikrophone). Zukünftige binaurale Hörhilfen sollten durch bessere Modellierung des Raums, durch adäquate Modellierung der binauralen Verarbeitung und durch ein quantitatives Verständnis der binauralen StörschallUnterdrückungsmechanismen zu einer wirksamen Hör-Unterstützung auch in akustisch „schwierigen“ Szenarios gelangen. 10.2 State-of-the-art-Vortrag: Bilaterale Versorgung mit Hörgeräten: Theorie und Praxis M. Kinkel; KIND Hörgeräte, Burgwedel, Germany. Das binaurale Hören bildet eine wesentliche Voraussetzung für das räumliche Hören und das Richtungshören und ist damit unabdingbar für das Sprachverstehen in komplexen und lärmbehafteten Hörsituationen. Viele Schwerhörige leiden besonders unter ungenügenden Hörleistungen, besonders unter einem reduzierten Sprachverstehen in solchen Hörsituationen. In der Praxis liegt in den meisten Fällen eine symmetrische, beide Ohren gleichermaßen betreffende Schwerhörigkeit vor. Diese Fälle sollten möglichst auch mit zwei Hörgeräten versorgt werden. Wenn die Signalverarbeitung der Hörgeräte unabhängig voneinander ist, spricht man von einer "bilateralen" Versorgung. Mittlerweile ist auch eine "binaurale" Versorgung möglich, bei der beide Hörgeräte drahtlos gekoppelt werden. Abhängig von der Bandbreite der Verbindung können zunehmend komplexe SignalverarbeitungsStrategien verwirklicht werden. Daraus ergeben sich für den Nutzer zusätzliche Vorteile von der Bedienung bis hin zum Hören in speziellen Hörsituationen. In diesem Beitrag werden die technischen Grundlagen beider Versorgungsformen und die daraus entstehenden Vorteile für das Hören in komplexen Hörsituationen dargestellt und anhand von Daten aus Feldstudien aufgezeigt, welche Vorteile sich dabei im täglichen Leben ergeben. 10.3 Verbesserungspotentiale bei der bilateralen Versorgung mit Cochlea-Implantaten V. Hamacher; Advanced Bionics GmbH, Hannover, Germany. Für viele hochgradig schwerhörige und ertaubte Personen bietet die bilaterale Versorgung mit Cochlea-Implantaten (CI) gegenüber dem unilateralen Fall deutliche Verbesserungen in Bezug auf die Lokalisationsfähigkeit und die Sprachverständlichkeit im Störgeräusch. Zudem wirkt die bilaterale Stimulation der Deprivation der neuralen Verarbeitungsmechanismen im Gehör entgegen. 38 Die verbesserte Lokalisationsfähigkeit mit zwei CIs beruht hauptsächlich auf der Auswertung von interauralen Pegeldifferenzen (ILD), während interaurale Laufzeitdifferenzen (ITD) in der Regel wenig beitragen, was unter anderem darauf zurückzuführen ist, dass die hüllkurvenbasierten und interaural nicht synchronisierten Stimulationsstrategien die zeitlichen Informationen in den bilateralen Stimulationssignalen erheblich reduzieren. Um bei bilateraler CI-Versorgung eine gute Lokalisationsfähigkeit zu ermöglichen, ist es also zunächst wichtig, dass die in den CISprachprozessoren zur Umrechnung der akustischen Eingangssignale in die elektrischen Stimulationsmuster eingesetzten Kompressoren die ILDs möglichst wenig verändern. Hinzu kommt, dass in Zukunft mehr und mehr die bei Hörgeräten etablierten Algorithmen zur Vorverarbeitung der Sprachsignale auch in CI-Sprachprozessoren zum Einsatz kommen werden. Dabei handelt es sich beispielsweise um adaptive Direktionalmikrofone und Algorithmen zur Unterdrückung stationärer und impulshafter Störsignale. Auch hier ist es wichtig, diese Algorithmen so zu implementieren, dass die ILDs und ITDs möglichst wenig verzerrt werden. In diesem Beitrag werden über technische und klinische Studien zu diesem Problemfeld berichtet und es werden technische Verbesserungspotentiale für zukünftige CI-Sprachprozessoren vorgestellt und diskutiert. Studien haben gezeigt, dass bei bilateraler CIVersorgung die Verbesserung des Sprachverstehens im Störgeräusch vorrangig auf der Ausnutzung von Kopfabschattungseffekten bei asymmetrischen Hörsituationen („Better-Ear Effect“) beruht, während der binaurale Demaskierungseffekt („Binaural Squelch“) bei räumlich getrennten Nutz- und Störschallquellen deutlich schwächer ausfällt als bei Normalhörenden und Hörgeräte-Trägern. Daher bieten leistungsfähige binaurale Algorithmen zur Störgeräuschbefreiung, die auf einem hochratigen Datenaustausch zwischen beiden Sprachprozessoren basieren, für die bilaterale CIVersorgung ein sehr grosses Verbesserungspotential. Es kann davon ausgegangen werden, dass der Nutzen vergleichbar wäre mit dem für Hörgeräte-Träger, für die solche Technologien schon erfolgreich angeboten werden (StereoZoom und ZoomControl in Phonak Ambra Hörgeräten). Bei StereoZoom handelt es sich um ein binaurales BeamformingSystem, das auf jeder Seite aus dem ipsilateralen Mikrofonsignal und dem drahtlos empfangenen kontralateralen Mikrofonsignal ein neues Signal berechnet, das eine höhere Direktivität und damit bessere Störschallunterdrückung hat, als das mit einzelnen unverkoppelten Hörgeräten möglich wäre. ZoomControl adressiert Hörsituationen, in denen das Nutzsignal nicht von vorne einfällt, sondern seitlich oder von hinten, wie beispielsweise bei einer Unterhaltung im Auto. Durch eine geeignete automatische Steuerung der Richtcharakteristiken auf beiden Seiten und die gezielte Übertragung des Audiosignals von der Seite mit dem besseren Signalstörabstand auf die andere Seite wird die Richtungssensitivität des Gesamtsystems in eine per Fernbedienung wählbare oder automatisch bestimmte Hörvorzugsrichtung gelenkt. Beide binaurale Ansätze werden im Detail vorgestellt und anhand von Studienergebnissen wird das Anwendungspotential für die bilaterale CIVersorgung, aber auch für den bimodalen Fall mit akustischer Stimulation des kontralateralen Restgehörs, diskutiert. 10.4 Lokalisation mit CI unter dem Einfluss von verschiedenen Signalvorverarbeitungen A. Mair; Univ.Klinik für Hals-Nasen-Ohren, Salzburg, Austria. Ziel: Signalvorerarbeitungen sollen das Hören mit CI in unterschiedlichen akustischen Umgebungen trotz des eingeschränkten Dynamikbereichs für elektrische Stimuli zu ermöglichen. Pegelabhängige Verstärkung, automatische Kontrolle der Mikrofonempfindlichkeit oder selektive Störlärmunterdrückung durch adaptives Richtmikrofon sind Beispiele für solche Signalverarbeitungen. Es ist anzunehmen, daß diese in beiden Sprachprozessoren unabhängig arbeitenden Algorithmen die Lokalisation durch Veränderung des Schlüsselreizes - die interaurale Level-Differenz (ILD) - mehr oder weniger stark beeinflussen. Durch diese Untersuchung soll eine Grundlage für die Empfehlung des Einsatzes dieser Vorverarbeitungsstrategien gewonnen werden. Design: die von einem Freedom-Sprachprozessor abgegebenen Stimuli werden mit der software sCILab (Lai W.K., Dillier N.) ausgelesen und bilden die Datenbasis für die Erfassung der interauralen Pegelunterschiede unter den Bedingungen unterschiedlicher Pegel des Signals, unterschiedlicher Richtungen des Signals und 3 Signalvorverarbeitungen: ADRO, NOISE (=ADRO + Autosensitivity) und BEAM (adaptives Richtmikrofon + ADRO + Autosensitvity), die als 'SmartSounds' in aktuellen Sprachprozessoren der Fa. Cochlear implementiert sind. Die Messungen wurden in Ruhe und im Störgeräusch durchgeführt. Resultate: durch die Signalvorverarbeitung werden die ILD weitgehend bewahrt. Insbesondere im Störgeräusch kann die Hörbarkeit der Signale wesentlich verbessert werden. 10.5 Klinische und technische Aspekte bei bilateraler Cochlea Implantation P. K. Schleich; MED-EL Worldwide Headquarters, Innsbruck, Austria. Seit 1996 wurden tausende Patienten mit beidohrigem Hörverlust bilateral mit MED-EL Cochlea Implantaten (CI) zur Rehabilitation des binauralen Hörens versorgt. Etwa ein Drittel davon sind Kinder. Etliche Studien untersuchten seitdem, wie binaurale Verarbeitung mit CIs möglich ist, und welche Vorteile z.B. für das Sprachverständnis in störbehafteten Umgebungen zu erwarten sind. Weiters wurde die Fähigkeit Schallquellen zu lokalisieren, sowie im Speziellen die Entwicklung dieser Fähigkeit bei Kindern untersucht. Bei Kindern stellen sich die Fragen nach kritischen Altersperioden in der Reifung des auditorischen Systems und dem Einfluss der Dauer zwischen erster und zweiter Implantation. Sprachtests, Elektrophysiologische Messungen sowie die Erhebung der Sprachentwicklung von Kindern mit unterschiedlichen Implantationsaltern und Dauern zwischen zwei Implantaten geben Hinweise auf kritische Perioden. Die meisten, der erwähnten klinischen Untersuchungen wurden bisher mit Stimulationskonzepten durchgeführt, die primär die Einhüllende des akustischen Signals kodieren. Derartige Systeme erlauben unter Voraussetzung eines Abgleichs der CI Einstellungen die Kodierung von Interauralen Pegeldifferenzen (ILD, engl. interaural level difference). Bilateral CI Benutzer sind zumindest teilweise in der Lage, in den Einhüllenden kodierte Interaurale Laufzeiten (ITD, engl. interaural time difference) zur Lateralisation von Schallreizen zu benutzen. Die starke perzeptive Präferenz von ILDs dürfte auch in der Art der bisher untersuchten Stimulationskonzepte begründet sein. Neue Stimulationskonzepte, wie z.B. FS4 und FS4p werten zusätzlich zur Einhüllenden des akustischen Signals auch die zeitliche Feinstruktur tieffrequenter Signalkomponentnen aus. Stimulationspulse werden dabei synchron zu Nulldurchgängen in tieffrequenten Filterausgängen appliziert. Aktuelle Fragestellungen umfassen unter anderem die Kodierung von ITDs mit neuen Stimulationskonzepten und die damit verbundene akustische Synchronisierung von unabhängig arbeitenden CI Systemen. 10.6 Schallquellenlokalisation in Vertikalebenen bei CochleaimplantatTrägern 1 1 2 P. Majdak , B. Laback , M. Goupell ; Austrian Academy of Sciences/Acoustics Research Institute, Wien, 2 Austria, University of Wisconsin-Madison/Waisman Center, Madison, United States. 1 Träger von derzeitigen Cochleaimplantaten (CIs) können bis zu einem gewissen Grad Schallquellen entlang der links/rechts Dimension lokalisieren. Demgegenüber ist die Lokalisation entlang der vertikalen Ebenen (vorne/hinten/oben/unten) wegen unzureichender Übertragung der relevanten Information erschwert. Im akustischen Gehör wird die Lokalisation in den Vertikalebenen durch die an den Ohrmuscheln verursachte spektrale Färbung der eintreffenden Signale ermöglicht. In diesem Vortrag werden grundlegende Fragen zur Möglichkeit der Lokalisation in den Vertikalebenen mit CIs besprochen. Zuerst wird die Fähigkeit von bilateralen CI-Trägern zur Lokalisation im 3D-Raum unter Verwendung der klinischen CI-Systeme vorgestellt. Wie erwartet ist die Lokalisation in den Vertikalebenen unter realistischen Bedingungen (bei zufälligem Signalpegel) deutlich schlechter als bei Normalhörenden. Anschließend wird die für die Sprachverständlichkeit mit einem 12Kanal-CI notwendige Spektralkonfiguration besprochen. Ausreichende Sprachverständlichkeit tritt mit Frequenzen bis zumindest 3 kHz und acht Kanälen auf, womit vier Kanäle für die Kodierung spektraler Richtungsinformation zur Verfügung stehen. Im nächsten Schritt werden Resultate zur Untersuchung der Fähigkeit zur Unterscheidung verschiedener Spektren besprochen - eine Voraussetzung für die Lokalisation in den Vertikalebenen. Während alle CI Träger prinzipiell sensitiv für spektrale Spitzen und Täler waren, nahm die Sensitivität bei zufälliger breitbandiger Pegelvariation dramatisch ab. Demgegenüber sind Normalhörende auch mit Pegelvariation sensitiv. Da im akustischen Gehör sowohl spektrale als auch zeitliche Signalmerkmale zur Verfügung stehen - letztere wurden im CI-Experiment ausgeschaltet könnten zeitliche Merkmale eine Rolle spielen. Die nächste Studie 39 untersuchte die Anzahl der für die Lokalisation in den Vertikalebenen notwendigen Frequenzkanäle. Normalhörende zeigten bei akustischer CI-Simulation nach audio-visuellem Training robuste Lokalisation mit 12 Kanälen also nur vier Kanälen oberhalb von 4 kHz. In der letzten Studie wurde die Adaptationsfähigkeit des auditorischen Systems bezüglich einer Kompression der spektralen Richtungsinformation zu tieferen Frequenzen getestet, entsprechend der reduzierten Obergrenze der elektrischen Stimulation. Fünfzehn Normalhörende absolvierten ein Lokalisationstrainingsexperiment mit zweistündigen täglichen Einheiten über den Zeitraum von drei Wochen. Nach anfänglich stark erhöhtem Lokalisationsfehler verbesserte sich die Lokalisationsleistung der Probanden stetig, erreichte aber am selbst am Ende der Trainingsperiode nicht die Ausgangsleistung. Die Kombination der Ergebnisse zeigt, dass die Lokalisation in den Vertikalebenen bei adäquater Übertragung der spektralen Richtungsinformation für Träger zukünftiger CI-Systeme möglich sein könnte. Während unsere Ergebnisse die Möglichkeit zur Anpassung der Richtungsinformation an den im elektrischen Gehör zur Verfügung stehenden Spektralbereich zeigen, liegt eine wichtige zukünftige Herausforderung in der Verbesserung der Fähigkeit der CI-Träger zur Unterscheidung verschiedener Spektren, möglicherweise durch Einbindung zeitlicher Signalinformation. Session 11: Protonen- und Ionentherapie: Neue Anlagen und Technologien 11.3 Inbetriebnahme des Partikeltherapie-Zentrums in Marburg 1 1 2 2 U. Weber , P. Grübling , K. Zink , R. Engenhart-Cabillic ; 1 2 Rhön-Klinikum AG, Marburg, Germany, Klinik für Strahlentherapie und Radioonkologie, Marburg, Germany. Am Universitätsklinikum Marburg steht das weltweit dritte klinische Zentrum zur Behandlung von Tumoren mit Protonen und Kohlenstoffionen in der finalen Inbetriebnahmephase. Das PartikelTherapie-Zentrum befindet sich in unmittelbarer Nachbarschaft zu den Kliniken des Universitätsklinikums auf den Lahnbergen. Das mit vier Therapieräumen ausgestattete Partikel-Therapie-Zentrum soll eine Kapazität für jährlich mehr als 2.000 Patienten bieten. Die hierfür erforderlichen Investitionsmittel von über 100 Mio. Euro erbringt die RHÖN-KLINIKUM AG ohne Unterstützung durch die öffentliche Hand. Ausstattung: Das Partikel-Therapie-Zentrum Marburg wird mit vier Bestrahlungsräumen für die Bestrahlung mit Protonen und KohlenstoffIonen ausgestattet. Die Bestrahlung erfolgt aus festen Einstrahlrichtungen: 3 mal horizontal und 1 mal unter 45 ° von oben. Es kommt an jedem Bestrahlungsplatz das sogenannte Raster-Scanning-Verfahren zum Einsatz. Es ermöglicht eine exakte Abrasterung des Tumorvolumens. Dies wird erreicht durch die Kombination der präzise gesteuerten Eindringtiefe der Partikel über die Synchrotron-Energie mit der seitlichen magnetischen Ablenkung des Partikelstrahls. Jeder der Behandlungsräume verfügt über einen robotergeführten Patientenlagerungstisch, der mit seinen sechs Bewegungsfreiheitsgraden die für die Partikeltherapie notwendige hohe Positioniergenauigkeit des Patienten ermöglicht. Für die Lagerungskontrolle und Lagerungskorrektur (IGRT) stehen an jedem Bestrahlungsplatz robotergeführte Röntgen-Imager zur Verfügung. Status: Die Bauarbeiten haben im August 2007 begonnen. 2008 wurde das Gebäude mit den ersten Beschleuniger-Komponenten bezogen. Anfang 2010 konnten die ersten Protonen und Kohlenstoffstrahlen in die Bestrahlungsräume geleitet werden. Seit 2011 sind alle Komponenten der Anlage eingebaut und betriebsbereit. Der Beschleuniger kann den kompletten erforderlichen Parameterraum für die RasterscanningBestrahlungen erzeugen. Dies umfasst: • ca. 300 Energieschritte für Reichweiten von 20-300 mm in Wasser in Abstandsschritten von 1mm Eindringtiefe mit Energien von 50 -230 MeV 12 für Protonen bzw. 80-430 MeV/u für C. • zu jeder Energie 15 verschiedene logarithmisch gestaffelte Intensitätsstufen • zu jeder Energie 5 Stufen für die Strahlbreite des Pencilbeams von ca. 12 4-12 mm für C und 8-30 mm für die Protonen. Derzeit (Mai 2011) werden am PTZ noch eine Vielzahl an Tests und Feinjustierungen vorgenommen. Dies beinhaltet z.B. das Feintuning an den Beschleunigereinstellungen für einen optimalen Ablauf beim Rasterscanning. Raster-Scanning-Bestrahlungen werden umfangreich mit klinischen Planstudien auf Basis von realen Patienten-CTs getestet. Für Ende dieses Jahres werden die klinische Betriebgenehmigung (nach StrSchV) und der Abschluss der CE-Zertifizierung für die Anlage erwartet, so dass danach die Übergabe vom Anlagenhersteller (Siemens AG) an die Klinik erfolgt und in 2012 der Patientenbetrieb erfolgen kann. 40 Verifikations- und Qualitätssicherungs-Techniken sowie für die Durchführung strahlenbiologischer Experimente an Laser beschleunigten Protonenstrahlen ein bisher weltweit nicht vorhandenes Umfeld bieten. 11.5 Novel imaging techniques for ion beam therapy: investigations on carbon ion radiography and tomography 1,2 Abb.: Einstellung der Strahlbreiten für verwendeten Energiebereich Carbon-Ionen über den 11.4 Die Technologieplattform für translationale Forschung in der Protonentherapie am OncoRay Dresden 1,2 2 2 1 2 W. Enghardt , M. Bussmann , T. Cowan , U. Dersch , F. Fiedler , J. 1,2 1 1 2 2 Pawelke , R. Perrin , S. Pieck , U. Schramm , R. Sauerbrey , M. 1 Baumann ; 1 2 Technische Universität Dresden, Dresden, Germany, HelmholtzZentrum Dresden-Rossendorf, Dresden, Germany. Gemäß ihrer Wechselwirkung mit (belebter) Materie sollten Protonenund Ionenstrahlen das Potenzial besitzen, den Erfolg der Strahlentherapie deutlich zu erhöhen. Begründet wird dies durch physikalische Vorteile gegenüber konventionellen Strahlenarten (Photonen, Elektronen), welche i. a. zu einer reduzierten Normalgewebsdosis und zur Möglichkeit der Dosiseskalation im Tumor führen. Im Falle der leichten Ionen kommt zu diesen physikalischen Vorteilen eine Erhöhung der relativen biologischen Wirksamkeit, welche bei adäquater technologischer Umsetzung der Strahlführung (Rasteroder Spotscanning) nahezu auf das Tumorvolumen begrenzt werden kann. Bisher konnten diese physikalisch und biologisch offenkundigen Vorteile der Partikelstrahlen für viele Bestrahlungssituationen nicht in verbesserte Tumorheilung umgesetzt werden. Dafür sind drei Gründe anzusprechen: (1) Die in der Partikeltherapie angewendeten Behandlungs- und Qualitätssicherungstechniken wurden zum überwiegenden Teil für die konventionellen Therapie an medizinischen Elektronen-Linearbeschleunigern entwickelt und von dort übernommen. Letzteres erscheint nicht adäquat, weil Dosisverteilungen von Partikelstrahlen, im Gegensatz zu Photonenstrahlen, nicht robust gegen Ungenauigkeiten in der gesamten Kette der Strahlentherapie von der CT-Diagnostik bis zur Dosisapplikation sind. (2) Die Zahl der bisher weltweit an technologisch ausgereiften Protonen- oder IonenTherapieanlagen in qualitativ hochwertigen klinischen Studien behandelten Patienten ist nach wie vor klein, so dass oftmals statistisch gut gesicherte Therapieergebnisse nicht vorliegen. Generelle Anforderungen der heutigen evidenzbasierten Medizin, insbesondere auch randomisierte Studien, finden nur geringe Berücksichtigung. (3) Die unter (1) und (2) genannten Gründe folgen zu einem großen Teil aus den hohen Investitions- und Betriebskosten für Partikeltherapie-Anlagen, welche jene mit konventioneller Bestrahlungstechnologie um ca. eine Größenordnung übersteigen. Diese Analyse definiert die medizinischen, strahlenbiologischen und physikalisch-technischen Arbeitsfelder der im Aufbau befindlichen Hochtechnologieplattform am Nationalen Zentrum für Strahlenforschung in der Onkologie - OncoRay, Dresden: (1) Die Entwicklung von Technologien, welche auf die der Partikeltherapie inhärenten Präzision zugeschnitten sind (Bewegungskompensation, Bildführung, dreidimensionale Dosislokalisation, ortsaufgelöste in-vivo Dosimetrie in Echtzeit). (2) Den Einschluss aller Patienten in klinische Studien. (3) Die Entwicklung neuartiger auf der Laser-Teilchenbeschleunigung beruhender Partikeltherapie-Anlagen, die kompakt und kostengünstig sind. Diese klinischen und wissenschaftlichen Zielstellungen bestimmen die Auslegung der Anlage. Sie wird auf dem Gelände des Universitätsklinikums Carl Gustav Carus Dresden errichtet und in die bestehende Klinik und Poliklinik für Strahlentherapie und Radioonkologie integriert. Sie wird mit einer konventionellen Zyklotron basierten Protonen-Bestrahlungsanlage (Hersteller: Fa. IBA, Louvain-la-Neuve, Belgien) ausgerüstet. Der Protonenstrahl bedient vorerst einen klinischen Bestrahlungsbunker mit isozentrischer Gantry, ausgestattet mit einer universellen Strahlführung für passive und aktive Bestrahlungsfeld-Formierung. Ferner wird für experimentelle Arbeiten der Protonenstrahl in einen Experimentalbunker geführt. Auf dessen Dach wird ein Reinraum für einen Dioden gepumpten HochintensitätsLaser der Petawatt-Klasse errichtet. Das Laserlicht wird in den Experimentalbunker geführt, so dass dort sowohl konventionell als auch Laser beschleunigte Protonenstrahlen zur Verfügung stehen werden. Dies wird für die Entwicklung und Validierung dedizierter Strahlführungssysteme, dosimetrischer Messverfahren, Echtzeit- 2,3 2,3 2,3 4 2,3 I. Rinaldi , S. Brons , O. Jäkel , R. Panse , B. Voss , K. Parodi ; German Cancer Research Center (DKFZ, Dept. of Medical Physics in 2 Radiation Oncology), Heidelberg, Germany, Heidelberg Ion Therapy 3 Center (HIT), Heidelberg, Germany, University Hospital Heidelberg (Dep. Radiation Therapy and Radiation Oncology), Heidelberg, 4 Germany, GSI Biophysics, Darmstadt, Germany. 1 In clinical practice of ion therapy treatment planning, dose calculations and optimization are typically computed on X-ray Computed Tomography (CTX-ray) images of the patient. From CTX-ray data the particle ion in tissue can be calculated only with about 1-3% accuracy, corresponding to few millimeters in some clinical cases. The main limiting factor is the translation of the Hounsfield Units, as measured with a CTX-ray scanner, to water equivalent path length. This translation, presently based on semiempirical calibration curves, can cause differences between treatment planning and treatment delivery. Additionally, other sources of uncertainties may affect the actual range during the fractionated course of ion therapy, thus making techniques of in-vivo range verification highly desirable. Presently, Positron Emission Tomography is the only clinically investigated method for this purpose. Promising results were achieved so far by different groups, but challenges were encountered for millimeter accurate range verification due to limiting factors such as physiological washout, co-registration and motion. At the Heidelberg Ion Beam Therapy Center experimental investigations and Monte Carlo calculations are being carried out to address the feasibility of low dose radiographic or tomographic imaging of transmitted energetic ions. The energy loss of ions in matter is mostly due to ionization and characterized by the stopping power, which is dependent on the properties of the traversed material. Due to the weak energy dependence of the stopping power of the traversed material relative to water, radiographic images obtained at higher beam energies than the therapeutic ones can serve for pre-treatment verification of the planning CTX-ray-range calibration curve. In the extension to tomographic imaging, the distribution of relative ion stopping power in the patient can be reconstructed based on the knowledge of the BetheBloch formula and the measurement of the residual energy or range of an energetic beam traversing the object. This volumetric information can be directly used for treatment planning without relying on the usage of external X-ray radiation and semiempirical calibration curves. Additionally, ion radiographic or tomographic images could be employed for confirmation of the patient positioning at the treatment site, with an increased density resolution and lower dose exposure than with CTXray. Following initial promising investigations, a first prototype of a gaseous dedicated detector system has been assembled. Detector systems using a gaseous active volume help to minimize effects which are strongly linked to the nature and linear energy transfer of the traversing particles. The prototype consists of a stack of 64 parallel-plate ionisation chambers interleaved with absorber material of low nuclear charge in order to minimize the influence on the beam quality. The detector has been equipped with newly acquired electronics for real-time data acquisition during the scanned ion beam delivery. A detailed characterization of this new experimental setup and proof-of-principle measurements in phantoms of different complexity have been performed with carbon ion beams and will be presented. Moreover, an overview will be given of the additional extensive investigations being planned/performed towards first pre-clinical experimental demonstration of the detector feasibility for ion-based imaging in more realistic patientlike situations. 11.6 Simulation prompter Gamma-Emissionen während therapeutischer Protonenbestrahlung 1 2 3 3 1,2 A. Müller , F. Fiedler , D. Georg , J. Hopfgartner , W. Enghardt ; 1 OncoRay – Nationales Zentrum für Strahlenforschung in der Onkologie, 2 Dresden, Germany, Helmholtz-Zentrum Dresden-Rossendorf, Dresden, 3 Germany, Universitätsklinik für Strahlentherapie, Wien, Austria. Um den Erfolg von Strahlentherapie mit Protonen und leichten Ionen zu gewährleisten, ist eine möglichst genaue, zuverlässige und vor allem tumorkonformale Dosisdeposition erforderlich. Positronen-EmissionsTomografie (PET) ist momentan die einzige Methode, welche eine qualitative in vivo Dosisabschätzung und eine quantitative 41 Reichweitenanalyse der Partikel während der Therapie erlaubt. Eine präzise, klinischen Anforderungen genügende Korrelation der gemessenen Aktivitätsdichte bei PET mit der deponierten Dosis ist aufgrund der relativ langen Halbwertszeit der Positronenemitter nicht möglich. Als Alternative zu PET wurde ein bildgebendes Verfahren auf der Basis der infolge von Kernreaktionen zwischen den Ionen des Therapiestrahles und den Atomkernen des bestrahlten Gewebes emittierten γ-Strahlung vorgeschlagen. Es wird erwartet, dass in-beam Einzelphotonen-Emissions-Tomographie (SPECT) mit einer ComptonKamera die emittierte prompte γ-Strahlung während der Therapie über einen weiten Energiebereich detektieren kann. Mit diesem Verfahren erscheint es möglich, die applizierte Dosis quantitativ zu bestimmen. In dieser Arbeit wurden die γ-Emissionen während der Bestrahlung mit Protonen mit Hilfe von Geant4 Monte-Carlo (MC) Simulationen charakterisiert. Mit dem Bestrahlungsplanungsprogramm XiO (Elekta, CMS) wurden mehrere realistische Bestrahlungspläne für verschiedene klinische Indikationen erstellt, u.a. für Gehirn-, Prostata-, Lungen- und Lebertumore. Die Bestrahlungsparameter sowie die geplanten Dosisverteilungen und CT-Daten wurden im DICOM Format aus dem Planungssystem extrahiert und als Eingabeparameter für die MCSimulation verwendet. Die CT-Bilddaten erlaubten die virtuelle Voxel-basierte Nachbildung der Patienten innerhalb von Geant4. Hierbei wurden den HounsfieldEinheiten (HU) mit Hilfe eines Kalibrierverfahrens unterschiedliche Gewebe (also Materialzusammensetzungen) und Dichten zugeordnet. Die Granulariät des Voxelgitters betrug hier ca. 1 mm innerhalb der Schichten, und ca. 4 mm zwischen den Schichten. Die Bestrahlung mit Protonen wurde mittels Spot-Scanning Verfahren simuliert. Für die Korrelation der dimensionslosen Strahlintensitäten mit den Protonenfluenzen wurde ein Softwareverfahren entwickelt. Eine qualitative Überprüfung der Simulationen erfolgte im Vergleich mit den vom Bestrahlungsplanungsprogramm berechneten Dosisverteilungen. Zusätzlich wurde die Richtigkeit der Simulation mittels einfacher Kalibrierungspläne bestätigt. Um die prompte γ-Strahlung aus Kernreaktionen zu analysieren, war es notwendig - neben den elektromagnetischen Wechselwirkungen bei der Dosisdeposition - auch die Kernreaktionen zu simulieren. Hierzu wurden verschiedene Geant4 Physikmodelle, so genannte Physik-Listen, verglichen. Die Simulation ist modular aufgebaut, alle Parameter können leicht angepasst und weiter optimiert werden, zum Beispiel ist die Verkürzung der Rechenzeit ein wichtiges Anliegen. Simuliert wurde mit -4 einem Bruchteil von 10 der realen Teilchenzahl, was für einen 8 typischen Bestrahlungsplan ungefähr 10 Protonen entsprach. Im Energiebereich von ca. 50 - 200 MeV wurden während der Bestrahlung im Mittel 0,24 γ-Emissionen je Proton registriert. Die Photonen wurden hinsichtlich ihrer räumlichen Verteilung und ihrer spektralen Charakteristika im Bereich von 0 - 20 MeV analysiert. Die Winkelverteilung ist weitgehend isotrop. Die simulierten γ-Fluenzen erscheinen ausreichend, um ein Compton basiertes Bildgebungsverfahren zu realisieren. Um quantitative Aussagen zu treffen und die Beziehung zur applizierten Dosis herzustellen, ist es notwendig die Statistik der simulierten Ereignisse um mindestens einen Faktor 10 zu verbessern. Dafür wird der MC-Code gegenwärtig optimiert. 11.7 Ein Strahlapplikationssystem für die Therapie mit laserbeschleunigten Teilchen S. Schell, J. J. Wilkens; Klinikum rechts der Isar der Technischen Universität München, München, Germany. In Zukunft könnte die Laser-Plasma-Beschleunigung von geladenen Teilchen eine kostengünstige Strahlungsquelle für die Strahlentherapie mit Protonen oder Kohlenstoffionen bieten. Diese Technologie ist jedoch noch in ihren Anfängen, und einige Weiterentwicklungen sind nötig, bis klinische Anwendungen möglich werden. Zum Beispiel ist zur Zeit die maximal erreichbare Teilchenenergie noch zu niedrig um Tumore im Menschen zu bestrahlen. Allerdings zeigen laserbeschleunigte Teilchen auch unabhängig von der Lösung dieses Problems einige andere Eigenschaften als konventionell erzeugte Strahlen. Einer dieser Unterschiede liegt im Energiespektrum. Während ein Zyklotron oder Synchrotron monoenergetische Strahlen produziert, ist das Spektrum bei laserbeschleunigten Teilchen breiter. Mit diesem Energiespektrum kann allerdings der für die Therapie vorteilhafte Bragg-Peak, also die relativ genaue Lokalisierung der Dosis in einer Tiefe, nicht beobachtet werden. Da Teilchen mit unterschiedlichen Energien ihre Bragg-Peaks auch in unterschiedlicher Tiefe haben, ist die Dosis über einen weiten axialen Bereich verteilt. Ohne eine Modifikation können diese Strahlen nicht an jeder Stelle des Tumors verwendet werden. In dieser Arbeit wird daher ein mögliches Strahlapplikationssystem für laserbeschleunigte Teilchen (siehe Abbildung 1) untersucht. Dieses soll die produzierten Strahlen vermessen und modifizieren bevor sie auf den Patienten angewendet werden können. Es besteht aus mehreren 42 Teilen: die wichtigsten sind das Energie-Selektions-System, das Partikel-Selektions-System und das Fluenz-Selektions-System. Das Energie-Selektions-System betrifft die erwähnte Energieunschärfe. Mithilfe von Magnetfeldern und Blenden wird das Spektrum flexibel noch oben und unten beschnitten. Da sich im erzeugten Partikelstrahl üblicherweise verschiedene Ionentypen befinden, ermöglicht das Partikel-Selektions-System, das aus zusätzlichen elektrischen Feldern besteht, das Herausfiltern der gewünschten Teilchensorte. Außerdem ist der laserbeschleunigte Teilchenstrahl gepulst und die Anzahl der Teilchen pro Puls könnte höher sein als für die Bestrahlung eines speziellen Punktes im Tumor vonnöten. Daher muss das FluenzSelektions-System die Möglichkeit bieten, eine Überanzahl an Teilchen aus dem Strahl zu entfernen. Dies kann mit einer lateralen Aufstreuung und einer darauffolgenden Kollimation erreicht werden. Weitere Elemente des Strahlapplikationssystems sind verschiedene Detektoren und eine Einrichtung um den Strahl lateral zu formen oder auch gezielt lateral auszulenken. Diese Elemente werden auf ihre Tauglichkeit für breitere Energiespektren untersucht. Außerdem ist die Winkelverteilung eines laserbeschleunigten Strahls weit, sodass zusätzlich mehrere fokussierende Elemente nötig sind. Das Zusammenspiel all dieser und weiterer Komponenten wird untersucht. Desweiteren müssen die Methoden der konventionellen Teilchentherapie wie zum Beispiel die Intensitäts-Modulierte-PartikelTherapie (IMPT) modifiziert werden um den neuen Gegebenheiten der laserbeschleunigten Teilchen gerecht zu werden. Aufgrund von Beschränkungen beim lateralen magnetischen Scannen von Teilchen und auch aufgrund von Grenzen bei der Repetitionsrate des gepulsten Beschleunigungsmechanismus, müssen auch neue Konzepte der Dosisapplikation entwickelt werden. Da laserbeschleunigte Teilchen andere Eigenschaften zeigen als konventionell erzeugte, muss die Therapie an diese neuen Bedingungen angepasst werden. Die hier vorgestellten Überlegungen sollen die noch zu lösenden Probleme der Strahlführung und neue Konzepte für die Dosisapplikation aufzeigen. Gefördert durch das DFG Exzellenzcluster: Munich-Centre for Advanced Photonics. Abb. 1 Session 12: Protonen- und Ionentherapie: Präzisionstherapie und biologische Modellierung 12.1 Colocalization of Physical and Biological Damage in Ion Radiotherapy Using a Fluorescent Nuclear Track Detector 1 1 2 2 3 M. Niklas , S. Greilich , C. Melzig , A. Abdollahi , M. Akselrod , J. 4 1,4 Debus , O. Jäkel ; 1 German Cancer Research Center, Division of Medical Physics in 2 Radiation Oncology, Heidelberg, Germany, German Cancer Research Center, Junior Research Group Molecular Radiooncology, Heidelberg, 3 4 Germany, Landauer Inc., Stillwater, OK, United States, University Hospital, Department of Radiation Oncology and Radiation Therapy, Heidelberg, Germany. Purpose: The first European hospital-based facility for heavy ion radiotherapy started operation in 2009 at the Heidelberg Ion Therapy Center (HIT). With the experience gained during the pilot project at Gesellschaft für Schwerionenforschung mbH (GSI), Darmstadt, Germany, more searching investigations are now being undertaken toward wider clinical application and deeper understanding of proton and ion therapy. So far, knowledge about the mechanisms linking physical energy deposition and biological response caused by high-LET radiation is still limited. Here we present a unique biodetector system for the visualization and correlation of physical and biological processes after irradiation with sub-micrometer resolution. Methods: Al2O3:C,Mg fluorescent nuclear track detectors (FNTDs) contain color centers that undergo radiochromatic transformation depending on local energy deposition by ionizing radiation. Confocal laser microscopy thus enables us to visualize the ion tracks. At the same time, a monolayer of A549 cells cultured on the FNTD is studied by means of immunofluorescence staining for cellular response, such as double-strand breaks, and using precisely the same microscope. Results: We were successful in coating FNTDs with A549 cells that could be kept alive and stationary during ion irradiation, staining, and confocal read-out. Using a Zeiss LSM 710 Confocor 3, it was possible to record image stacks (approx. 100x100 µm² with diffraction-limited resolution of approximately 300 nm) through the cell-layer and the detector. We established a protocol of synchronous read-out for cell membranes, nuclei, double-strand breaks, and ion tracks allowing for exact colocalization. Conclusions: With the successful development of the biodetector system described here, a multitude of studies on the cellular mechanisms of ion radiation therapy will become feasible. This system is a novel tool for radiobiology. Immunofluorescence staining is not limited to the currently used double-strand breaks indicator but can be coupled to a broad variety of molecular markers. Furthermore, live-cell staining could facilitate studies on matters like post-irradiation cell survival and repair processes. Time-lapse confocal microscopy of damaged cells can help gain insights into phenomena such as the bystander effect. For tumor response under ion radiotherapy, these studies will be useful in finding a more appropriate parameter than dose absorption. 12.2 Modellierung des Sauerstoffverstärkungsfaktors in Abhängigkeit von LET und Dosis für Niedrig- und Hoch-LET-Strahlentherapie T. Wenzl, J. J. Wilkens; Klinik für Strahlentherapie, Technische Universität München, Klinikum rechts der Isar, München, Germany. Die schlechte Behandlungsprognose für Patienten mit hypoxischen, d.h. sauerstoffarmen, Tumoren hängt in der Regel mit der verminderten Empfindlichkeit hypoxischer Zellen gegenüber ionisierender Strahlung zusammen. Dieser Sauerstoffeffekt wird quantitativ durch den Sauerstoffverstärkungsfaktor (engl. oxygen enhancement ratio / OER) ausgedrückt, der das Verhältnis der Strahlendosen beschreibt, die benötigt werden, um das gleiche Maß an Zellüberleben unter hypoxischen und aeroben Bedingungen zu erreichen. Der Sauerstoffverstärkungsfaktor ist abhängig von der Art der ionisierenden Strahlung und nimmt mit zunehmendem linearen Energietransfer (LET) ab, was einen klinischen Vorteil von Hoch-LET-Strahlentherapie mit Ionenstrahlen darstellen könnte. In dieser Arbeit stellen wir ein einfaches phänomenologisches Modell für den Sauerstoffverstärkungsfaktor vor, das die Beschreibung der klinischen Auswirkungen von OERVariationen in Abhängigkeit vom linearen Energietransfer, von der lokalen Dosis, dem Sauerstoffpartialdruck in der Umgebung der Zelle und dem Gewebetyp erlaubt. Dies ermöglicht auch eine Diskussion der klinischen Konsequenzen der Dosisabhängigkeit des OER für verschiedene Fraktionierungsschemata. Das OER-Modell ist ein einfaches Werkzeug, um den Sauerstoffeffekt auf praktische Weise zu quantifizieren und bietet die Möglichkeit zur Hypoxie-basierten biologischen Optimierung in der Bestrahlungsplanung sowohl für Niedrig-LET-Therapie mit Photonen und Protonen als auch für HochLET-Therapie mit schwereren Ionen. Unsere Rechnungen basieren auf einer ausführlichen Analyse der in der Literatur vorhandenen experimentellen Studien, die den Sauerstoffverstärkungsfaktor für unterschiedliche Zelltypen und Strahlenarten sowie für unterschiedlichen Sauerstoffgehalt in der Zellumgebung bestimmt haben. Wir verwenden das linear-quadratische (LQ) Modell mit seinen zwei gewebespezifischen Strahlenempfindlichkeitsparametern Alpha und Beta. Um den Zusammenhang dieser LQ-Parameter mit der Sauerstoffversorgung des Gewebes zu beschreiben, benutzen wir Alper-Howard-FlandersAbhängigkeiten für Alpha und für die Quadratwurzel aus Beta vom Sauerstoffpartialdruck (pO2). Außerdem wird (im klinisch relevanten LET-Bereich) eine lineare Abhängigkeit des Parameters Alpha vom LET und ein LET-unabhängiges Beta angenommen. Für eine typische klinische Situation in der Ionentherapie mit einem Kohlenstoffionen-Spread-Out-Bragg-Peak (SOBP) und einem ProtonenSOBP beträgt der Vorteil von einer Strahlentherapie mit Kohlenstoffionen im Bezug auf den Sauerstoffeffekt nur etwa 1-15% im Vergleich zur Niedrig-LET-Bestrahlung mit Photonen oder Protonen. Dies liegt vor allem an dem großen Sauerstoffpartialdruckunterschied zwischen Zellexperimenten in vitro und klinischen Werten in vivo. Weiterhin folgt aus unserer Analyse, dass der Sauerstoffeffekt in der klinischen Praxis nicht besonders empfindlich auf die Wahl der Dosis pro Fraktion im therapeutisch relevanten Dosisbereich ist (dies gilt sowohl im Niedrig- als auch in Hoch-LET-Bereich). Allerdings hängt das OERVerhalten (abnehmend, zunehmend oder konstant bleibend mit steigender Dosis pro Fraktion) vom Gewebetyp bzw. von den entsprechenden Alpha-Beta-Verhältnissen unter hypoxischen und aeroben Bedingungen ab. Gefördert durch das DFG Exzellenzcluster: Munich-Centre for Advanced Photonics. 12.3 Radiobiologische Modelle der Schwerionentherapie im Planungsvergleich 1,2 3 2 2 4 C. Gillmann , M. Scholz , C. P. Karger , S. Greilich , M. Ellerbrock , J. 1 4 Debus , O. Jäkel ; 1 Klinik für Radioonkologie und Strahlentherapie der Universität 2 Heidelberg, Heidelberg, Germany, Deutsches Krebsforschungszentrum 3 (DKFZ), Heidelberg, Germany, Gesellschaft für Schwerionenforschung 4 (GSI), Darmstadt, Germany, Heidelberger Ionenstrahl-Therapiezentrum (HIT), Heidelberg, Germany. Einleitung: In der Strahlentherapie mit Kohlenstoffionen ist die Berechnung der biologisch effektiven Dosis während der Therapieplanung entscheidend für die adäquate Behandlung von Tumorpatienten. Für die Modellierung des komplexen Zusammenhangs zwischen physikalischer Dosis und relativer biologischer Wirksamkeit (RBW) wurde das “Local Effect Model“ (LEM) bereits für mehr als 500 Patienten eingesetzt - mit exzellenten klinischen Resultaten. Gleichzeitig jedoch ist bekannt, dass für die aktuelle Version des “Local Effect Models“ (LEM I) einige Diskrepanzen zwischen den Modellvorhersagen und den experimentellen Daten bestehen. Dazu zählt insbesondere die Überschätzung der relativen biologischen Wirksamkeit im Eingangsbereich (Karger 2007, Elsässer 2008). Aus diesem Grund wurde das Modell ständig weiterentwickelt, sodass heute eine generalisierte Version (LEM IV) zur Verfügung steht. Aufbauend auf vorangegangenen Untersuchungen an idealisierten Geometrien führen eine Therapieplanungsstudie durch, in der wir die von LEM I und LEM IV berechneten RBW-gewichteten Dosisverteilungen qualitativ und quantitativ miteinander vergleichen. Diese Planungsstudie erlaubt uns, resultierende Dosisparameter mit publizierten Daten aus Patientenstudien zu korrelieren und damit die Auswirkungen eines klinischen Einsatzes des LEM IV abzuschätzen. Material und Methoden: Für einen realistischen Vergleich zwischen LEM I und LEM IV führen wir eine Vorwärtsberechnung der Dosisverteilungen LEM I-basierter Patientenpläne mit dem generalisierten Modell (LEM IV) durch. Unser Kollektiv beinhaltet 30 Patienten mit Schädelbasischordomen und -chondrosarkomen, die zwischen 2002 und 2003 an der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt mit Kohlenstoffionen bestrahlt wurden. Für die quantitative Auswertung der Therapiepläne evaluieren wir typische klinisch relevante Parameter wie Dosiskonformität und Homogenität. Ergebnisse: In unserer Analyse identifizieren wir quantitative Abweichungen klinisch relevanter Dosisparameter zwischen LEM I und LEM IV, die typischerweise in der Größenordnung von wenigen Prozent liegen. Die mediane Dosis im Target bleibt dabei annähernd unverändert. Im Detail jedoch beobachten wir, dass die mit LEM I 43 berechnete, konstant homogene Dosisverteilung im Tumor, für LEM IV mit steigendem Tumordurchmesser in Einstrahlrichtung deutlich inhomogener wird. Zudem finden wir eine Verschiebung der Isodosislinien: Diese liegen für LEM IV deutlich enger konzentriert um den Targetbereich als für LEM I. Für das umgebende Temporallappengewebe hat dies zur Konsequenz, dass die Dosis in Regionen, die sich sehr nah am Tumor befinden, im Vergleich zu LEM I um einige Prozent erhöht ist, während wir in Regionen mehrere Millimeter vom Target entfernt eine erniedrigte Dosis sehen. Quantitativ bedeutet dies, dass die mediane Dosis im Temporallappen bei LEM IV um etwa zehn Prozent reduziert ist, während die maximale Dosis, die in mindestens einem Quadratzentimeter des Temporallappens appliziert wurde, im Median ungefähr gleich bleibt. Fazit: Unsere vergleichende Therapieplanungsstudie erlaubt eine qualitative Visualisierung und eine statistische Analyse der RBWgewichteten isoeffektiven Dosisverteilungen für LEM I und LEM IV. Eine quantitative Auswertung zeigt ähnliche Ergebnisse für klinisch relevante Dosisparameter. Diese Therapieplanungsstudie liefert einen essentiellen Beitrag zur aktuellen Diskussion über die zukünftige Verwendung radiobiologischer Modelle in der Schwerionentherapie. 12.4 First clinical experience of PET-based in-vivo treatment verification at HIT 1,2 1,2 1,2 1,2 1,2 J. Bauer , D. Unholtz , F. Sommerer , S. Combs , J. Debus , T. 1,2 1,2 2 1,2 Haberer , K. Herfarth , T. Welzel , K. Parodi ; 1 2 Heidelberg Ion-Beam Therapy Center, Heidelberg, Germany, Radiation Oncology, Department of Radiology, Heidelberg University Hospital, Heidelberg, Germany. At the Heidelberg Ion-Beam Therapy Center (HIT) about 400 patients have been treated with scanned proton and carbon ion beams since the start of clinical operation in November 2009. In order to enable monitoring of the highly conformal dose delivery, a commercial PositronEmission/Computed Tomography (PET/CT) scanner has been installed “offline” next to the treatment room for post-radiation imaging. In vivo, non-invasive confirmation of the applied treatment can be deduced from the pattern of β+-activity produced in nuclear interactions between the ions and the irradiated tissue. Since the correlation between the deposited dose and the produced activity is not straightforward, the activity distribution measured by PET has to be compared to an expectation based on the prescribed treatment plan and the time course of irradiation and imaging. This is accomplished by Monte-Carlo (MC) simulations based on the FLUKA code [1, 2]. The MC modelling of the different contributing β+-emitter production channels has been validated pre-clinically by an extensive series of phantom experiments. In addition, a dedicated research platform has been developed for an easy integration of PET/CT-based monitoring in the clinical workflow. The software comprises an interface to the MC simulation code for the automated processing of the MC calculation and the post-processing and handles the complex data management as well as the visualization of the results. Providing powerful exploration and analysis tools at the same time the platform allows for an integrated patient workflow. First clinical cases are analyzed in the framework of a reviewed trial designed for 240 patients treated with proton or carbon ions at different tumour sites. One of the main challenges regarding the offline PETbased treatment verification is the time delay between the irradiation and the PET acquisition due to the patient transport from the treatment place to the PET/CT scanner. During this pause the irradiation induced β+activity is transported away from the point of origin by perfusion of the irradiated tissue. The resulting distortion of the originally induced activity distribution has to be considered for the MC simulation in order to be able to compare the prediction to the PET measurement. Starting from the approach developed by Parodi et al. [3] for the offline PET-based monitoring of proton treatment, we are investigating the improvement of this modelling by exploiting magnetic resonance perfusion data providing better resolved information about the local washout. In this contribution we present an overview of the first clinical cases for both proton and carbon ion treatment where the irradiation-induced activity distribution is evaluated in view of treatment verification taking into account the modelling of biological washout effects. This work is supported by BMBF grant 01IB08002A “DOT-MOBI”. [1] Battistoni et al., AIP CP 896, 2007 [2] Fasso` et al., CERN-2005-10, 2005 [3] Parodi et al., IJROBP 68 (2007) 44 12.5 Automatische Reichweitenanalyse für die Ionenstrahltherapie mittels PET 1 2 3 3 1,2 S. Helmbrecht , F. Fiedler , D. Georg , P. Kuess , W. Enghardt ; 1 OncoRay – National Center for Radiation Research in Oncology, 2 Dresden, Germany, Helmholtz-Zentrum Dresden-Rossendorf, Dresden, 3 Germany, Department of Biomedical Engineering and Physics, MUW, Wien, Austria. Einleitung: Die Positronen-Emissions-Tomografie findet neben ihrem klassischen Einsatz Anwendung bei der Verifikation der Dosisapplikation bei der Ionentherapie. Grundprinzip ist die Detektion der Verteilung positronenemittierender Nuklide, welche durch Kernreaktionen während der Bestrahlung entstehen. Aufgrund der physikalisch fundamental unterschiedlichen Prozesse, die zu Aktivität und Dosis führen, ist eine direkte Berechnung der Dosis aus den PET-Daten nicht möglich. Die Interpretation der gemessenen Bilddaten erfolgt daher durch Vergleich mit einer Monte-CarloSimulation. Der Vergleich muss in drei Dimensionen erfolgen und ist dementsprechend zeitaufwändig. Zudem ist gut geschultes und geübtes Personal erforderlich. Ein Einsatz der visuellen Auswertung ist daher sowohl in der klinischen Routine als auch zur Durchführung von Studien wenig geeignet und eine (teil)automatisierte Prozedur erscheint sinnvoll und wünschenswert. Material und Methoden: Die entwickelte Methode ist physikalisch motiviert, sie vergleicht Ionenreichweiten im Beam's-Eye-View. Hierzu wurde ein eindimensionaler Algorithmus adaptiert, getestet, verbessert und auf drei Dimensionen erweitert. Ergebnis ist eine Matrix deren Elemente Reichweitendifferenzen zwischen Messung und Simulation repräsentieren. Systeminhärente Schwankungen durch die stochastische Natur der Wechselwirkungsprozesse, niedrige Zählraten und biologische Effekte schränken die Bildqualität ein. Dieses wird durch eine nachfolgende statistische Auswertung der Reichweitendifferenzenmatrix teilweise kompensiert. Für die Entwicklung des Algorithmus kommen Patientendaten zum 12 Einsatz, die in den Jahren 1997-2008 während der Therapie mit CIonen an der GSI in Darmstadt gemessen wurden. Zunächst dienen künstliche Reichweitenmanipulationen in den simulierten Daten als Testobjekte für den Algorithmus. Von 8 Patienten wurden für je eine Fraktion jeweils 10 Simulationen ohne und mit Modifikation um maximal +10 ES, +6 ES, +4 ES, -4 ES, -6 ES und -10 ES verwendet. ES kennzeichnet energy step und entspricht einer Eindringtiefe von 1 mm in Wasser, 0,85 mm in Weichgewebe und 0,53 mm in Knochen. Ergebnisse: Das Erkennen künstlicher Reichweitenveränderungen ist ein Klassifizierungsproblem. Die Leistungsfähigkeit des Algorithmus wird mittels Receiver Operating Characteristics (ROC) visualisiert: In Abhängigkeit des Grenzwertes, welcher die bewerteten Objekte in modifiziert (positiv) und unmodifiziert (negativ) klassifiziert, wird der Anteil der korrekt positiven (true positive rate, TPR) gegen den Anteil der falsch positiven (false positive rate, FPR) aufgetragen. Eine Zufallsentscheidung würde eine Gerade mit TPR=FPR produzieren. Ein Punkt im ROC-Raum ist umso besser je „nordwestlicher“ er liegt. Abbildung 1 zeigt die Leistungsfähigkeit der Methode für Reichweitenmanipulationen von ±4 ES, ±6 ES und ±10 ES. Diskussion Die Erweiterung des eindimensionalen Algorithmus auf drei Dimensionen und die anschließende statistische Auswertung liefern sinnvolle Ergebnisse. Die Methode analysiert Aktivitätsverteilungen, die durch Ionenbestrahlungen von Geweben entstehen, ist dabei jedoch nicht auf die Messung in-beam angewiesen sondern kann prinzipiell auch in-room aufgenommene PET Daten verarbeiten. Das visuelle Erkennen von Reichweitenmanipulationen durch geschulte Personen liefert eine höhere Treffsicherheit, (92±3)% true positive rate bei (4±2)% false positive rate für ±6 ES. Die automatisierte Methode eignet sich dennoch für Studien mit einer hohen Zahl an Datensätzen, deren visuelle Auswertung mit hohem Zeitaufwand verbunden wäre. Desweiteren kann eine Integration in ein Softwarepaket künftig die visuelle Evaluation der gewonnenen PET-Daten erleichtern und beschleunigen. 12.6 Robustheit von Protonenbestrahlungsplänen im Kopfbereich: Einfluss von interfraktionären Positionierungsunsicherheiten als Funktion der Strahlkonfiguration J. Hopfgartner, M. Stock, D. Georg; MedUniWien, Wien, Austria. Hintergrund: Interfraktionäre Positionierungsunsicherheiten des Patienten stellen eine nicht zu vernachlässigende Fehlerquelle in der Dosisapplikation der Protonentherapie dar. Dies ist dadurch begründet, dass Protonen einen steilen Dosisgradienten (Bragg-Peak) am distalen Teil der Dosisverteilung aufweisen. Fehlpositionierung und damit verbundene Verschiebungen von Dichteheterogenitäten haben lokale Über- und Unterdosierungen zur Folge. In der vorliegenden Studie wurde evaluiert, inwieweit die Robustheit von Protonenbestrahlungsplänen gegenüber translatorischen und rotatorischen Verschiebungen des Patienten von der Strahlkonfiguration abhängt. Material und Methoden: In 14 Patienten mit Tumoren im Kopfbereich (Schädelbasis (SB; n=7) und Nasennebenhöhlen (NNH; n=7)) wurden repräsentative Risikostrukturen (OAR; Hirnstamm, Sehnerven und Augen) und klinisches Zielvolumen (CTV) konturiert. Zwei Planungszielvolumen-(PTV) Konzepte wurden angewandt (PTV1=CTV+5 mm, PTV2=CTV+3 mm). Zur Erstellung der Bestrahlungspläne wurde das Protonenplanungssystem XiO(CMS/Elekta) verwendet. Eine Dosis von 2 CGE sollte jeweils anhand zweier Strahlkonfigurationen (lateral/individuell) im jeweiligen PTV unter bestmöglicher Schonung der OARs appliziert werden (P0). Die erste Konfiguration bestand für beide Indikationen aus lateral opponierende Felder, währenddessen die zweite Strahlanordnung für SB Tumoren aus beidseitig schrägen (±55) bzw. aus frontalen und schrägen Feldern (0°und ±60) bei NNH Tumoren geplant wurde. Im Folgenden wurden P0 unter gleichzeitiger Simulation translatorischer (lateral=±3mm, kraniokaudal=±3mm, anterior-posterior=±2 mm) und rotatorischer (Roll=±2°, Gier=±2) Fehlpositionierungen der Patienten nachgerechnet (P±). Zur Quantifizierung der Planrobustheit innerhalb der Strahlkonfigurationen sowie im Vergleich untereinander wurden Indizes bezüglich Dosisabdeckung (CI), Dosiskonformität (CN) und Dosishomogenität (HI) im Zielvolumen bzw. Dosis-Volumen-Histogramm-(DVH) Parameter (Dmean, Dmax, D10%, D50%) in den OARs ermittelt. Die jeweiligen Indizes der P0 wurden hierfür als Referenz herangezogen. Der gepaarte Wilcoxon-Rangsummen-Test wurde zur statistischen Analyse verwendet (Signifikanzniveau p≤0.05). Ergebnisse: Wie erwartet zeigten die nachgerechneten Bestrahlungspläne der individuellen Strahlkonfigurationen nach translatorischen und rotatorischen Verschiebungen deutliche dosimetrische Abweichungen von den Originalplänen. Statistisch signifikante Unterschiede betreffend CI [0.69-0.99], HI [1.1-26.2] und Dmax [1-1.15] im Zielvolumen konnten in beiden Tumorindikationen für beide PTV Konzepte festgestellt werden. Gleiches gilt für Hirnstamm und Augen im Gegensatz zu den Sehnerven, wobei hierbei keine Systematik betreffend PTV Konzepte oder Indikationen zu erkennen war. Im direkten Vergleich der Planrobustheit als Funktion der Einstrahlrichtung wurden keine systematisch signifikanten Unterschiede festgestellt. Leichte Vorteile zeigte die schräge bzw. individuelle Strahlkonfiguration unter Anderem bei der Dosishomogenität im Zielvolumen. Während die schräge Strahlanordnung bezüglich CI und Dmax im Fall der Schädelbasistumoren als robuster angesehen werden konnten, waren für die laterale Strahlkonfiguration leichte Vorteile in Nasennebenhöhlenindikationen ersichtlich. Im Allgemeinen waren Vorteile der jeweiligen Strahlanordnungen nicht isotrop und variierten bedingt durch die Richtung der Translationen und Rotationen (positiv oder negativ). Diskussion: Wider Erwarten konnte keine systematische Begünstigung der Bestrahlungsplanrobustheit im Vergleich der beiden Strahlkonfigurationen (lateral vs. Individuell) festgestellt werden. Unterschiede in der Robustheit zwischen den Strahlanordnungen wurden gehäuft beim größeren PTV Konzept gefunden. Den durchgeführten Untersuchungen liegen „worst case“ Verschiebungsszenarien zugrunde, welche durch eine tägliche Bildführung minimiert werden können. 12.7 Long-term stability of a scanned proton pencil beam - a roadmap to Intensity Modulated Proton Therapy T. Domke, C. Skalsky, G. Datzmann, B. Müller, M. Hillbrand, J. Hauffe; Rinecker Proton Therapy Center, München, Germany. Background: For Intensity Modulated Proton Therapy (IMPT), the superposition of 3-dimensional inhomogeneous dose patterns prompt the demand for an accurate delivery of the scanned proton pencil beam. The aim of this study was to evaluate the geometric precision of proton beam delivery, it’s stability over time and hence the applicability of an IMPT treatment plan. Material and methods: A multi-stripe ionization chamber in the nozzle was used to determine the position of the central beam axis and off-axis spots on a daily basis. At the isocenter, the position of the central spot and eight off-axis spots were measured using a 2-dimensional beam imaging device based on a scintillation detector and a charged-coupled device camera. To demonstrate the applicability of an IMPT plan, a treatment plan was calculated for a horseshoe-shaped target structure in a PMMA-phantom. Verification of the dose distribution was using radiochromic film dosimetry. Results: At the chamber stack in the nozzle, measured deviations of the central axis were between -0.8 to 1.0 mm in longitudinal and between 0.4 to 1.0 mm in transversal direction for all gantry angles, all energies and right after calibration of the beam line. For gantry angle 0° and for three representative energies, i.e. 230, 160 and 90 MeV, maximum deviations from their position right after calibration ranged between +/0.4 mm in both directions over a period of three months. Results for other gantry angles and for measurements at the isocenter showed similar results. Off-Axis spots showed a stability of better than -0.6 to 0.5 mm at the chamber stack over a period of 2 months. The same holds for off-axis spot positions measured at the isocenter.The analysis of the film-measurement for an IMPT plan showed that it is possible to achieve a good homogeneity of the dose-distribution. Conclusion: The delivery of proton spots appears to be very accurate. Daily variations and long-term shifts are small for the central axis position as well as for off-axis spots. Regardless of other patient related uncertainties the geometric accuracy of proton beam scanning enables for accurate and stable application of IMPT dose patterns. 45 Session 13: Nuklearmedizin Quantitative Bildgebung 13.3 Development and usage of biokinetic models for radiopharmaceuticals to optimise applications in nuclear medical diagnostics and therapy U. Oeh, W. Li, T. Janzen, C. Hoeschen; Helmholtz Zentrum München, Neuherberg, Germany. The topic of this talk will be a proposal to make use of biokinetic investigations and modelling in the field of nuclear medical imaging and therapy in order to optimise these techniques. In nuclear medicine, radiopharmaceuticals are administered to patients for diagnostic or therapeutic purposes. We study and model the biokinetics of these radiopharmaceuticals in cooperation with nuclear medicine departments. Assessing the biokinetic behaviour of the radiopharmaceuticals used in nuclear medical applications, regarding the organs of interest as well as in the surrounding tissues enables us to develop biokinetic models for the radiopharmaceuticals and thus to optimise the time scheme for diagnostic or therapy applications. The first example is related to nuclear imaging. We studied the biokinetic 18 behaviour of F-choline which is used in PET imaging of patients with 18 prostate tumours. Biokinetic data for F-choline were collected at Malmö University Hospital for 10 patients by measuring the activity concentrations in liver, kidneys, spleen, and (if present) tumour with PET for different time points after injection (see figure, left side). In addition, 18 the activities of F-choline in blood and urine samples were determined at different times post-administration. Based on this data and with the help of the forcing function method and the population kinetic approach with the pharmacokinetic modelling software ADAPT 5, a compartmental 18 model was developed describing the biokinetic behaviour of F-choline in the human body (see figure, right side). The advanced knowledge about the biokinetics of this radiopharmaceutical allowed to calculate relevant dose distributions in the body and to optimise the diagnostic time schedule for better signal-to-noise ratios in the PET images. The second example is related to nuclear therapy. In this work we developed a biokinetic model for radioiodine used for therapy of autonomous functioning thyroid nodules (AFTN). The model parameters were estimated using measured biokinetic data from 43 AFTN patients using a gamma camera to analyse the activities of radioiodine in the thyroid during the clinical diagnostic and therapeutic routine procedures for different time points. In this way a biokinetic model for radioiodine was established which could for example be used to determine the optimal time schedule for the whole investigation. Applying this schedule can help to increase the efficiency of the clinical procedures by reducing the work load of the staff and the usage of the machines. More importantly, the patients can profit from the optimization because the treatment can be adapted individually to the personal iodine biokinetics. 13.4 Radioimmuntherapie mit Anti-CD45 Antikörper: Pharmakokinetische Modellierung erlaubt optimale Vorabsättigung P. Kletting, M. Luster, S. N. Reske, G. Glatting; Universität Ulm, Ulm, Germany. Bei der Radioimmuntherapie mit anti-CD45 Antikörper ist die Vorabsättigung mit unmarkiertem Antikörper eine Methode, um die erzielte Dosis im Knochenmark zu erhöhen. In einer vorausgehenden Studie wurde die optimale Vorabsättigung für die Radioimmuntherapie mit anti-CD45 Antikörper mit Hilfe physiologisch basierter pharmakokinetischer Modellierung bestimmt (1). In der vorliegenden Untersuchung wird diese Methode validiert und weiter verbessert. Zur Ermittlung der Bioverteilung wurden zwei Messreihen pro Patient durchgeführt. Bei der ersten Messreihe (Gammakamera und Serumproben 0-144 h p.i.) wurde vor der Applikation des 111Inmarkierten Antikörpers unmarkierter Antikörper verabreicht, bei der zweiten Messreihe (Gammakamera und Serumproben 0-24 h p.i.) wurde 46 nur radioaktiv markierter Antikörper injiziert. Die zweite Messreihe wurde 7 Tage nach dem Beginn der ersten gestartet. Insgesamt wurden die entsprechenden Daten von 5 Patienten untersucht. Zwei Modelle wurden an die Datenreihen angepasst und mittels des korrigierten Akaike Informations- Kriteriums (2,3) das am besten zu den Daten passende Modell ausgewählt. Die ermittelten Parameter wurden mit den aus der Literatur bekannten Werten verglichen. Um die optimale Menge zur Vorabsättigung mit unmarkiertem Antikörper zu bestimmen, wurden Simulationen von 0-60 mg durchgeführt. Die Vorhersagekraft des Modells wurde anhand von Serumaktivitätswerten während der Therapie geprüft. Die gefitteten Parameter waren alle in einem physiologisch plausiblen Bereich. Die Abweichung der Flächen unter der vorhergesagten versus der gemessenen Kurve lag im Bereich 15-33%. Die optimale Vorabsättigung erhöht die Selektivität (Verhältnis der Verweildauern in Knochenmark und Leber) um das bis zu 3.9 fache verglichen mit einer therapeutischen Menge von unmarkiertem Antikörper (0.5 mg/kg Körpergewicht). Die hier vorgestellt Methode kann dazu verwendet werden die optimale Menge von unmarkiertem Antikörper im Rahmen der Radioimmuntherapie zu ermitteln. Außerdem können dosimetrische Vorhersagen für die Therapie durchgeführt werden. 1. Kletting P, Bunjes D, Reske SN, Glatting G. Improving anti-CD45 antibody radioimmunotherapy using a physiologically based pharmacokinetic model. J Nucl Med. 2009;50:296-302. 2. Kletting P, Kull T, Reske SN, Glatting G. Comparing time activity curves using the Akaike information criterion. Phys Med Biol. 2009;54:N501-N507. 3. Glatting G, Kletting P, Reske SN, Hohl K, Ring C. Choosing the optimal fit function: Comparison of the Akaike information criterion and the F-test. Med Phys. 2007;34:4285-4292. 13.5 Erste Erfahrungen mit der Durchführung der Linearitätskontrolle am Aktivimeter gemäß der neuen DIN 6855 Teil 11 W. Münzing; Medizinische Physik Nuklearmedizin Klinikum der Universität München, München, Germany. Einleitung: Die Linearitätskontrolle am Aktivimeter ist ein fundamentaler Bestandteil der Qualitätskontrolle in der Nuklearmedizin. Sie ist halbjährlich durchzuführen, üblicherweise durch eine Messreihe mit einem Tc-99m Eluat. Eine besondere Anforderung ist dabei die große Meßbereichsdynamik über mehr als vier Größenordnungen. Als Toleranzgrenze gilt laut Empfehlung der Strahlenschutzkommission vom 16./17. September 2010 5% Linearitätsabweichung, wenn höhere Abweichungen vorliegen, sollte das Aktivimeter nicht mehr für Patientenbetrieb verwendet werden. Eine auf den ersten Blick eher unscheinbare Änderung in der neuen DIN 6855-11 vom Mai 2009 betrifft das Auswerteverfahren. Während in der früheren DIN eine Regression anzuwenden war, ist nach der aktuellen DIN ein anderes Verfahren vorgegeben: der 1. Messpunkt ist als Referenz zu verwenden, weitere Messpunkte sind mit diesem Referenzwert nach Zerfallskorrektur zu vergleichen. Ziel der vorliegenden Studie war, Linearitätskontrollen nach der neuen Auswertemethode mit Auswertungen nach dem Regressionverfahren zu vergleichen und die Anwendbarkeit des neuen Verfahrens zu überprüfen. In der DIN ist keine Halbwertszeit ( Thalb) für die Zerfallskorrektur angegeben, Thalb ist jedoch Aufgrund des Mo-99 Anteils im Eluat a priori unbekannt. Wegen der großen Messbereichsdynamik ist dabei zu erwarten, dass sich bereits kleine Abweichungen zum tabellierten Wert für Thalb =6,006 h (laut PTB oder NIST) signifikant auswirken. Ein weiteres Ziel der Studie war daher die Bestimmung einer effektiven Thalb für die Anwendung bei der Linearitätskontrolle. Methodik: An fünf Aktivimetern ( 4 Geräte Veenstra IBC, 1 Gerät Isomed 2000) wurden vier Messreihen zur Linearitätskontrolle mit Startwerten der Aktivität zwischen 10 und 35 GBq durchgeführt . Die Auswertung erfolgte nach der neuen DIN Norm und mit Regressionsverfahren. Bei letzterem erfolgte die Anpassung einmal für Steigung und Achsenabschnitt und einmal nur für den Achsenabschnitt bei vorgegebener fester Steigung. Aus dem Fit-Wert der Steigung wurde eine effektive Thalb bestimmt. Ergebnisse: Bei hohen Startaktivitäten (> 25 GBq) ergab die Methode nach neuer DIN bei 3 von 5 Aktivimetern für die Mehrzahl der Messpunkte Linearitätsabweichungen größer 5%, demnach hätten diese Geräte nicht mehr für Patientenbetrieb eingesetzt werden können. Die Auswertung mit Regression dagegen lieferte durchgehend Abweichungen unter 3 %. Bei Startaktivitäten unter 10 GBq ergaben sich keine relevanten Unterschiede zwischen den Auswerteverfahren, das Regressionsverfahren lieferte jedoch systematisch kleinere Linearitätsabweichungen. Als Thalb wurden 6,013 h bestimmt. Dieser -6 Wert entspricht einem Mo-99 Anteil im Generator-Eluat von 5 x 10 und ist innerhalb der Fehlerbreiten konsistent mit dem durch HPGe-6 Spektroskopie gemessenen Mo-99 Anteil von 2 x 10 . Diskussion und Schlussfolgerung: Bei dem Verfahren nach neuer DIN pflanzt sich ein Fehler des 1. Messwertes durch alle folgenden Werte additiv fort. Es genügen dann bereits kleine Linearitätsabweichungen der weiteren Messwerte von 1- 2 %, damit die Toleranzgrenze überschritten wird, obwohl am Aktivimeter keine eigentliche Fehlfunktion vorliegt. Aufgrund von Rekombinationseffekten in der Messkammer eines Aktivimeters ist die Wahrscheinlichkeit für Nichtlinearitäten bei hohen Aktivitäten am größten. Das Verfahren nach der neuen DIN 6855-11 ist nur eingeschränkt anwendbar, bei den in der vorliegenden Studie angewandten Aktivimetern sollte es nur für Startaktivitäten < 15 GBq eingesetzt werden. 13.6 Der aktuelle Vorschlag zur ÖNORM S 5271 - ein Ausweg aus der Vielfalt von Vorschriften zur Konstanzprüfung von Gammakameras? 1 2 3 4 5 F. König , R. Brettner-Messler , G. Buchhalt , M. Ditto , L. Fridrich , G. 6 7 8 9 10 Goldschmied , R. Göschl , G. Greifeneder , B. Gruy , E. Havlik , M. 11 12 13 14 Hinterreiter , J. Holzmannhofer , R. Nicoletti , B. Warwitz ; 1 2 Donauspital, Wien, Austria, Bundesamt für Eich- und 3 Vermessungswesen, Wien, Austria, Siemens AG, Wien, Austria, 4 5 Bundesministerium für Gesundheit, Wien, Austria, Landeskrankenhaus 6 Steyr, Steyr, Austria, MA 39 - PTPA - Labor für Strahlenschutz, Wien, 7 8 Austria, GE Medical Systems, Wien, Austria, Amt der NÖ 9 Landesregierung, St. Pölten, Austria, Krankenhaus der Barmherzigen 10 Schwestern, Linz, Austria, Sachverständiger, Rekawinkel, Austria, 11 12 Krankenhaus der Elisabethinen, Linz, Austria, LKH Salzburg, 13 14 Salzburg, Austria, Medizinphysiker, Graz, Austria, LKH Universitätskliniken Innsbruck, Innsbruck, Austria. Nationale und internationale Gremien befassen sich mit der Frage des Umfangs und der zeitlichen Frequenz der Konstanzprüfung apparativer Qualitätsmerkmale von planarer Szintigraphie und EinzelphotonenEmissions-Computertomographie. Während sich in einigen Bereichen die Vorstellungen der Gremien decken oder eng überlappen, zeigen sich in manchen Gebieten deutliche Unterschiede, insbesondere hinsichtlich der geforderten Frequenzen. Der (in Österreich) für die Organisation der Konstanzprüfung verantwortliche Medizinphysiker läuft in Gefahr die jeweils engmaschigsten Kontrollen all dieser Vorschriften umsetzen zu müssen. Während es für die Konstanzprüfung des „nuklearmedizinischen Teiles“ eine Vielzahl von Empfehlungen gibt, wurden für kombinierte Geräte (SPECT/CT) noch keine konkreten Normen veröffentlicht. Auch die Konstanzprüfung von „ausschließlich zur Schwächungskorrektur geeigneten CT-Systemen“ ist in diesem Zusammenhang nicht normiert. In Österreich normiert das Strahlenschutzgesetz bzw. die darauf beruhende medizinische Strahlenschutzverordnung die Konstanzprüfung. Die zuständige Behörde kann die Beachtung einschlägiger Normen vorschreiben. Daneben gibt das Medizinproduktegesetz einer (in vielen Fällen vorliegenden) Empfehlung des Geräteherstellers normativen Charakter und erfordert damit zusätzlich durchzuführende Überprüfungen. Überlagert werden diese Empfehlungen durch Veröffentlichungen der EANM zum Thema „Routine quality control recommendations for nuclear medicine instrumentation“ welche ihrerseits deutlich gestiegene Anforderungen verglichen mit den bisherigen stellen. Die Arbeitsgruppe MG4 – „Geräte und Qualitätssicherung in der Nuklearmedizin“ des Komitees 088 – „Strahlenschutz“ hat versucht, bei der Überarbeitung der ÖNORM S 5271 „Planare Szintigraphie und Einzelphotonen-Emissions-Computertomographie - Konstanzprüfungen apparativer Qualitätsmerkmale“ einen Ausweg aus diesem Dilemma zu finden. Die Arbeitsgruppe stellte fest, dass mittlerweile alle namhaften Gerätehersteller der Konstanzprüfung im Rahmen der Qualitätskontrolle hohen Stellenwert einräumen und entsprechend wohlüberlegte Arbeitsanleitungen und Zeitpläne zu diesem Thema im Rahmen ihrer Bedienungsanleitungen zur Verfügung stellen. Es kann mit einiger Berechtigung davon ausgegangen werden, dass der Gerätehersteller die Stärken und Schwächen seiner Produkte kennt und Umfang und Frequenz der vorgeschriebenen Qualitätskontrollmessungen eventuellen Schwachpunkten anpasst. Der Vorschlag zur überarbeiteten ÖNORM versteht sich daher nur mehr als Rahmenentwurf, welcher dann, wenn seitens des Herstellers keine oder unzureichende Ausführungen über die Konstanzprüfungen getätigt werden, greifen soll. Für die Erstellung dieses Rahmenentwurfes wurden die Empfehlungen der EANM und die Regelungen der gültigen DIN 6855-2 einer kritischen Überprüfung unterzogen und insbesondere die Empfehlungen der DIN hinsichtlich der Überprüfung des GanzkörperZusatzes in den Prüfungskatalog aufgenommen. Für die Überprüfung kombinierter Geräte, insbesondere bei der Verwendung von „ausschließlich zur Schwächungskorrektur geeigneter“ CT-Subsystemen, wurden die Empfehlungen der Gerätehersteller gesichtet und in Bezug zur gültigen ÖNORM EN 61223-2-6 „Bewertung und routinemäßige Prüfung in Abteilungen für medizinische Bildgebung, Teil 2-6: Konstanzprüfungen Röntgeneinrichtungen für Computertomographie“ vergleichend gegenübergestellt. Für diese Geräte wurde die verpflichtende Messung des CTDI in den Zeitplan aufgenommen. Für alle anderen CT-Subsysteme wurde auf die oben zitierte EN-Norm verwiesen. Weiters wurde für alle kombinierte Geräte die „Prüfung der Deckungsgleichheit von Bildern unterschiedlicher Modalitäten“ in den Prüfungskatalog aufgenommen. Auch innerhalb der Arbeitsgruppe sind die Beratungen zum gegenwärtigen Zeitpunkt (Mai 2011) noch nicht abgeschlossen. Die vorliegende Arbeit versteht sich daher als offener Diskussionsbeitrag auch mit den Kollegen aus der Bundesrepublik und der Schweiz - über die Zukunft der Normenlage im Bereich der Qualitätskontrolle von Gammakameras. 13.7 Verification of a dedicated fully automated software for SPECT inhomogeneity quality control with GATE simulations 1 1 2 1 2 A. Hirtl , G. Dobrozemsky , M. Figl , B. Knäusl , M. P. Schaffarich , H. 2 Bergmann ; 1 Department of Nucler Medicine - Medical University of Vienna, Wien, 2 Austria, Center for Medical Physics and Biomedical Engineering Medical University of Vienna, Wien, Austria. Introduction: Austrian regulations for SPECT (ÖNORM S 5271) demand a constancy inspection of tomographic imaging properties (resolution, contrast and inhomogeneity) every six months. The modular Jaszczak phantom (cold rods for resolution, cold spheres for contrast and a homogeneous cylinder for inhomogeneity) is widely used for that purpose. Until now, quality control is performed visually, which is not sensitive for small changes in properties of cameras. A recently presented fully automated software (ImageJ plugin) is capable of detecting such subtle changes in image quality. Goal of the proposed work is to investigate the capabilities of that software for detecting inhomogeneities, i. e., ring artefacts in detail. Method: Data from Jaszczak phantom measurements were analysed with the dedicated software and ring artefacts were identified by employing the Hough transformation for rings. However, in order to determine the detectability limits of the software, Monte Carlo simulations of artefacts with varying intensity have to be performed. Therefore, an arbitrary SPECT camera with two detector heads and a homogeneous cylinder filled with activity diluted in water - mimicking the inhomogeneity part of the Jaszczak phantom only - is modelled using the simulation framework GATE (Geant4 Application for Tomographic Emission). Ring artefacts of different intensities are simulated by masking a small area in front of the collimator with an aluminium pad with varying thickness, thus imitating detector failure of varying severity. The simulated data is output in Interfile format and reconstructed using filtered backprojection (FBP), provided by the HERMES software (Hermes Medical Solutions, Sweden). The reconstructed images will be analysed with the proposed ImageJ plugin. Results: Clearly visible ring artefacts existing in measured data were correctly detected with the Hough algorithm. The interpretation of the image homogeneity is both objective and quantitative. First results suggest, that images reconstructed from data produced by the GATE simulation can be used for benchmark tests of the dedicated software. Outlook: For detailed tests of the software, an in-house existing SPECT camera will be modelled in terms of collimator properties, crystal geometry and measurement protocol. Reconstructed images from simulated data with ring artefacts of varying intensity will be used for defining a lower limit of detectability of the quality control software. Eventually, the results of the simulation will be compared to measurements of the Jaszczak phantom with parts of the the SPECT detector head masked with aluminium pads of the same thickness like modelled in the simulation. 47 Session 14: Präklinische Bildgebung 14.3 Optimierung der Kleintierbildgebung mit nichtreinen Positronenstrahlern 1 2 1 1 3 1 S. Sauerzapf , A. Zakhnini , M. Behe , W. Weber , U. Pietrzyk , M. Mix ; 1 Universitätsklinikum Freiburg, Abteilung Nuklearmedizin, Freiburg, 2 Germany, Helmholtz-Zentrum Dresden-Rossendorf, Institut für 3 Radiochemie, Dresden, Germany, Forschungszentrum Jülich, Institut für Neurowissenschaften und Medizin / INM-4, Jülich, Germany. Die lange Halbwertszeit des Radionuklids I-124 (4,18d) ermöglicht es langsame biochemische Prozesse über einen längeren Zeitraum zu quantifizieren, als dies mit herkömmlichen reinen Positronenstrahler, wie beispielsweise F-18, der Fall ist. Nachteilig beim komplexen Zerfallsschema von I-124 sind neben der geringen Positronenausbeute von 22,8% zusätzlich koinzident emittierte Gammalinien. Mit Energien von z.B. 602.72keV und 722.78keV liegen sie in den Energiefenstern der verwendeten Kleintier-PET-Scannern. Ziel dieser Arbeit war es, einerseits die Datenakquisition bzgl. der Wahl des Energiefensters zu optimieren und andererseits Korrekturen zur Bildverbesserung direkt in die Datenrekonstruktion einzuarbeiten. Um den Anteil der „falschen“ Koinzidenzen durch zwei direkt emittierte Gamma oder ein direktes und ein Annihilationsgammaquant von den „wahren“ Annihilationskoinzidenzen zu unterscheiden, wurden MonteCarlo (MC) Simulationen mit GATE [1] für zwei Kleintierscanner gerechnet. Das ClearPET (Raytest) weist aufgrund eines variablen Ringdurchmessers und der angeschlossenen Elektronik räumliche Lücken zwischen den Dual-Layer-Detektoren aus LYSO und LuYAP auf, die durch Rotation des PET um die z-Achse kompensiert werden. Im Vergleich zum stationären LSO-Blockdetektorsystem MicroPET (Concorde) erfordert das ClearPET einen komplexeren Systemabgleich. Gezeigt wurde bereits, dass der Anteil der falschen Koinzidenzen mit einer schlechteren Energieauflösung und der dadurch bedingten größeren Energiefensterbreite zunimmt [2]. Systemabhängig wird daher eine kleinere Energiefensterwahl vorgeschlagen, um die durch die falschen Koinzidenzen bedingte Hintergrundaktivität in den rekonstruierten Bildern zu minimieren. Erste Messungen am MicroPET bestätigen dies (Fig. 1). Weiterhin konnte durch die MC-Simulationen auf Sinogrammebene gezeigt werden, dass die falschen Koinzidenzen auch einen aktivitätsabhängigen erhöhten Anteil innerhalb der Phantomgrenzen verursachen. Aus diesem Grund wird hier eine modifizierte Hintergrundsubtraktion vorgeschlagen, die diesen zusätzlichen Beitrag miteinschließt. Der durch diese Korrekturen verursachte Zählratenverlust, muss durch Regularisierungsverfahren innerhalb der Rekonstruktionsalgorithmen kompensiert werden. Verglichen wurde der gängige Ordered Subset Expectation Maximization Algorithmus (OSEM) [4] mit einem Maximum a Posteriori Ansatz (MAP). Der OSEM-MAPAlgorithmus mit einem Median Root Prior (MRP) [3] als Regularisierungsterm unterdrückt das Rauschen und ist zugleich kantenerhaltend. Ein direkter Vergleich der beiden Algorithmen (Fig. 2) verdeutlicht die verbesserte Darstellung homogen gefüllter Phantombereiche der OSEM-MAP-MRP-Rekonstruktion bei nahezu gleicher Ortsauflösung. Durch die Anwendung des OSEM-MAP-MRP-Algorithmus aus [5] auf Messdaten einer mit I-124 injizierten Maus, können ebenfalls für das MicroPET rauschärmere Bilder im Vergleich zum Standardalgorithmus an diesem Gerät (OSEM 3D MAP) rekonstruiert werden (Fig. 3). Eine innerhalb der Bildrekonstruktion eingearbeitete Korrektur für die Positronenreichweite soll zukünftig die gerätetechnisch mögliche hohe Ortsauflösung bei Kleintierscannern wiedergewinnen. [1] S. Jan et al.: GATE V6: a major enhancement of the GATE simulation platform enabling modelling of CT and radiotherapy. Phys. Med. Biol. (56) (2011) 881-901 [2] S. Sauerzapf et al.: Optimierung des Energiefensters für I-124 anhand von Monte-Carlo Simulationen und PET-Messungen an Kleintierund Human-Tomographen. Posterpräsentation, Nuklearmedizin (50) (2011):A124,P114. [3] S. Alenius et al.: Bayesian image reconstruction for emission tomography based on median root prior. Eur. J. Nucl. Med. (24) (1997) 258-265 [4] H. Hudson et al: Accelerated image reconstruction using ordered subsets of projection data. IEEE Trans. Med. Im. (13) (1994), 601-609 [5] Thielemans, K. et al.: STIR: Software for Tomographic Image Reconstruction release 2,” IEEE Nucl. Sci. Symp. and Med. Imaging Conference 2006. 14.4 Development and performance test of an online blood sampling system for determination of the arterial input function in rats 1 2 2 3 F. Roehrbacher , J. P. Bankstahl , M. Bankstahl , T. Wanek , J. 3 3 3 1 3 Stanek , M. Sauberer , J. Muellauer , T. Schroettner , O. Langer , C. 3 Kuntner ; 1 Seibersdorf Labor GmbH / Radiation Safety and Applications, 2 Seibersdorf, Austria, University of Veterinary Medicine and Center for Systems Neuroscience / Department of Pharmacology, Toxicology and 3 Pharmacy, Hanover, Germany, AIT Austrian Institute of Technology GmbH / Molecular Medicine, Seibersdorf, Austria. Objectives: For PET kinetic modeling an accurate determination of the arterial input function is required. In this study a new online blood sampling system was developed and tested on different tracers in rats. Methods: The detector consists of pairs of LYSO detectors (25.4 x 25.4 mm, cylindrical), photomultiplier tubes and a 13 mm lead shield assembled within a steel casing. Rats were cannulated with microtubes (ID=0.4 mm) in the femoral artery and vein for arterial blood sampling as 48 well as i.v. administration of the PET-tracers. Connected PTFEmicrotubes were centered between the LYSO crystals using a special holder. To enhance sensitivity, 3 layers with 2 coils were used. A flexible-tube pump was used to ensure a constant blood flow. Performance of the detector was assessed with [18F]FDG, [18F]ciprofloxacin, [11C]verapamil, [11C]MC113, [11C]tariquidar and [11C]mephobarbital. Obtained input function curves were compared with manual samples drawn every 5 sec during the first 3 min and further on at 5, 10, 20, 30, 40, 50 and 60 min after radiotracer injection. After manual sampling, an arterial/venous shunt was established. Shape and area-under-the-curve (AUC, Bq*h/µl) of the input functions were evaluated. Results: The developed detector system provided an absolute sensitivity of 6.5%. Time resolution is in the order of 700 ps. Maximum peak values agreed well between the manual samples and the detector with a mean difference of 0.4±7.05% (max 11.97%, min -9.92%). AUC values also exhibited an excellent correlation (R=0.995) between the manual sampling and the detector measurements with a mean difference of 9.29±9.71% (max 24.14%, min -3.19%). Injected activities ranged from 5.5 MBq to 58 MBq and had no influence on the accuracy of the measurement. Animals did not exhibit any obvious adverse effects caused by the arterial/venous shunt for an observation period of 90 min. Conclusion: This study demonstrates that the developed blood sampling system can be used for in vivo small animal PET studies in rats in a reliable way. The usage of the systems enhances the accuracy of the input curve as handling of small blood samples (~5 µl) especially with low activity (as for C-11) is prone to measurement errors. Additionally, the radiation dose of the experimenters can be reduced, as it is not required anymore to continuously draw samples where the personal is in close contact to the radioactive animals and blood. Session 15: Radiodiagnostik 15.3 Sensitivitätsvergleich dreier Phantome zur Messung der Bildgüte in der Mammographie 1,2 2 1 J. Hummel , H. Kaldara , P. Homolka ; 1 2 Meduni Wien, Wien, Austria, Wilhelminenspital, Wien, Austria. Einleitung: Die Messung der Bildgüte in der Mammographie ist einer der wichtigsten Punkte der notwenigen und vorgeschriebenen Qualitätssicherung. In Europa wird im Rahmen der "European protocol for the quality control of the physical and technical aspects of mammography screening" in dieser Hinsicht das sogenannte CDMAM (contrast-detail mammography) Phantom vorgeschrieben. Diese besteht aus Goldplättchen verschiedener Dicke und Durchmesser, die auf eine Kunststofffolie aufgedampft werden. Durch visuelle Auswertung der gerade noch sichtbaren Scheiben können die grenzwertigen Kontraste für die verschiedenen Durchmesser bestimmt werden. In Österreich und Deutschland ist noch immer das ACR Phantom von den jeweils gültigen Normen vorgeschrieben. Dieses besteht aus jeweils 5 Linienrastern und künstlichen Kalkwolken, wobei jeweils mindestens 3 für einen erfolgreichen Test erkannt werden müssen. Die Gemeinsamkeit dieser beiden Phantome besteht darin, dass sie beide eine visuelle, subjektive Auswertung erfordern. Um dieses Problem zu überwinden, sind in letzter Zeit auch Phantome konstruiert worden, die Aussagen über die Bildgüte mittels mathematischer Parameter zulassen. Hier finden vor allem die im Frequenzbereich definierten Parameter NEQ und DQE Verwendung. Ersterer wird von der Fachhochschule Köln mit Hilfe einer von ihr entwickelten "schrägen Kante" gemessen. Diese besteht im Wesentlichen auf einem scharf abgegrenzten Metall eingefasst in ein Kunststoffhalterung. Eine Software ermittelt über den Bereich der Kante die MTF und in einem homogenen Bereich die NPS, woraus sich dann rechnerisch die NQE bestimmen lässt. Aufgrund des verschiedenartigen Aufbau der Phantome und den unterschiedlichen Parametern, die damit gemessen werden sollen, ergibt sich auch ein Unterschied insbesondere in Bezug auf die Sensitivität auf Dosisänderungen, die im Zuge dieser Arbeit für jedes Phantom vergleichbar bestimmt werden soll. Methode: Die Dosissensitivität wird definiert als Änderung der der je nach Phantom definierten Bildgüteparametern in Abhängigkeit festgesetzter Dosisänderungen. Im klinischen Bereich d.h. bei Eingangsdosen zwischen 5 mGy (50mAs) und 20 mGy (125mAs) wird die Dosis durch Änderung des Strom-Zeit-Produkts (mAs) bei gleichbleibender Strahlqualität (Anoden/Filter Kombination, Röhrenspannung) variiert. Beim CDMAM wurden die Änderungen der detektierten Plättchendicken bei 0.1, 0.2, 0.31 und 0.5 mm gemessen. Bei dem mathematisch definierten Parametern (NEQ) wurden die prozentuellen Änderungen mit der Dosis bei den Ortsfrequenzen von Null bestimmt. Als Parameter beim ACR wird die Summe der erkennbaren Detailgruppen bei Niedrigkontrasten und Punktwolkenauflösung bestimmt. Resultate: Abbildung 1 zeigt die Resultate für NEQ(0), CDMAM beim Durchmesser von 0,1 mm und ACR. Auf der Abszisse ist das Vielfache der applizierten Dosis zum Ausgangswert bei 50mAs aufgetragen, auf der Ordinate die dadurch entstehende Änderung des Bildgüteparameters in %. Diskussion: Die Änderung des NEQ(0) Bildgüteparameters zeigt den deutlichsten und stetigsten Anstieg bei Dosiserhöhungen. Beim CDMAM wurde der Durchmesser 0,1 mm gewählt, da dieser im EUREF Protokoll zu weiteren Berechnungen verwendet wird. Das ACR Phantom zeigt in diesem Vergleich die geringste Sensitivität gegenüber Dosiserhöhungen. Auch ist die NEQ im Gegensatz zu den anderen Parametern mit sehr einfachen Mitteln (es reicht eine schräge Kante) zu bestimmen. Die Auswertungen von weiteren Durchmessern beim CDMAM bzw. weiteren Frequenzen bei der NEQ führten zu äquivalenten Ergebnissen wie oben beschrieben. 49 15.4 Entsprechen Prüfkörper eigentlich Ihren Norm-Vorgaben? Entwicklung von zerstörungsfreien Methoden zur Konformitätsprüfung 1 1 2 2 M. Borowski , S. Wrede , U. Neuschaefer-Rube , M. Krumrey , H. 2 3 4 2 Danzebrink , J. Goebbels , H. Kreienfeld , L. Büermann ; 1 2 Klinikum Braunschweig, Braunschweig, Germany, PhysikalischTechnische Bundesanstalt, Braunschweig / Berlin, Germany, 3 Bundesanstalt für Materialforschung und -prüfung, Berlin, Germany, 4 TÜV NORD Ensys Hannover, Hannover, Germany. Zielstellung: Vor der Inbetriebnahme einer Röntgeneinrichtung zur Untersuchung am Menschen muss sichergestellt sein, dass diese den Stand der Technik einhält (§§3-4 RöV). Hierzu muss eine Abnahmeprüfung (AP) durchgeführt werden, in kontrolliert wird, ob die erforderliche Bildqualität bei der Röntgeneinrichtung mit möglichst geringer Strahlenexposition erreicht wird (§16(2) RöV). Während des Betriebs einer Röntgeneinrichtung sind in regelmäßigen Abständen Konstanzprüfungen (KP) durchzuführen, mit denen festgestellt wird, ob die Bildqualität und die Höhe der Strahlenexposition unverändert sind (§16(3) RöV). Bei AP und KP werden Prüfkörper eingesetzt. Die Geometrie und die Materialzusammensetzung der Prüfkörper sind in Normen festgelegt. Während für die Röntgengeräte AP und KP vorgesehen sind und auch die bei den Prüfungen verwendeten Dosimeter zumindest einer Bauartprüfung unterliegen, gibt es bislang keine unabhängige Kontrolle der verwendeten Prüfkörper. Dieses ist als kritisch anzusehen, da die relevante Abweichung eines Prüfkörpers von seiner Norm-Spezifikation den Betrieb potentiell ungeeigneter Röntgenanlagen ermöglichen kann oder andererseits geeignete Röntgenanlagen fälschlich vom Betrieb ausgeschlossen werden können. Ziel der vorliegenden Studie ist es, in der Routine verwendbare Verfahren zu entwickeln, mit denen zerstörungsfrei die NormKonformität eines Prüfkörpers bestimmt werden kann. Zudem wird der grundlegende Aufbau der Prüfkörper im Hinblick auf Ihre Eignung zur Überprüfung der Bildqualität und Strahlenexposition kritisch hinterfragt. Material und Methoden: Exemplarisch werden die Strukturkörper untersucht, die in DIN 6868-4 (inkl. DSA) und DIN 6868-13 definiert sind. Darüber hinaus wird der Testeinsatz-AP nach PAS 1054 sowie der CDMAM-Prüfkörper für die Mammographie untersucht. Neben den Strukturkörpern werden die zugehörigen Schwächungskörper untersucht. Die Prüfung erfolgt in allen Fällen durch quantitative, digitale Röntgenbildgebung unter Verwendung unterschiedlicher Röntgenanlagen. Die Stabilität der Röntgenanlagen wurde während der Studie kontinuierlich überwacht und Änderungen innerhalb der Datenanalyse berücksichtigt. Für jeden Prüfkörper wurden Master-Objekte definiert und hergestellt. Die Geometrie der Master-Objekte wurde mithilfe der Koordinatenmesstechnik sowie der Röntgenfluoreszenz quantitativ untersucht. Die Abbildungseigenschaft der verwendeten Röntgenanlagen für die einzelnen Komponenten der Prüfkörper wurde anhand der Master-Objekte bestimmt. Abbildungsfunktionen für die unterschiedlichen Komponenten wurden erstellt. Mit den entwickelten Methoden wurden Prüfkörper verschiedener Hersteller untersucht, die sich in der praktischen Anwendung befinden. Resultate: Die entwickelten Verfahren ermöglichen es, in der Routine die Norm-Konformität von Prüfkörpern zu testen. Die Untersuchung von Prüfkörpern verschiedener Hersteller aus der Praxis lässt Unterschiede zwischen Exemplaren des gleichen Typs erkennen. Die grundlegende Beschäftigung mit dem Aufbau und den daraus resultierenden Abbildern der Prüfkörper zeigt kritische Punkte auf, an denen eine Anpassung der aktuellen Norm-Vorgaben sinnvoll erscheint. Die Anpassungen beziehen sich dabei sowohl auf das Prüfkörperdesign als auch auf Toleranzen der Komponenten, die aus Überlegungen zum Abbildungsverhalten der Röntgenanlagen folgen. Schlussfolgerung: Eine zerstörungsfreie Kontrolle der NormKonformität von Prüfkörpern ist möglich und erscheint zumindest auf der Ebene von Stichprobenprüfungen sinnvoll. Bei genauerer Betrachtung fallen einige Stellen in den Norm-Vorgaben der untersuchten Prüfkörpertypen auf, bei denen eine Überarbeitung sinnvoll erscheint. 15.5 Vergleich eines neuartigen Rekonstruktionsverfahrens (OPED) mit Standard-FBP Rekonstruktionen an einem klinischen MDCT 1 1 2 1 2 B. C. Renger , P. Noel , O. Tischenko , E. J. Rummeny , C. Hoeschen ; 1 2 Institut für Radiologie, München, Germany, Helmholtz Zentrum München, Neuherberg, Germany. Ziel: Das am Helmholtz Zentrum München entwickelte Rekonstruktionsverfahren OPED (Orthogonal Polynomial Expansion on the Disk) besitzt in der Kombination mit einer optimierten Geometrie ein 50 hohes Dosispotential. Dies wurde in theoretischen und experimentellen Studien bereits demonstriert. Ziel dieser Studie war es das Rekonstruktionsverfahren mit einem klinischen CT-Scanner (Siemens Somatom Sensation 64) zu implementieren, und die Bildqualität mittels Phantom-Untersuchungen mit den Standard-FBP-Rekonstruktionen zu vergleichen. Material und Methoden: Alle Untersuchungen wurden mit einem Siemens Somatom Sensation 64 (Erlangen, Germany) CT-Scanner durchgeführt. Dort wurden die Bilder mittels des geräteseits vorhandenen FBP-Verfahrens rekonstruiert. Darüber hinaus wurden die Rohdaten der Untersuchungen exportiert und mit dem OPED-Verfahren rekonstruiert. OPED rekonstruiert die Bilder als eine Reihenentwicklung von Chebychev-Polynomen, und unterscheidet sich dadurch grundsätzlich von FBP-Verfahren. Wenn eine für OPED optimierte Geometrie verwendet wird, erlaubt OPED die Bildrekonstruktion direkt aus den Rohdaten, ohne Rebinning- oder Interpolationsschritte. Dies ist bei dem von und benutzen 3. Generations-CT nicht der Fall, so das die Rohdaten zuvor resortiert werden mussten. Die verschiedene Rekonstruktionsschritte wurden in C++ und Matlab implementiert. Alle Messungen wurden mittels eines Catphan 600 Phantoms durchgeführt. Dabei wurden Homogenität, MTF und CNR für OPED und verschieden Dosisstufen bestimmt. Diese wurden ebenfalls für die Standard-FBPBildern und unterschiedliche Filter-Kernel ermittelt und anschließend verglichen. Ergebnisse: Die Rekonstruktion von MDCT-Rohdaten eines klinischen CT-Scanners mittels OPED wurde realisiert. Die Rekonstruktionszeit Pro Bild beträgt ca. 6 s auf einem Quad-Core 3 GHz Intel Xeon Prozessor. Mittels OPED lassen sich typische CT-Artefakte reduzieren. Darüber hinaus zeigt OPED eine verbesserte Auflösung, verglichen mit FBP. Die MTF ist zudem, im Gegensatz zu FBP, über das gesamte Bild konstant. Homogenität und CNR von FBP und OPED sind gleichwertig. Zusammenfassung: Die Vorteile des OPED-Verfahrens über das FBPVerfahren konnten mit realen CT-Daten gezeigt werden. Zukünftig sehen wir OPED in speziellen low-dose oder limited-angle Geometrien, in denen das Potential des Verfahren gehoben werden kann. 15.6 Berechnung der Patientendosis bei HNO DVT-Untersuchungen 1 1,2 3 1 1 J. M. Voigt , J. Wulff , C. Güldner , A. Ningo , M. Fiebich ; 1 Institut für Medizinische Physik und Strahlenschutz, Technische 2 Hochschule Mittelhessen, Gießen, Germany, Klinik für Strahlentherapie und Radiologische Onkologie, HELIOS Kliniken Krefeld, Krefeld, 3 Germany, 3 Hals-, Nasen und Ohrenklinik, Universitätskliniken Gießen und Marburg, Standort Marburg, Marburg, Germany. Einleitung: Die Digitalte Volumentomografie (DVT) erfreut sich zunehmender Beliebtheit bei radiologischen Untersuchungen im Dentalund HNO Bereich. Die Einsatzmöglichkeiten der DVT wachsen stetig. Die bildgebenden Möglichkeiten, die die Kegelstrahltomographie mit sich bringt sind vielfältig und werden ständig weiterentwickelt. Neben konventionellen Durchleuchtungssystemen, die mit einer 3D-Funktion ausgerüstet sind, gibt es eine Vielzahl von dedizierten Geräten zur dreidimensionalen Schädelbildgebung für den Dental- und HNO-Bereich. Bildqualität und Dosis bei der DVT wurden in letzter Zeit sehr kontrovers diskutiert. Ziel dieser Arbeit ist es, ein die Organdosis an einem klinischen DVT-System mit Hilfe von Monte-Carlo Simulationen zu berechnen. Material und Methoden: Zur Simulation wurde das Programm GMctdospp verwendet, welches am Institut für Medizinische Physik und Strahlenschutz entwickelt wurde und auf dem EGSnrc System zur Monte-Carlo Simulation von Strahlungstransport basiert. Simuliert wurde ein ‘Morita Accuitomo 170’ als DVT-Gerät. Dazu wurde die Geometrie des DVT-Systems in der Simulation berücksichtigt und die Spektren der eingesetzten Wolframröhre inklusive Vorfilterung vorberechnet. Zur Kalibrierung wurde das Dosis-Längen-Produkt (DLP) frei in Luft entlang der Rotationsachse des Systems mit einer 300 mm langen Ionisationskammer (TYP?) bei unterschiedlichen Röhrenspannungen gemessen. Aus dem gemessenen DLP wurde die Dosisausbeute für jede eingestellte Röhrenspannung ermittelt. In äquivalenter Weise wurde die Dosisausbeute für diesen Kalibrieraufbau aus der Simulation ermittelt. Der Quotient aus gemessener und simulierter Dosisausbeute ergibt den zur Simulation der Patientendosis notwendigen Umrechnungsfaktor, um die absolute Dosis je Röhrenstrom berechnen zu können. Die Simulationen einer Schädeluntersuchung wurde am Voxelphantom „ICRP-male“ durchgeführt und die simulierte Augenlinsendosis mit der gemessenen verglichen. Zur Messung der Augenlinsendosis wurde ein antropomorphes Schädelphantom verwendet, bei dem auf den Augen Optisch stimulierte Lumineszenzdosimeter (OSL) befestigt wurden. Ergebnisse: Die berechnete und gemessene Augenlinsendosis stimmen sehr gut überein. Die gemessenen Werte sind, bedingt durch die Messunsicherheiten der verwendeten OSL-Dosimeter, Streuungen unterlegen. Da die Absolutdosis linear proportional zum Röhrenstrom ist, wurden die Messwerte linear interpoliert und die Ausgleichsgerade durch den Nullpunkt gezwungen. Die so erhaltenen Werte wurden mit den Werten aus der Simulation verglichen. Die Abweichungen betragen zwischen 4 und 8 %. Diskussion: Es konnte gezeigt werden, dass die berechneten Dosiswerte sehr gut zu Messungen an realen Objekten passen. Die geringen Abweichungen lassen sich in Messunsicherheiten der Dosimeter und den leichten, anatomischen Unterschieden der Phantome (Software- und Hardwarephantom) vermuten. Die Simulation der Dosisverteilung mittels Monte Carlo Verfahren bietet eine einfache Möglichkeit, die Patientendosis bei DVT-Untersuchungen, durch den Einsatz der ICRP-Voxelphantome, bezogen auf den „Standardpatienten“, zu berechnen. GMctdospp bietet zusätzlich die Möglichkeit reale CT-Datensätze einzulesen. Dies macht eine Berechnung der Patientenindividuellen Dosis ebenfalls möglich. Der Vergleich zwischen gemessenen und berechneten Organdosen zeigt die Genauigkeit des Verfahrens. Neben der Bestimmung von Patientendosen bietet die Simulation eine einfache Möglichkeit, den Erfolg von Optimierungen der Aufnahmeparameter im Bezug auf Patientendosis zu quantifizieren. 15.7 Simulative Erfolgskontrolle nach Optimierung eines DVTUntersuchungsprotokolls 1 2 2 1 2 J. M. Voigt , C. Güldner , I. Diogo , A. Ningo , J. A. Werner , M. 1 Fiebich ; 1 Institut für Medizinische Physik und Strahlenschutz, Technische 2 Hochschule Mittelhessen, Gießen, Germany, Hals-, Nasen und Ohrenklinik, Universitätskliniken Gießen und Marburg, Standort Marburg, Marburg, Germany. Einleitung: Röntgensysteme, die nach dem Prinzip der flachdetektorbasierten Kegelstrahltomographie oder auch Digitalen Volumentomographie arbeiten erfreuen sich großer Beliebtheit. DVTSysteme für den HNO-Bereich liefern hervorragende Bildqualität bei vergleichsweise niedrigen Anschaffungspreisen. Immer häufiger wird die Patientendosis bei DVT-Untersuchungen kontrovers diskutiert. Ein tomographisches Bildgebungssystem (CT oder DVT) arbeitet nach seiner Auslieferung unter dem Aspekt Patientendosis keineswegs optimal. Es besteht hohes Optimierungspotential. Die Optimierung der Untersuchungsparameter ist ein Prozess, der in Zusammenarbeit von Ärzten, Physikern und MTRAs in relativ kurzer Zeit erfolgreich durchgeführt werden kann. Monte Carlo Simulationen helfen dabei, das Ausmaß der Optimierung zu quantifizieren. Material und Methoden: An einem klinischen DVT-Gerät im HNO Einsatz wurden die Aufnahmeparameter des NNH-Protokolls optimiert. Dazu wurden bei verschiedenen Einstellungen Aufnahmen eines Schädelphantoms angefertigt und von verschiedenen Befundern (HNOMedizinern und Radiologen) bewertet. Auf Basis der so ermittelten Daten wurden die Untersuchungsparameter neu gewählt. Zur Quantifizierung des Erfolgs der Optimierung wurden Monte Carlo Simulationen an zwei anatomischen Voxelphantomen mit den Einstellungen vor (90 kV 5 mA 360°-Rotation) und nach Optimierung (84 kV 4 mA 180°-Rotation) durchgeführt. Für die Simulationen wurde GMctdospp verwendet. Dieses Programm wurde im Institut für Medizinische Physik und Strahlenschutz entwickelt und bietet eine benutzerfreundliche, grafische Oberfläche. Es basiert auf dem EGSnrc User Code ctdospp, der ebenfalls im Institut für Medizinische Physik und Strahlenschutz entwickelt wurde. Aus der Simulation wurden die Organdosen für mehrere Organe bestimmt und anschließend verglichen. Ergebnisse: Die Organdosen direkt exponierter Organe, wie Augen und Augenlinsen, konnten durch die Optimierung um bis zu 80 % gesenkt werden. Die Dosis in den Speicheldrüsen wurde um ca. 25 % gesenkt. Die Schilddrüsendosis, die im Vergleich zu der anderer Organe kaum eine Rolle spielt wurde durch die Optimierung um weite 50 % gesenkt. Diskussion: Die Ergebnisse zeigen Eindrucksvoll das hohe Optimierungspotential bei DVT-Untersuchungen im HNO-Bereich und die Möglichkeiten der Visualisierung des Optimierungserfolgs durch Monte Carlo Simulationen. Beachtlich ist die Dosisreduktion der Augen und Augenlinsen von über 80 % bei beiden verwendeten Phantomen. Dieser Effekt rührt daher, dass es bei DVT-Untersuchungen möglich ist, nur eine 180°-Rotation um den Patienten zu fahren und diese strahlenempfindlichen Organe aus dem direkten Strahlenfeld zu nehmen. Das verwendete Monte Carlo Simulationsprogramm kann in gleicher Weise für konventionelle Computertomographie eingesetzt werden und bietet somit auch die Möglichkeit, Dosis bei CT- und DVTUntersuchungen zu vergleichen. Session 16: Strahlentherapie Dosisberechnungsalgorithmen und Monte-Carlo Anwendungen 16.1 Advanced lung treatment using different modalities: comparison of Acuros XB and AAA dose calculations E. Vanetti, A. Fogliata, A. Clivio, G. Nicolini, L. Cozzi; IOSI, Bellinzona, Switzerland. Purpose: Acuros XB is the new photon dose calculation algorithm implemented in the Varian Eclipse TPS, based on the solution of the Linear Boltzmann Transport Equation. Aim of the study was to assess the impact of using the new algorithms in clinical cases. Methods: CT dataset of ten patients presenting stage III NSCLC were selected. All patients were contoured for PTV and organs at risk: lungs, heart and spinal cord. Plans were created for 6MV beams from a Clinac 2100iX equipped with MLC-120 Millennium. Three modalities were analysed: - 3D-CRT: 4-5 fields, no-one entering from contralateral lung. MLC and wedges were used whenever needed. - IMRT: 6 fields, no-one entering from contralateral lung. - RapidArc: 2 partial arcs, no-one entering from contralateral lung. Calculations were performed with Acuros XB version 11.0, and AAA version 10.0 with a dose calculation grid of 2.5mm. Acuros XB calculates the dose (to medium) accounting for the elemental composition of the patient, selecting the human tissue from predefined HU ranges. Acuros XB and AAA plans were computed with the same MU. To distinguish between differences coming from the different management in heterogeneity to those coming from the algorithm per se and its configuration, all the plans have been recalculated assigning to the patient outline of the CT dataset, the water material with HU=0. To evaluate the Acuros XB algorithm also in terms of its clinical usability, the computation time was recorded for all plan calculations, and reported as ratio between calculation time for Acuros XB and AAA. Results: Differences in dose distributions between the two algorithms in all cases with water material assignment were <0.5% of the prescribed dose as mean dose to target and OARs. This suggests ascribing the differences found in the real CT dataset to the different heterogeneity management, that is in principle more accurate in the Acuros XB calculations. PTV dose difference was differentiated between the target in soft tissue, where the mean dose was found lower of about 2% for Acuros XB, and the target in lung tissue, where the mean dose was higher of about 1%. Mean doses to OARs did not present big differences, being of the order of 0.1-0.2% of the prescription. No particular differences were found related to the various modalities. Calculation time ratios were: 14 for 3D-CRT (mean Acuros XB calculation time 5’51” on a Dell T5500 platform), 12 (mean Acuros XB 4’30”) for IMRT, 0.5 (Mean Acuros XB 6’26”) for RapidArc. Conclusion: Acuros XB showed differences in PTV dose calculations for lung cancer treatment with respect to AAA that could be of clinical interest. The new algorithm was twice as fast for RapidArc calculations, while AAA remains the fastest for 3D-CRT and IMRT. 16.2 Überprüfung verschiedener Dosisberechnungsalgorithmen im Bereich hoher Dichten S. Glessmer, T. Maaß, F. Fehlauer; Strahlenzentrum Hamburg, Hamburg, Germany. Einleitung: Totale Endoprothesen werden wegen eines alternden Patientenklientels immer häufiger eingesetzt. Aus diesem Grund müssen vermehrt Materialien hoher Dichte bei der Berechnung von Bestrahlungsplänen berücksichtigt werden. Die meisten Dosisberechnungsalgorithmen sind für einen Elektronendichtebereich konzipiert, der ähnlich dem von körpereigenen Geweben ist. Im Rahmen dieser Arbeit wurde daher das Verhalten von Dosisberechnungsalgorithmen verschiedener Planungssysteme insbesondere für Materialien hoher Elektronendichte getestet. Material und Methoden: Verwendet wurde das Phantom EasyCube (Euromechanics) aus RW3, Inhomogenitäten aus gewebeäquivalenten Materialien sowie ein Titaneinschub. Zur Bestrahlungsplanung kamen die Algorithmen Acuros XB und Analytic Anisotropic Algorithm (AAA) des Planungssystems Eclipse (Version 11.0.04 Pre-Release, Varian), Adaptive Convolve und Collapsed Cone Convolution (CCC) des Planungssystems Pinnacle (Version 9.0, Philips) sowie X-ray Voxel Monte Carlo (XVMC) und der Finite Size Pencil Beam Algorithmus (fsPB) des Planungssystems Monaco (Version 2.0, Elekta) zum Einsatz. 51 Basierend auf CTs des EasyCube-Phantoms mit verschiedenen inhomogenen Einsätzen von 2cm bzw. 4cm Dicke wurden Pläne für 10cm x 10cm Felder berechnet. Zusätzlich wurden Pläne erstellt, bei denen der Titaneinschub mit relativen Elektronendichten (rED) zwischen 2,0 und 5,0 (einem willkürlich gewähltem Wert, der deutlich über 3,7, also der relativen Elektronendichte von Titan liegt) überschrieben wurde. Nach dem Export des Dosiswürfels konnten hieraus die Tiefendosiskurven ermittelt werden. Ergebnisse: Der Vergleich von Tiefendosiskurven im Festwasserphantom zeigt bei den fast wasseräquivalenten Materialen Fett (rED=0,952) und Muskel (rED=1,043) gibt es nur geringe Unterschiede zwischen den Algorithmen. Bei lungen- und knochenäquivalentem Material wird die Streuung bzw. Schwächung an der Grenzfläche Inhomogenität-Wasser vom fsPB nicht sowie vom Adaptive Convolve und CCC deutlich schwächer als von den anderen Algorithmen dargestellt. Für Titan ergeben sich deutliche Unterschiede zwischen den Ergebnisen der verschiedenen Planungssysteme in Abhängigkeit davon, ob die Struktur mit einer definierten Elektronendichte überschrieben oder ob der aus dem CT ermittelte Wert für die Berechnung verwendet wurde. Alle Algorithmen berechnen ohne Dichte-Überschreibung eine zu geringe Schwächung. Bei Verwendung von Acuros XB und Zuordnung des Materials „Titanium alloy“ (rED=3,5156) sind Rückstreuung und Schwächung in der Tiefendosiskurve intensiv erkennbar, deutlicher als bei Verwendung von XVMC und einer höheren rED. Bei allen Algorithmen außer Acuros XB steigt die Stärke der Rückstreuung bzw. der Schwächung der Strahlung bei steigender Elektronendichte. Wird in Monaco mit Hilfe der „density override“-Funktion ein größerer Elektronendichte-Wert als der Maximalwert der Zuordnungstabelle eingegeben, wird dieser und nicht der Maximalwert verwendet. Beim Eclipse-Algorithmus Acuros XB ist für die korrekte Dichtedarstellung die Zuordnung des entsprechenden Materials entscheidend, da der Algorithmus nicht auf der Basis von Elektronendichten, sondern physikalischen Dichten rechnet. Diskussion: Für gewebeäquivalente Materialien zeigen einige der Algorithmen gegenüber XVMC leichte Schwächen. Insbesondere Effekte an Grenzflächen zwischen zwei Medien werden häufig nicht realistisch dargestellt, was zumindest beim fsPB aufgrund des Pathlength Scaling Konzeptes auch nicht möglich ist. Für dichte Medien wie Titan kann die Schwächung nicht realistisch dargestellt werden. Sowohl beim XVMC als auch beim Acuros XB ist die Darstellung von Rückstreuung und Schwächung für dichtere Materialien besser, sofern die jeweilige Struktur mit einer realistischen Elektronendichte überschrieben wird. 16.3 Comparison between Acuros XB and Brainlab Monte Carlo algorithms for photon dose calculation M. Misslbeck; Klinik rechts der Isar / Strahlentherapie, Munich, Germany. This work is a comparison between the new Acuros XB dose calculation algorithm that runs within the Eclipse planning software by Varian (Varian Medical Systems, Palo Alto, CA) and the Monte Carlo algorithm XVMC implemented into the planning software iplan RT by Brainlab (Brainlab oncology solutions, Germany). Furthermore both methods are compared to the well established analytical anisotropic algorithm (AAA), also by Varian. All three dose calculators are implemented into the planning systems in daily use in our clinic, whereas only the AAA is so far used in patient treatment. First we applied simple square fields to two different artificial phantoms: A "slab phantom" 30x30x30 ccm with a 3 cm water layer on top, followed by a 2 cm bone layer, a 7 cm lung layer and another 18 cm water layer as seen by the beam entering the phantom from top. Second, a "lung phantom" with water surrounding a lung layer of 10 cm depth starting at 5 cm but reaching only from one side to center. For the slab phantom we compared depth dose curves along central beam axis (CAX) for square field sizes 2.5, 5, 10 and 20 cm. The lung phantom was used to compare profiles at depth 10 cm with CAX along the boarder of the lung layer. Moving on to clinical cases we used the CT of a head and neck patient treated in our clinic. The original plan calculated only with the AAA was recalculated using Acuros and XVMC. To evaluate the differences, dose volume histograms (DVHs) of the planning target volume (PTV) were compared. Results: No differences to be seen between all three algorithms if the phantom heterogeneity was turned off, i.e. the whole phantom regarded as water. Only minor differences showed up between Acuros and XVMC in all artificial phantom depth doses and profiles. Not so the AAA, which deviated by up to 10% in CAX, slightly depending on field size for depth dose and a few percent for profiles in the lung phantom, strongly depending on the depth at which the profile was taken. On the other hand, these deviations did not translate directly into the clinical case, where the DVHs of Acuros, XVMC and AAA turned out to be close to each other in the case of open fields. Disturbingly, in case of an IMRT 52 plan the DVH of the PTV was shifted to higher dose by about 7% for the XVMC compared to Acuros and AAA, which now were close to each other. Conclusion: Only within artificial phantoms with clearly separated layers of simulated tissue, AAA shows differences on layer boundaries compared to XVMC or Acuros. In a real patient case those differences level out, if searched after in a PTV's DVH. Instead, the smaller the field sizes in IMRT, the more the DVH of XVMC is moved to higher dose compared to Acuros and AAA. 16.4 Teletherapie mit ausgleichsfilterfreien Strahlen: Dosimetrische Genauigkeit von Planungssystemen D. Albrich, H. Prokesch, G. Kragl, D. Georg; Universitätsklinik für Strahlentherapie, Abteilung für Medizinische Strahlenphysik, Medizinische Uni, Wien, Austria. Ziel: Das Ziel der Studie war ein Vergleich der dosimetrischen Genauigkeit zwischen komplexen Dosisberechnungs-Algorithmen für hochenergetischen Photonenstrahlen mit (FF) und ohne Ausgleichsfilter (FFF). Aufgrund einer geringeren Variation der StrahlerkopfStreufaktoren mit der Feldgröße und einer weniger ausgeprägten Aufweichung der Strahlen abseits der Zentralstrahlachse ergibt sich für FFF-Strahlen eine potentiell erhöhte dosimetrische Genauigkeit. Material und Methoden: Zwei Dosisberechnungs-Algorithmen wurden verglichen: der enhanced-collapsed-cone-Algorithmus (eCC) (Oncentra Masterplan v3.2) und der XVMC Monte Carlo (MC) Code (Monaco VSM 1.6). Basisdaten von 10MV Photonenstrahlen mit und ohne Ausgleichsfilter, appliziert mit einem modifizierten Elekta Precise Linac, wurden erhoben und in die Planungssysteme implementiert. Die Testfälle beinhalteten Einzelstrahl-Anordnungen, konformale Mehrfeldertechniken sowie IMRT-Pläne. Messungen wurden mit Ionisationskammern, EBT2 Filmen in Phantomen aus wasseräquivalenten Platten, dem heterogenen CIRS Thorax-Phantom und mittels eines 2D Dioden-Arrays (Delta4) durchgeführt. Für die Einzelstrahl-Tests wurden ein Platten- und das CIRS Phantom verwendet. Die konformalen Pläne sowie fünfzehn IMRT Pläne wurden sowohl auf das Delta4 appliziert und als auch mit in Plattenphantomen positionierten EBT2 Filmen verifiziert. Die dosimetrische Beurteilung erfolgte über Absolutdosimetrie und 1D γ-Index-Analyse von Tiefendosis- und lateralen Profilen entlang und abseits der Zentralstrahlachse. Die γ-Kriterien für die Einzelstrahl-Tests waren 2mm DTA und 2% Dosisvarianz; für die zusammengesetzten Pläne wurden zur 2D und 3D γ-Auswertung jeweils 3mm und 3% verwendet. Ergebnisse: Die Abweichungen zwischen berechneter und gemessener Dosis (Absolutdosimetrie mit Ionisationskammer) mit dem CIRS Phantom betrugen nach Korrektur für den Tagesoutput des Linearbeschleunigers und Materialdichte 0.1±0.8/0.5±1.7% (FF/FFF) für eCC und 0.8±0.8/0.0±1.0% (FF/FFF) für MC. Bei der 1D γ-Evaluierung wurden γmean und γmax von 36 Linienprofilen für beide Algorithmen ausgewertet. Im Mittel lagen die γmean Werte bei 0.53±0.28/0.46±0.22 für MC und FF/FFF. Für eCC waren die entsprechenden Werte für FFF signifikant kleiner (p<0.05): 0.42±0.27/0.38±0.26 (FF/FFF). Für die durchschnittlichen γmax Werte war zwischen FF und FFF kein signifikanter Unterschied feststellbar, jedoch waren die gesammelten Ergebnisse von γmax für eCC um 0.42 kleiner als für den MC Algorithmus. Beim Vergleich der Genauigkeit der Algorithmen in Bezug auf die durchschnittlichen γmean Werte ergab MC signifikant verbesserte Werte für FFF-Strahlen. Betrachtet man ausschließlich Profile abseits der Zentralstrahlachse, konnten im Durchschnitt signifikant reduzierte γmean Werte für beide Algorithmen festgestellt werden (MC: 0.55±24 vs. 0.45±0.21, eCC: 0.41±0.24 vs. 0.35±0.22). Im Zentralstrahl wurden keine signifikanten Unterschiede detektiert. Alle konformalen und IMRTPläne zeigten ähnliche Ergebnisse für FF und FFF. Alle IMRT-Pläne, berechnet mit dem eCC-Algorithmus, erfüllten mit Delta4 die Akzeptanzkriterien von 95% aller Messpunkte mit γ-Werten kleiner als 1. Schlussfolgerungen: Die untersuchten Algorithmen zeigten eine präzise Dosisberechnung sowohl für konventionelle als auch für ausgleichsfilterfreie Photonenstrahlen. Im heterogenen Phantom lieferte der MC-Algorithmus, verglichen mit eCC, bessere Ergebnisse. Die exaktere Modellierung von FFF-Strahlen abseits des Zentralstrahls für Einzelstrahl-Tests spiegelte sich nicht direkt in einer höheren dosimetrischen Genauigkeit komplexer Pläne wider. 16.5 Monte Carlo beam model for photon MLC based MERT 1 1 1 1 2 D. Henzen , P. Manser , D. Frei , W. Volken , H. Neuenschwander , E. 1 1 J. Born , M. K. Fix ; 1 Division of Medical Radiation Physics, Inselspital – University of Bern, 2 Bern, Switzerland, Clinic for Radiation-Oncology, Lindenhofspital, Bern, Switzerland. Introduction: For superficial tumors as breast cancer intensity modulated electron therapy would be useful to reduce doses in normal tissue or organs at risk compared to the standard treatment using photons beams. One approach in order to deliver the electron modulation is to use a photon multi leaf collimator (MLC). Although Monte Carlo (MC) dose calculation is well established for electron beams using electron applicators [1], currently there is no treatment planning system available which could calculate dose distributions for MLC based electron treatments. This is due to the lack of a suitable beam model which takes the photon MLC into account. Thus, the goal of this work was to define a beam model for modulated electron radiotherapy based on an already existing beam model including the photon MLC. Material and Methods: The main diverging electron and photon sources which represent the particles coming from the scattering foil and the electron and photon line sources located at the secondary collimator representing the head scatter radiation based on the already existing beam model have been used to reconstruct the beam above the photon MLC. These sources have been configured using both measurements and MC simulations. Thereby the main electron fluence as well as the electron energy spectra of the sources have been determined from in air profile measurements (inline and crossline) and from the absolute depth dose curve both for a 35x35 cm2 field size at a source to surface distance of 70 cm with the MLC fully retracted and for each available electron beam energy. The other quantities have been determined by MC simulations. For this purpose the linear accelerator head has been modeled in BEAMnrc. Due to complex geometry of the photon MLC, an in-house developed MC method has been used for the radiation transport through the MLC. Particles exiting the MLC towards the patient will be passed to the electron macro MC [2] dose calculation algorithm. The proposed beam model has been configured for electron beam energies of 4, 6, 9, 12, 16, 20 and 22 MeV of a Clinac 2300C/D and a TrueBeam (both from Varian Medical Systems). Results: The implementations of the linear accelerator into BEAMnrc and of the beam model into a C++ environment have successfully been carried out. The beam model has been configured for all the beam energies of both linear accelerators considered. The configuration measurements have been reproduced successfully. Discussion: A new beam model taking into account the photon MLC has been developed and successfully configured. First results demonstrate that the beam model has the potential to be used for modulated electron radiotherapy. This work was supported by Varian Medical Systems. References: [1] M.K. Fix, D. Frei, W. Volken, H. Neuenschwander, E.J. Born, P. Manser, ”Electron Monte Carlo dose calculation in Eclipse for Elekta linear accelerators,” Med. Phys. 37, 3283 (2010). [2] H. Neuenschwander and E.J. Born, “A macro Monte Carlo method for electron beam dose calculations,” Phys Med Biol 37, 107-25 (1992). 53 16.6 Erstellen eines Monte Carlo basierten Linearbeschleunigermodells im Rahmen des EURADOS-Projekts „Computational Dosimetry“ D. Czarnecki, V. M. Barrois, L. Vogelgesang, J. Wulff, K. Zink; Institut für Medizinische Physik und Strahlenschutz, Giessen, Germany. Einleitung: Die folgende Arbeit basiert auf der von der European Radiation Dosimetry Group (EURADOS) Working Group 9th (WG 9) "Computational Dosimetry" ins Leben gerufenen Übung "LINAC Monte Carlo simulation exercise". Ziel dieser Übung ist es, von möglichst vielen europäischen Gruppen einen Monte-Carlo basierten, virtuellen Linearbeschleuniger erstellen zu lassen und damit ein Benchmark unterschiedlicher Monte Carlo Codes zu erzielen. Die WG 9 hat für diesen Zweck alle relevanten Daten des Linearbeschleunigerkopfes SATURNE 43 veröffentlicht. Technische Zeichnungen, Materialbeschreibungen des Beschleunigerkopfes und des Phantoms sowie eine gemessenen Tiefendosiskurve und ein Querprofile bei der Feldgröße (10x10)cm² lagen vor. Aus diesen Daten konnte ein Modell des SATURNE 43 erstellt werden und aus Monte-Carlo Simulationen die Dosis in einen Phantom bestimmt werden. Die simulierten Dosisverteilungen wurden durch die Modellierung des Elektronenstrahls an die Messwerte angeglichen. In dieser Arbeit soll die Vorgehensweise bei der Modellierung des Elektronenstrahls erläutert werden. Material und Methode: Für die Monte-Carlo Simulationen wurde das Programm Paket EGSnrc und BEAMnrc verwendet. Der Beschleunigerkopf wurde mit BEAMnrc simuliert. Die Dosisiverteilung im Phantom wurde mit dem User Code DOSxyznrc simuliert. Als Anfangswert wurde ein monoenergetischer Elektronenstrahl mit der Energie von 12MeV benutzt. Die Energie wurde variiert bis eine bestmögliche Anpassung der simulierten Tiefendosiskurve an die Messwerte erzielt wurde. Im zweiten Schritt wurde das Querprofil angepasst in dem die Größe des Brennflecks verändert wurde. Nach Anpassung der Brennfleckgröße, konnte danach die Divergenz des Elektronenstrahls variiert werden. Nach der Änderung der Divergenz wurden die Größe und die Energie des Brennflecks wieder überprüft. Aus diesen Variationen am Elektronenstrahl konnten die Tiefendosiskurve und das Querprofil der Simulation an die Messwerte angepasst werden. Nach der Modellierung des Linearbeschleunigers wurde ein Phase Space File erzeugt, welches für weitere Dosisberechnungen in inhomogenen Phantomen benutzt wurde. Ergebnisse: Die Erstellung des virtuellen Linearbeschleunigers konnte aufgrund der guten technischen Dokumentation des Linearbeschleunigers erfolgreich durchgeführt werden. Durch Anpassen der freien Parameter: Energie der primären Elektronen, Brennfleckgröße und die Divergenz des Elektronenstrahls, ließen sich die gegebenen Messungen reproduzieren, wobei eine maximale Abweichung von 1% zwischen den Messwerten der relativen Tiefendosiskurve im homogenen Wasserphantom und den relativen Dosiswerten aus der Simulation erreicht werden konnte. Das Quadratische Mittel aus der Differenz zwischen Messwert und Simulation der relativen Tiefendosiskurven betrug 0.003. Bei dem Querprofil Betrug die Maximale Abweichung 6 %. Diese hohe Abweichung wurde an den Kanten des Querprofils erreicht. Das Quadratische Mittel zwischen den Querprofilen betrug 0.2. In Abbildung 1 wurden beispielhalft zwei berechnete Querprofile in einem inhomogenem Wasserphantom dargestellt. Abbildung 1: Berechnete Querprofile in 22cm und in 25cm Tiefe eines inhomogenen Wasserphantoms. Die Inhomogenitäten bestanden aus zwei Rechtecken, welche wie zwei Lungenflügel angeordnet waren und gleiche atomare Zusammensetzung wie eine Lunge besaßen. 16.7 Dose output calculation for lead shielded fields in orthovoltage radiotherapy using Swiss Monte Carlo Plan D. Frauchiger, D. Terribilini, B. Isaak, P. Manser, D. Frei, W. Volken, M. K. Fix; Division of Medical Radiation Physics, Inselspital and University of Berne, Bern, Switzerland. Introduction: In orthovoltage radiotherapy the dose calculation is mainly based on measured depth dose curves and output factors in water for 54 the energies and add-ons used. Scars and colloids are often treated using partially blocked open beams. Due to difficulties in low energy dose calculations using analytical models and since measurements of complex block shapes are very challenging, Monte Carlo dose calculation is an appropriate alternative for these situations. The goal of this work is to calculate the dose distribution of partially lead blocked 1 orthovoltage beams using the Swiss Monte Carlo Plan (SMCP) . Material and Methods: In a previous work, the PANTAK DXT300 was 2,3 implemented in BEAMnrc in order to assess the beam properties and to generate a beam model based on phase space data. These phase spaces are used in SMCP to calculate the dose distributions. For validation purposes, calculated and measured dose profiles and percentage depth doses (PDD) in water for unblocked fields are compared and analyzed by the gamma analysis using criteria of 3% of the normalization dose value and 3 mm for voxels with a dose of at least 10 % of the normalization dose value. Then partially blocked fields are calculated applying the validated phase spaces. As shielding material lead leaves with a thickness of 0.2 mm are used. Dose calculations are 2 carried out for different quadratic cutout sizes from 1x1 cm up to 2 8x8 cm as well as more complex shapes as e.g a Y-shape and 2 compared with the unblocked 10x10 cm . For all calculations a dose grid 3 of 2.5 x 2.5 x 0.2 mm was used. 2 Results: Calculated and measured PDDs for the 10x10 cm field at 100 kV agreed in 100% of the calculated points for the gamma criteria of 3 mm/3 %. The same results were found for the relative dose profiles at 2 5 mm depth in water. The partially blocked 10x10 cm fields at 5 mm depth for 100 kV using 0.2 mm lead result in output factors ranged from 2 2 0.80 to 0.99 for the 1x1 cm to 8x8 cm blocked field sizes with respect 2 to the 10x10 cm unblocked field. Discussion: Output factor calculations of an orthovoltage device were performed with SMCP using phase space data derived from MC simulations using the BEAMnrc user code. Thus, SMCP has the potential to accurately calculate output factors for routine orthovoltage radiotherapy with lead shielded treatment fields. References: [1] Fix M K et al, An efficient framework for photon Monte Carlo treatment planning, Phys. Med. Biol. 52, N425-N437, 2007 [2] Kawrakow I, Rogers DWO, The EGSnrc Code System: Monte Carlo Simulation of Electron and Photon Transport, NRCC Report PIRS-701, 2003 [3] Frauchiger D et al, Implementation of the PANTAK DXT300 into the Swiss Monte Carlo Project environment, a feasibility study, EWG MCTP 2009, Cardiff Anomalien besitzen die größten Einschränkungen im alltäglichen Objektunterscheidungsvermögen. Literatur: [1] M.Schürer, et al.: Klin Monatsbl Augenheilkd (2009) 546-554. [2] A. Walter, et al.: J Opt Soc Am A (2009) 2219-2225. Session 17: Optische Bildgebung Morphologie, Kontrasterhhung und Gewebsfunktion 17.3 Messsystem zur Quantifizierung des Einflusses von Farbsinnstörungen auf das Objektunterscheidungsvermögen 1,2 3,2 4 5,2 4,2 M. Schürer , A. Walter , B. Zelzer , H. Brünner , A. Langenbucher ; 1 OncoRay - National Center for Radiation Research in Oncology, TU 2 Dresden, Dresden, Germany, Institut für Medizinische Physik, 3 Universität Erlangen-Nürnberg, Erlangen, Germany, Sill Optics GmbH & 4 Co. KG, Wendelstein, Germany, Experimentelle Ophthalmologie an der 5 Universität des Saarlandes, Homburg, Germany, VisioCraft GmbH, Erlangen, Germany. Hintergrund: Die Farbwahrnehmung kann durch kongenitale oder erworbene Pathologien im Bereich der Retina oder der weiterleitenden Nervenbahnen beeinträchtigt sein. Je nach Form und Ausprägungsgrad sind farbliche Unterschiede schlechter oder nicht mehr wahrnehmbar. Diese Beeinträchtigung hat Einfluss auf das Objektunterscheidungsvermögen. Neben der eingeschränkten Farbwahrnehmung besitzen Farbfehlsichtige eine daraus resultierende veränderte Hellempfindung. Farben gleicher Leuchtdichte werden unterschiedlich hell wahrgenommen wodurch das verminderte Farbunterscheidungsvermögen teilweise kompensiert werden kann. Im Beitrag wird ein Messsystem erläutert, welches bei Farbsinnstörungen das Unterscheidungsvermögen zwischen Farben auf Basis von Farb- und empfundenen Helligkeitsunterschieden erfasst. An einer Studie mit 12 farbfehlsichtigen Probanden wird der Zusammenhang zwischen Unterscheidungsvermögen und Grad der Ausprägung der Farbsinnstörung dargelegt. Methode: Das Messsystem nach Walter & Schürer [1, 2] nutzt für die objektive Erfassung des Unterscheidungsvermögens zwischen Farben das Gleichheitsverfahren der Farbmesstechnik. Dem Probanden werden in einem kreisrunden vertikal geteilten Testfeld eine Reihe von Farbpaaren nacheinander zum Vergleich dargeboten. Dabei muss mit einer Ja/Nein Entscheidung beurteilt werden, ob zwischen den beiden Farben eines Farbpaares ein Unterschied wahrnehmbar ist. Auf Grundlage der eingesetzten Simple-Up-Down-Methode vergrößert oder verkleinert sich der Farbunterschied des darauffolgenden Farbpaares in Abhängigkeit vom Antwortverhalten. Damit wird gewährleistet, dass die Farbdifferenz zwischen den beiden Testfeldhälften auf einen gerade noch wahrnehmbaren Unterschied konvergiert. Die zu differenzierenden Farbreizpaare werden jeweils für 900 ms dargeboten. Dazwischen wird auf dem Testfeld zur Kontrolle der chromatischen Adaptation für 2,7 s ein Neutralreiz präsentiert. Die Studie beschreibt das Unterscheidungsvermögen zum Referenzfarbwert gelb (u’ = 0,2487 v’ = 0,5433) bei Probanden mit unterschiedlich stark ausgeprägten Protanund DeutanFarbsinnstörungen. Dafür wurde von diesem Referenzfarbwert ausgehend in 6 Farbrichtungen jeweils eine Unterscheidungsschwelle erhoben. Über diese 6 Schwellenwerte konnte ein ellipsenförmiger Farbraum definiert werden innerhalb welchem keine Unterscheidung zu dieser gelben Referenzfarbe möglich ist. Zur Quantifizierung der farbfehlsichtigkeitsbedingten Veränderungen wurden die Ergebnisse mit Daten einer farbnormalsichtigen Probandengruppe verglichen und für jeden farbfehlsichtigen Probanden am HCR Anomaloskop die „Einstellbreite“ erfasst, welche nur das Farbunterscheidungsvermögen nicht aber den Einfluss der veränderten Hellempfindung beschreibt. Ergebnisse: Wie Abbildung 1 und 2 zeigen, besitzt das individuelle Unterscheidungsvermögen der farbfehlsichtigen Probanden sowohl für Protan- als auch für Deutanstörungen gegenüber Farbnormalsichtigen deutlich erhörte Schwellenwerte. In Richtung der charakteristischen Farbverwechslungsachsen (Rot-Grün-Farbachse) sind diese Schwellenwerte bis um das 10fache erhöht. Entlang der senkrecht dazu verlaufenden Blau-Gelb-Farbachse zeigen sich im Vergleich zur Normalgruppe teilsweise geringere aber auch bis mehr als das 2fache höhere Werte. Eine Gegenüberstellung der Schwellenwerte entlang der beiden Farbachsen mit den individuellen probandenspezifischen Einstellbreiten am Anomaloskop verdeutlicht die Abhängigkeit des Unterscheidungsvermögens vom Grad der Anomalie. Mit zunehmender Einstellbreite nimmt das Unterscheidungsvermögen zuerst ab, erreicht bei mittelgradigen Anomalien seinen Minimalwert und steigt für halbextreme und extreme Anomalien und Anopien wieder an. Schlussfolgerung: Auswirkungen von Farbsinnstörungen auf das Objektunterscheidungsvermögen werden teilweise durch die veränderte Hellempfindung vor allem bei höhergradigen Anomalien und Anopien kompensiert. Das Unterscheidungsvermögen bei einer Farbwahrnehmungsanopie liegt somit auf einem ähnlichen Niveau wie bei einer einfachen Anomalie. Probanden mit mittelgradig ausgeprägten 17.4 Multispectral OCT in dermatology 1 2 1 1 3 A. Alex , J. Weingast , B. Považay , B. Hofer , C. Kendall , C. 4 3 2 1 Glittenberg , N. Stone , H. Pehamberger , W. Drexler ; 1 Centre for Medical Physics and Biomedical Engineering, Vienna, 2 Austria, Department of Dermatology, Medical University Vienna, 3 Vienna, Austria, Biophotonics Research Group, Gloucestershire 4 Hospitals NHS Foundation Trust, Gloucester, United Kingdom, Rudolf Foundation Clinic Vienna, Ludwig Boltzmann Institute, Vienna, Austria. In 2008, International Agency for Research on Cancer, which is a part of the World Health Organization, submitted a report predicting that the annual cancer incidence rate could further increase by 60% to 21.4 million cases by 2030. The most important factor in cancer management is the diagnosis of tissue malignancy as early as possible, when the treatment is most effective. Histological examination of the cancerous cells obtained through biopsy is still the gold standard in cancer diagnosis. Optical Coherence Tomography (OCT) is one of the promising non-invasive biomedical imaging techniques capable of generating three dimensional in vivo images of tissue morphology with micrometre-scale resolution. In most of the biological tissues, the major limiting factor of OCT is its reduced penetration depth due to the strong scattering and absorption of light. But the imaging depth of around 1 - 2 mm offered by OCT is comparable to the depth with which many biopsies are performed. In addition, many diagnostically important changes in the tissue morphology occur at the epithelial surfaces of organ lumens. In the past two decades, development of ultra-broadband light sources, advances in fibre optics and introduction of frequency domain techniques have led to significant improvements in resolution, detection sensitivity and image acquisition speed of OCT. It is a relatively simple optical imaging technique, which does not require any contact medium and can be easily integrated to catheter endoscopes. These factors make OCT a promising candidate for tumour imaging applications. Several ex vivo and in vivo tumour investigations have been conducted using OCT on different types of tissues. However, 55 further systematic studies are needed to realize the potential of OCT in tumour diagnostic applications. Ex vivo imaging of different stages of oesophageal and colon tumour samples using OCT has been demonstrated at 800 nm, 1060 nm and 1300 nm to investigate the optimum wavelength region for tumour diagnosis. These OCT systems were capable of acquiring images in real time with ~3 µm, ~7 µm and ~8 µm axial resolutions and <15 µm transverse resolutions. Histology of these samples was obtained to confirm the grade of tumour samples and for comparison with OCT images. All three OCT systems could delineate microstructural changes associated with various tumour stages. In addition to the ex vivo tumour samples, OCT images of normal skin were obtained in vivo in order to analyse the performance of these three wavelength regions. 800 nm images provided better contrast over other two wavelength regions. However, 1300 nm wavelength region was needed for deeper penetration in highly scattering samples. Hence, a dual wavelength OCT system operating at 800 nm and 1300 nm wavelength regions were developed for obtaining dermal images with high contrast and deeper penetration simultaneously. This 800/1300 nm dual wavelength OCT system was used to obtain 3D images of various dermal pathologies in vivo. Session 18: Optische Bildgebung II 18.1 Polarization sensitive imaging of the human retina by optical coherence tomography at 840 nm and 1030 nm T. Torzicky, E. Götzinger, M. Pircher, S. Zotter, M. Bonesi, C. Hitzenberger; Medical University of Vienna, Vienna, Austria. Purpose: To compare polarization sensitive optical coherence tomography (PS-OCT) system performances in the 840 nm and the 1030 nm wavelength region for imaging the human ocular fundus in vivo. Methods: For our comparison we used a spectrometer based PS-OCT system in the 840 nm wavelength region which has been presented previously and has been used for imaging of a variety of retinal diseases. Furthermore we developed a novel PS-OCT system working at a central wavelength of 1030 nm. Light in this wavelength region is less absorbed by the retinal pigment epithelium and therefore higher penetration depths in retinal imaging are achievable. Polarization characteristics of different layers of the ocular fundus were investigated using both systems. Intensity, retardation, fast axis orientation and degree of polarization uniformity values were calculated from the acquired data and the results were compared for the different PS-OCT systems. Results: Measurements on healthy human volunteers were performed with both instruments and 2D and 3D data sets of the fovea centralis and the optic nerve head were acquired. With both systems we were able to clearly visualize the retinal pigment epithelium and its depolarizing characteristics and the retardation caused by birefringent tissues like the retinal nerve fiber layer. The 840 nm system demonstrated a better resolution for the inner retinal layers compared to the 1030 nm system. Higher penetration depth and better visualization of choroid and sclera region were shown with the 1030 nm set up. Conclusion: Both systems provided tissue specific contrast for retinal pigment epithelium and retinal nerve fiber layer. The 840 nm system was especially suited for anterior retinal layers down to the retinal pigment epithelium, while the 1030 nm system was superior for imaging deeper layers, down to the sclera. 18.2 Visualization of human retina microvasculature in vivo by dualbeam phase-resolved Doppler optical coherence tomography S. Zotter, M. Pircher, T. Torzicky, M. Bonesi, E. Götzinger, R. Leitgeb, C. Hitzenberger; Medical University of Vienna, Vienna, Austria. We present a double-beam phase resolved Doppler optical coherence tomography (OCT) system for visualizing the microvasculature within the human retina. Classical phase resolved Doppler OCT systems measure the phase difference between adjacent A-scans. This phase difference is directly proportional to the velocity of the moving particle. This technique has proven to be a powerful, non invasive, in vivo imaging tool for measuring and visualizing larger vessels within the retina. But it is not capable of resolving the microvasculature where the flow speed is very low. In order to resolve the fine capillary network the timing between adjacent A-scans has to be in the order of ~1ms. This measurement speed would make the time which is necessary to acquire a 3D capillary flow image in vivo prohibitively long. Furthermore, the phase washout due to sample motions would severely degrade the signal quality. The system presented in this work overcomes this problem by using a double-beam scanning approach. The sample arm beams of two identical spectral domain OCT systems are combined such that there is a small horizontal offset between them at the retina. Two tomograms which are separated in time are recorded and the phase difference is calculated between them. This approach allows us to delay the time between the two necessary phase measurements arbitrarily without the need to adjust the acquisition time. By combining the phase difference information with the recorded intensity images we generate 3D maps of the capillary network of the human retina with a high dynamic range. Measurements on healthy human volunteers were performed and the extracted 3D vessel maps are displayed as en face projections. The appended figure shows an image which is stitched together from several measurements ranging from the optic disk towards the fovea. The measurement results proof that our dual-beam phase-resolved Doppler optical coherence tomography system is capable of visualizing not only the major vessels but also the microvasculature within the human retina in vivo. 56 18.3 Ophthalmische optische Kohärenztomographie bei 1060nm mit erhöhter Messtiefe. 1 2 3 4 4 B. Povazay , I. Böttcher , M. Esmaeelpour , B. Hofer , W. Drexler , R. 5 3 Engelhard , S. Binder ; 1 2 Medizinische Universität Wien, Wien, Austria, Heidelberg Engineering, 3 Wien, Austria, Ludwig Boltzmann Institut, Rudolfstiftung, Wien, Austria, 4 5 Medical University Vienna, Wien, Austria, Heid, Wien, Austria. Die optische Kohärenztomographie ermöglicht die berührungslose Erstellung drei-dimensionaler Schnittbilder unter Verwendung der Weißlichtinterferometrie. Das größte Anwendungsgebiet ist die Augenheilkunde und hier im Speziellen der Bereich der Netzhaut. Die starke Streuung und Absorption am stark melaninhaltigen retinalen Pigmentepithel zwischen der Netzhaut und dem Choroid kann mit Hilfe von neuen Lichtquellen und Detektoren signifikant verringert werden. Dabei werden die zentralen Wellenlängen der breitbandigen Strahler vom üblichen 800nm in den 1060nm Bereich verschoben. Die Rasterabtastung über einen Bildbereich von 512x512 lateralen mal 512-1024 Tiefenpunkten benötigt weniger als drei Sekunden. [Grafik1] Gemeinsam mit einem Augentracker, zur Verfolgung und Kompensation von Augenbewegungen, erlaubt das neue System Einblicke in das tiefer gelegene Blutgefäßsystem des Choroids und eröffnet Quantifizierungsmöglichkeiten um Krankheiten die die Blutversorgung der retinalen Photosensoren beeinträchtigen frühzeitig zu erkennen. Das kohärente Licht verursacht normalerweise Speckle, die die Auflösung und Sichtbarkeit beeinträchtigen. Durch die kontinuierliche Bewegung des Auges zusammen mit dem Tracking werden diese Artefakte effektiv unterdrückt. Die parallele Einkoppelung zweier Lichtquellen in beiden Frequenzbereichen ermöglicht erstmalig einen punktgenauen Vergleich der beiden Wellenlängenbereiche auch bei Patienten, so wie eine Extraktion von differentiellen strukturellen Informationen. 18.4 Towards Functional Imaging Using Optical Coherence Tomography remains challenging. Furthermore, beating effects due to self interference distort the extracted absorption values. 2. Combined Photoacoustic and OCT: Photoacoustic imaging (PAI) is a promising candidate to be combined with an all optical imaging modality such as OCT. Photoacoustic is complementary to OCT: the first is sensitive to absorption, the latter is sensitive to backscattering of light. Since PAI is highly sensitive on wavelength dependent absorption it is much more promising to extract physiological blood parameters, i.e. haemoglobin concentration and oxygen saturation from the PA signal than from the scattering dominated SOCT signal. We present preliminary results in combining the two modalities into one device, leading to a more robust detection and better quantification of absorption than possible with SOCT alone. 3D tomograms of the skin from a five weeks old female hairless mouse obtained using this multi-modal OCT/PAI system are displayed in Figure 1. OCT and PA images were obtained sequentially from the same location and the imaging times were ~10 s and ~4 minutes, respectively. OCT and PA images were co-registered and combined to display the vascular information obtained from PAI, together with the superficial structural information provided by OCT. This multi-modal PAI/OCT approach enables visualization of vasculature as deep as 3 mm and is clearly able to distinguish blood vessels from other weakly scattering micro-morphological features seen in OCT. 3. Optophysiology: Optophysiology is a functional extension to OCT applied in ophthalmology. During the OCT measurement a synchronized visual stimulus is applied to the retina. The temporal and localized change of the OCT signal indicates activated areas. Transferring this technique to the living human remains challenging due to the presence of motion artifacts. Presented are an introduction into this technique and recent results with 1 ms time resolution. 18.5 Single-shot optical sectioning using polarization-coded structured illumination 1 2,3 1,2,3 B. Hermann, B. Hofer, B. Povazay, A. Alex, W. Drexler; Zentrum für Medizinische Physik und Biomedizinische Technik, Wien, Austria. D. Appelt , K. Wicker , R. Heintzmann ; 1 Randall Division of Cell and Molecular Biophysics, King's College 2 London, London, United Kingdom, Institute of Physical Chemistry, 3 Friedrich-Schiller-Universität Jena, Jena, Germany, Intitute of Photonic Technology, Jena, Germany. Optical coherence tomography (OCT) has been applied in biomedical imaging since nearly twenty years. Main applications of OCT are found in ophthalmology, dermatology, cardiovascular imaging. In order to extend the imaging capability of OCT towards function, e.g. Doppler OCT (DOCT), spectroscopic OCT (SOCT), and optophysiology have been invented. The additional information could not only be used as additional contrasting mechanism, but should also lead to a better understanding of underlying physiological processes. Clinical applications are disease state evaluation and treatment monitoring.We present recent advances and challenges in SOCT, optophysiology, and in a multimodal approach combining OCT with photoacoustic imaging. 1. Spectroscopic OCT: In SOCT spectra originating from different depths are compared. Main aim is the extraction of the depth dependent absorption profiles required for further functional analysis. In a simplified non-scattering model, the absorption coefficient between two reflective surfaces, separated by distance d, can be calculated from the spectral envelopes S1, S2, obtained from the OCT signals of these surfaces . The spectral change with depth is not only caused by absorption, but also by spectral backscattering. Some work was done to separate scattering and absorption. The proposed separation algorithm works in phantoms with well defined scattering and absorption properties. However, in biological tissue the extraction of absorption profiles The conventional epi-fluorescent wide-field microscope features a uniform illumination of an extended sample region. A problem arises with this setup when specimens are used whose thickness in the direction of the optical axis (i.e. the z-direction) is greater than the objective’s depth of field. In this case, not only in-focus fluorophores but also those lying above or below the plane of focus are excited. Since the objective is not able to distinguish from which part of the sample the emission light originates, light from out-of-focus fluorophores is also detected. The result is poor quality in the final image, as out-of-focus structures appear blurred; furthermore, their emission light contributes to the background and leads to a reduction in image contrast. Removing out-of-focus light yields an optically sectioned image: a thin slice of a thick sample that only contains in-focus information. Taking a stack of sectioned images allows for a three-dimensional reconstruction of the specimen. Conventional structured illumination microscopy (cSIM) is a method to obtain optical sectioned data, similar to that obtained from the widely used confocal microscope. However, the requirement of taking three images imposes a limit on the acquisition rate of cSIM. We propose the technique of polarization-coded structured illumination (picoSIM), which combines high temporal and high spatial resolution. Our technique encodes the three individual light patterns needed for cSIM in a 57 polarization-coded light distribution; this allows the acquisition of the three images required for a computational reconstruction of a sectioned image in one single exposure, allowing imaging with in principle arbitrary temporal resolution (Fig. 1). Session 19: Funktionelle und strukturelle Hochfeld MR - aktuelle Entwicklungen 19.1 CE Lecture: Hochfeld und die Grundlagen des MRI - Struktur & Funktion R. Stollberger; Institut for Medical Engineering, TU-Graz, Graz, Austria. Figure 1: Possible realization of picoSIM. The lower light path depicts the illumination side of the system (lenses L1-L5 and objective are in telecentric arrangement): via lens L1 and a polarizer light is linearly polarized and illuminates an incoherence aperture. This aperture limits the angle of incidence for the illumination of a grating, which is placed in an image plane conjugate to the aperture. This limitation is exemplified for two angles alpha (allowed) and beta (blocked). If the incoherence aperture size is chosen correctly, the individual diffraction orders can be separated in another conjugate plane. Here the central zero- order is blocked by a beam stop (red), whereas the -1st (+1st) order is left (right) circularly polarized by means of lambda/4-plates (green). Lenses L4 and L5 relay these circularly polarized orders into the back focal plane of the objective. The upper light path depicts the detection side of the system: a dichromatic beam splitter separates the emitted light from the illumination light. A 3-way beam splitter divides the light into three identical components, which are then filtered by polarization analyzers oriented at three different angles (i.e. 0°, 60°, 120°), before they are imaged on different regions of the same CCD camera. These three images contain all the information needed to calculate an optically sectioned image similar to those of cSIM. Im Rahmen dieser Präsentation werden die Grundlagen des MRI in Bezug auf Hochfeldanwendung für strukturelle und funktionelle Untersuchungen dargestellt und diskutiert. Es wird insbesondere auf die Grundlagen für das Verbesserte Signal-zu-Rausch Verhältnis eingegangen. Weiters werden die Effekte durch die elektromagnetische Wechselwirkung bei hohen Feldstärken diskutiert. Diese können einerseits als Artefakte in Erscheinung treten, anderseits aber auch die Grundlage von neuen Kontrasten und somit zusätzlichen Informationen sein. Im Bereich der Relaxation ist generell mit einer Abnahme der T2 Relaxationszeitkonstante zu rechnen, wohingegen die T1 Zeit verlängert in Erscheinung tritt. Die führt typischerweise zu geänderte Parametern bei den Scanprotokollen um die gewünschten Kontraste zu erreichen. Auch die Kontrastmittel haben im Hochfeld unterschiedlichen Relaxivitäten. Die Änderung der Relaxivität hängt vom Typ des Kontrastmittels und der unmittelbaren Umgebung ab. Struktur der Präsentation: • • • • Signalerzeugung o Gleichgewichtsmagnetisierung o Signalinduktion o Reziprozitätstheorem Feldinhomogenitäten in Abhängigkeit von B0 und untersuchten Objekten o Hochfrequenzfeld o Gleichfeld Relaxation o T2*/T2 o T1 Kontrastmittel bei verschiedenen Feldstärken o GD-XXXX o SPIO 19.2 State-of-the-Art Lecture: Funktionelle und strukturelle Hochfeld MRT des Gehirnes C. Windischberger; Medical University of Vienna, Vienna, Austria. Hochfeld-MR Anwendungen profitieren in erster Linie von den gesteigerten Signalamplituden bei hohen Feldern. Dieser Anstieg im Signal-zu-Rausch Verhältnis kann vielfältig genützt werden. Einerseits kann dadurch die räumliche Auflösung erhöht werden, andererseits ist es aber auch möglich den SNR-Gewinn zur Verkürzung der Messzeiten zu verwenden. Von besonderer Bedeutung ist dabei die Möglichkeit zur Verwendung paralleler Bildgebung (SENSE, GRAPPA), bei der die Bilddaten mit Hilfe von Mehrkanal-Empfangsspulen innerhalb kürzerer Zeit aufgenommen werden können. Der damit verbundene Verlust an Bild-SNR kann durch SNR-Gewinn bei höheren Feldern ausgeglichen werden. Für funktionelle Anwendungen ist dabei von besonderer Bedeutung, dass sowohl die Spezifität wie auch die Sensitivität für durch neuronale Aktivität hervorgerufene Signaländerungen ansteigt. Nicht zuletzt profitieren auch strukturelle und diffusionsgewichtete Bilder von den bei hohen Feldern erhöhten Signalamplituden. Allerdings sind diese eindeutigen Vorteile bei hohen Magnetfeldern mit Nachteile bzw. Herausforderungen verbunden. Dazu zählt vor allem die Verkürzung der transversalen Relaxationszeit T2* und die damit einher gehende Ver-kürzung des nutzbaren Datenakquisitionsfensters. Auch hier bietet die parallele Bildgebung wiederum eine Möglichkeit zur Beschleunigung der Datenaufnahme, insbesondere bei hohen Auflösungen. Eine weitere Herausforderung stellt der Anstieg der für die Spinanregung benötigten Radiowellenenergie dar. Auch hier bieten sich Möglichkeiten diesen Effekt zu reduzieren, im einfachsten Fall geschieht dies durch eine Verlängerung der Pulsdauer. Zusammengefasst kann festgestellt werden, dass MR bei hohen und ultra-hohen Feldern ein riesiges Potential für zukünftige Anwendungen darstellt, allerdings nur dann, wenn Niederfeldmethoden nicht nur einfach auf die höhere Feldstärke kopiert werden, sondern anwendungsspezifische Änderungen in den Akquisitionsparametern 58 zusammen mit Mehrkanalspulentechnik und paralleler Bildgebung kombiniert werden. Im Trend zu immer höheren Magnetfeldstärken liegt die Zukunft der MR, da die potentiellen Vorteile die möglichen Nachteile bei weitem überwiegen. 19.3 Ganzkörper-Hochfeld-Magnetresonanz bei 7 Tesla 1,2 1,2 1,2 1,2 1 M. E. Ladd , S. Orzada , L. Umutlu , S. Johst , O. Kraff , K. 1,2 1 1,2 1,2 Nassenstein , S. Maderwald , A. K. Bitz , S. Ladd , T. C. 1,2 Lauenstein ; 1 2 Erwin L. Hahn Institute for MRI, Essen, Germany, Institut für Diagnostische und Interventionelle Radiologie und Neuroradiologie, Essen, Germany. Einleitung: Die Magnetresonanztomographie (MRT) in anatomischen Regionen mit großem Querschnitt stellt eine Herausforderung bei 7 Tesla dar, da die Wellenlänge der erforderlichen Hochfrequenzfelder so kurz ist, dass destruktive Interferenzen entstehen können. Bis vor kurzen wurde die MR-Bildgebung bei 7T vor allem im Kopf oder in den Extremität durchgeführt. Erste Ergebnisse für kardiale und abdominelle Bildgebung sind aber nun verfügbar [1-4]. Die Zielsetzung dieser Arbeit war die Erkundung des diagnostischen Potentials von 7T im Körperstamm durch Verwendung eines Mehrkanalsendesystems in Zusammenhang mit statischem Hochfrequenz-(HF-)Shimming. Methoden: Die Untersuchungen wurden in 30 Probanden mit einem 7T Ganzkörper-MRT-System (Magnetom 7T, Siemens Healthcare, Erlangen) durchgeführt. Eine selbstgebaute HF-Sende-/Empfangsspule mit Stripline-Elementen (Abb. 1a) und spezielle HF-ShimmingAlgorithmen [5] wurden eingesetzt. Die MRT-Protokolle umfassten Kombinationen folgender Sequenzen: Cine-FLASH, T1-gewichtete (T1w) 3D-FLASH, T1w fettgesättigte 2D-FLASH, 2D T1w in- und opposed-phase FLASH, 2D-TOF, quasi T2-gewichtete (T2w) 2DTrueFISP und T2w TSE. Ergebnisse: Kleine anatomische Strukturen im Abdomen und insbesondere die hepatischen und renalen Gefäße konnten mit Hilfe der T1w-Bildgebung vorzüglich dargestellt werden (Abb. 1b). Die arteriellen Gefäße waren hauptsächlich hell und die venösen Gefäße dunkel unabhängig der Schichtorientierung. Mit TrueFISP konnte im Abdomen und im Becken unerwartet gute Bildqualität erreicht werden (Abb. 1c); nichtsdestotrotz stellen wegen SAR-Limitationen sowohl TrueFISP als auch TSE eine große Herausforderung bei 7T dar. Cine-FLASH lieferte gute Bildqualität und Homogenität über fast das gesamte Herzvolumen mit sehr gutem Kontrast zwischen Myokard und Blut (Abb. 1d). Schlussfolgerungen: Diese Ergebnisse sind für die Zukunft der MRTBildgebung bei 7T im Thorax, Abdomen und Becken vielversprechend. Das inhärent helles Signal des arteriellen Systems in der T1wBildgebung zeigt eine hohes Potential für die MR-Angiographie ohne Kontrastmittel. Nachfolgende Studien in Patienten werden diese Sequenzen weiter evaluieren und das Erscheinungsbild verschiedener Pathologien bei 7T untersuchen. Literatur: [1] Vaughan, J.T., et al., "Whole-body imaging at 7T: preliminary results," Magn Reson Med, vol. 61, pp. 244-248, 2009. [2] Umutlu, L., et al, “Dynamic contrast-enhanced renal MRI at 7 Tesla: preliminary results,” Invest Radiol, [Epub ahead of print], 2011. [3] Snyder, C.J., et al., "Initial results of cardiac imaging at 7 Tesla," Magn Reson Med, vol. 61, pp. 517-524, 2009. [4] Maderwald, S., et al., "7T human in vivo cardiac imaging with an 8channel transmit/receive array," in Proc. of the ISMRM, p. 821, 2009. [5] Orzada, S., et al., “RF excitation using time interleaved acquisition of modes (TIAMO) to address B1 inhomogeneity in high-field MRI,” Magn Reson Med, vol.64, pp. 327-333, 2010. Abb. 1. (a) 16-Kanal-Sende-/Empfangsspule für die Ganzkörperbildgebung bei 7T. (b) T1w fettgesättigte 2D-FLASH mit Zyste der linken Niere als Zufallsbefund. (c) TrueFISP-Aufnahme der Leber und Nieren. (d) Cine-FLASH im Herzen. 19.4 Strukturelle und funktionelle MR Venographie bei 7 Tesla 1,2 M. Barth ; 1 Radboud University Nijmegen, Donders Institute for Brain, Cognition 2 and Behaviour, Nijmegen, Netherlands, University Duisburg-Essen, E.L. Hahn Institute for Magnetic Resonance Imaging, Essen, Germany. Die höhere Signalausbeute bei 7 Tesla kann dazu verwendet werden um die räumliche Auflösung in der MR Bildgebung signifikant zu verbessern. Weiters ist der sogenannte Blutoxygenierungseffekt oder auch BOLD Effekt, der in Abhängigkeit von der Blutsauerstoffsättigung in den Blutgefäßen das MR Signal beeinflusst, stärker. An Hand von Gradienten-Echo Daten mit langer Echozeit können so z.B. kleinste venöse Gefäße in der kortikalen grauen Substanz (intrakortikale Venen) sowie Substrukturen des Cortex, die kortikalen Schichten (Laminae) dargestellt werden. Durch die Verwendung von speziellen Spulen kann eine höhere räumliche Auflösung auch für die Aufnahme von funktionellen Daten erreicht werden. Durch Verwendung einer neuen Analysestrategie konnten wir dabei erstmalig die schicht-spezifische funktionelle Aktivierung im primären visuellen Cortex in Abhängigkeit von den Messparametern (Echozeit) darstellen. Neben der erwarteten hohen Aktivierung im Bereich der extrakortikalen Venen, zeigen die Ergebnisse auch eine höhere Aktivierung in den mittleren kortikalen Schichten (entspricht ungefähr der anatomischen Schicht IV, in der die afferenten Nervenbahnen terminieren) im Vergleich zu umgebenden Schichten. Dies ist konsistent mit Forschungsergebnissen im Tierversuch, die eine bessere Korrelation des BOLD Effektes mit den elektrophysiologischen Daten gezeigt haben, die neuronalem Input zugeschrieben werden. Mit dieser Studie können auch Diskrepanzen zwischen Ergebnissen laminarer Experimente durch die unterschiedliche Wahl der Echozeit gut erklärt werden. Die zeitliche Rauschsignatur über die kortikalen Schichten zeigt außerdem eine gute Korrelation mit dem laminaren Blutvolumen. 59 Session 20: Hochfeld MR II 20.1 Auswertung klinischer fMRI-Messungen mittels Korrelation mit regionspezifischen Antwortfunktionen 1 1 1 1 2 U. Klose , M. Batra , B. Bender , M. Erb , B. Brendel ; 1 Universitätsklinik Tübingen, Abteilung für Neuroradiologie, Tübingen, 2 Germany, Universitätsklinik Tübingen, Abteilung für allgemeine Neurologie, Tübingen, Germany. Einleitung: Die funktionelle MR-Bildgebung (fMRI) wird regelmäßig bei preoperativen MR-Untersuchungen des Gehirns eingesetzt, um die Lage von funktionellen Arealen in Bezug auf das geplante Operationsgebiet darstellen zu können. Dabei werden oft motorische Stimuli oder Aufgaben zur Lokalisation sprachrelevanter Areale verwendet. Die Auswertung erfolgt in der Regel mit einem Vergleich des Signalverlaufs in allen aufgenommenen Bildpunkten mit einer Rechteckfunktion. Dieses Vorgehen kann aber nicht individuelle Variationen des zeitlichen Aktivierungsverlaufes berücksichtigen, z.B. durch schwankende Aufmerksamkeit bzw. Konzentration der Patienten. In dieser Studie wurde untersucht, ob diese Einflüsse in die Auswertung einbezogen werden können, wenn der Signalverlauf in ausgewählten Aktivierungszentren anstelle der Rechteckfunktion als Referenzfunktion verwendet wird. Methoden: Bei zehn Patienten wurden fMRI-Messungen durchgeführt. Es wurde ein Design mit alternierender motorischer Bewegung (Faustschluss) und Sprachaufgabe (Bildung von Kettenworten) eingesetzt, wobei die jeweilige Anweisung über die Projektion auf eine Leinwand gegeben wurde (Blocklänge 24 s). Es wurde eine EPISequenz mit 104 Meßwiederholungen eingesetzt (TR 3 s, TE 40ms, 2 Bildmatrix 96*96, FOV 240*240 mm , 36 Schichten). Die Auswertung erfolgte mit fsl (FMRIB analysis group, University of Oxford) und umfasste eine Bewegungskorrektur und zwei t-Test-Analysen: zum Einen mit einer Rechteck-Funktion, die mit der hämodynamischen Antwortfunktion gefaltet wurde, und zum Anderen mit einer Referenzfunktion, die sich aus dem Signalverlauf in einer ausgewählten Region ergab. Diese Region wurde als eines der Aktivierungscluster in den t-Parameterbildern ausgewählt, das sich bei der RechteckfunktionAnalyse ergab. Ergebnisse: In Abb. 1 ist das Ergebnis der beiden durchgeführten Auswertungen bei einem ausgewählten Patienten dargestellt (t-maps). Bei dem Vergleich des Signalverlaufs mit der Rechteck-Funktion (gewählter Grenzwert 7) werden eine Reihe von unterschiedlichen Aktivierungsclustern gefunden. Für die zweite Auswertung wurde der Zeitverlauf im Aktivierungscluster in der perisylvischen Region als Referenz ausgewählt. Das Ergebnis der t-Wert-Analyse bei Verwendung dieser Referenzfunktion zeigt die Abb. 1 b und d. Als Grenzwert wurde hier mit t = 16 ein viel höherer Grenzwert verwendet. In dieser Darstellung werden nur noch zwei Aktivierungscluster gefunden: eines in der perisylvischen Region, das aber viel größer als in der ersten Auswertung ist, und eines im inferioren/mittleren frontalen Gyrus, der von der Ausdehnung mit der in der ersten Auswertung vergleichbar ist. Der Signalverlauf in den beiden letztgenannten Clustern (Abb.2) zeigt, dass in beiden Clustern eine erhebliche Abweichung von der RechteckFunktion vorliegt, der Verlauf in beiden Clustern aber ein hohe Synchronizität aufweist. In den Datensätzen der weiteren untersuchen Patienten war es ebenfalls möglich, ein Aktivierungscluster in der Broca-Region a) c) b) d) Abb. 1: Auswertung einer klinischen fMRIMessung durch Vergleich mit einer RechteckFunktion (a,c) und einer regionspezifischen Antwortfunktion (b,d). In der unteren Zeile sind sechs ausgewählte Schichten vergrößert dargestellt. zu identifizieren und durch eine zweite t-Test-Analyse auf der Grundlage der regionspezifischen Antwortfunktion weitere Regionen mit weitgehend ähnlichem Signalverlauf zu identifizieren. Diskussion: Die durchgeführten Untersuchungen zeigen, dass die Verwendung einer regionspezifischen Antwortfunktion eine Identifizierung von denjenigen Arealen ermöglicht, die einen sehr ähnlichen Zeitverlauf haben und von denen daher angenommen werden kann, dass sie bei der Verarbeitung des verwendeten Stimulus eine parallele Funktion haben. Bei dem untersuchten Beispiel kann davon ausgegangen werden, dass die Aktivierungscluster der zweiten Auswertung beide für die Sprachproduktion relevat sind und deshalb bei der Operationsplanung als zu schonende Gehirnareale berücksichtigt werden sollten. 20.2 Quantitative Suszeptibilitätskartierung J. R. Reichenbach; University Hospital Jena / IDIR 1 / Medical Physics Group, Jena, Germany. Die Magnetresonanztomographie hat sich in den vergangenen Jahrzehnten zu einem der bedeutendsten Verfahren der medizinischen Bildgebung entwickelt. Dies liegt nicht zuletzt an der einzigartigen Möglichkeit, eine Vielzahl verschiedenartiger und komplementärer Gewebekontraste zu erzeugen. Dazu gehören beispielweise das gezielte Ausnutzen unterschiedlicher Relaxations-, Diffusions- oder Perfusionseigenschaften zwischen verschiedenen Geweben, die auf den Bildern sichtbar gemacht werden können. Einer der letzten, bisher nicht genutzten Kontraste ist die direkte Darstellung der magnetischen Suszeptibilität. Diese Größe bildet zwar die Grundlage der funktionellen 60 Bildgebung (fMRT), in der anatomischen Bildgebung war sie aber lange Zeit nur als „Suszeptibilitätsartefakt“ bekannt. Tatsächlich ist die magnetische Suszeptibilität eine grundlegende intrinsische physikalische Gewebeeigenschaft. Bei der quantitativen Suszeptibilitätskartierung (Quantitative Susceptibility Mapping; QSM) handelt es sich um ein neuartiges Verfahren, das die Möglichkeiten der Magnetresonanztomographie (MRT) in vieler Hinsicht erweitert. Das Verfahren basiert auf dem physikalischen Phänomen, dass Objekte, die einem magnetischen Feld ausgesetzt sind, magnetisiert werden und das angelegte Magnetfeld verzerren. Mathematisch gehört die Suszeptibilitätskartierung zu der Klasse der sogenannten inversen Probleme, deren Lösbarkeit in der Regel schwierig ist und absolut artefaktfreie Eingangsdaten erfordert. Bei inversen Problemen gehen in der Regel schon geringe Fehler in den Eingangsdaten mit einer erheblichen Verschlechterung der erhaltenen Lösung einher. Unsere Arbeiten beschäftigen sich daher mit der Entwicklung neuer Strategien zur Erzeugung hochwertiger Eingangsdaten und zur Lösung des inversen Problems. Darüber hinaus wird das klinische Potential dieser neuen Methode untersucht. Veränderungen ihre Verbindungsbahnen aufweisen. Die räumliche Verteilung dieser pathologischen Änderungen passt sehr gut in das aktuelle Modell der Emotionsverarbeitung und deutet auf eine beeinträchtigte Regulation der primären emotionsverarbeitenden Areale durch den orbito-frontalen Kortex hin. Die von uns gefundenen Unterschiede in der FA bestätigen zuvor publizierte Ergebnisse (Phan, 2009). Zusätzlich konnten wir zeigen, dass diese pathologischen Veränderungen bilateral auftreten. 20.3 Veränderungen im Fasciculus Uncinatus in Sozialphobie - eine DTI Studie 1 1 1 2 1 2 J. Tröstl , R. Sladky , A. Hummer , C. Kraus , E. Moser , S. Kasper , R. 2 1 Lanzenberger , C. Windischberger ; 1 MR Centre of Excellence, Medical University of Vienna, Wien, Austria, 2 Department of Psychiatry and Psychotherapy, Medical University of Vienna, Wien, Austria. Einleitung: Diffusion Tensor Imaging (DTI) ist eine Methodik zur Erfassung der Anisotropie von Wasserdiffusion in Gewebe (Le Bihan, 2001; Mori, 2008;). Dabei wird aus den diffusionsgewichteten MRBildern für jedes Voxel ein Diffusionstensor berechnet, der die Hauptdiffusionsachsen in diesem Volumen widerspiegelt. Da im Gewebe die Diffusion durch Zellwände, Membranen und Nervenfasern beschränkt ist, ist es durch DTI möglich die anatomische Struktur in-vivo abzuschätzen. Dazu wird insbesondere die Fraktionelle Anisotropie (FA) berechnet, die die Eigenwerte des Diffusionstensors in Relation bringt und somit die Anisotropie der Diffusion wiedergibt (0 bis 1 entsprechen isotrop bis anisotrop). In dieser Studie wurde DTI erfolgreich angewandt um Unterschiede in der weißen Substanz (speziell im Fasciculus Uncinatus) von Sozialphobie (SAD) Patienten zu untersuchen. Weiters wurde Traktographie, eine Methode um Faserstrukturen im Gehirn zu visualisieren, angewandt um den Fasciculus Uncinatus (UF) zu identifizieren, eine studienspezifische Maske zu erstellen und die Ergebnisse mit der FA-Analyse zu vergleichen. Methoden: Diffusionsgewichtete MR-Bilder (15 SAD Patienten, 15 Kontrollen) wurden auf einem 3T TIM Trio Scanner (Siemens, Deutschland) aufgenommen. Gemessen wurde in 30 Raumrichtungen mit einem maximalen b-Wert von 800s/mm² und einer isotropen Auflösung von 1.6mm³. FA Bildsätze wurden in FSL (www.fmrib.ox.ac.uk/fsl/ - University of Oxford, UK) berechnet. Hierfür wurde nach Anwenden der Wirbelstromkorrektur der Diffusionstensor in jedem Voxel berechnet. Zusätzlich wurde Traktographie des UF durchgeführt. Zu diesem Zweck wurden zwei quaderförmige Seed Masken (Seitenlänge 5 Voxel) bilateral im posterioren Teil des UF nahe der Amygala hineingelegt (analog zum Traktographie Atlas der Johns Hopkins Universität, USA). Die Ergebnisse wurden normalisiert, gemittelt und gewichtet, um eine studienspezifische Maske des UF zu erhalten. Weitere Schritte wurden mit SPM8 (Wellcome Trust Centre for Neuroimaging, UCL, UK) durchgeführt. T1Bilder wurden zuerst auf die EPI Bilder ko-registriert und danach mittels der SPM8 Segmentierungs-Funktion normalisiert. Die daraus resultierenden Transformationsmatrizen wurden auf die FA Datensätze angewandt, die dann mit einem Gauß’schen Faltungskern mit einer Halbwertsbreite von 6 mm räumlich geglättet wurden. Ein zwei-Gruppen T-Test begrenzt auf den UF wurde dann mit den normalisierten und geglätteten FA Datensätze durchgeführt. Ein weiterer zwei-Gruppen TTest wurde mit den normalisierten und geglätteten (Halbwertsbreite 3 mm) Traktographie Datensätzen durchgeführt. Resultate: Im Vergleich zu den gesunden Kontrollprobanden zeigten SAD Patienten signifikant niedrigere FA-Werte im anterioren UF (p<0.05 unkorr. - MNI Koordinaten in mm: (41,33,-9), t=3.67 and (-40,39,-19) t=2.55). Zusätzlich fanden wir erhöhte FA in SAD Patienten relativ zu gesunden Kotrollen in posterioren Teilen des UF (p<0.05 unkorr. - MNI Koordinaten in mm: (30,7,-12), t=3.29 and (-29,7,-10), t=2.90). Die Analyse der Traktographie Datensätze konnte diese Ergebnisse bestätigen. Die Ergebnisse der FA-Analyse sind in der Abbildung zu sehen. Schlussfolgerungen: DTI ist eine ausgezeichnete Methode um Veränderungen in der weißen Substanz in-vivo zu untersuchen. In dieser Studie wurde gezeigt, dass Sozialphobie-Patienten spezifische 20.4 Der Einfluss von Slice-Timing-Correction auf die Qualität von fMRIDaten R. Sladky, J. Tröst, E. Moser, C. Windischberger; MR Centre of Excellence, Medical University of Vienna, Vienna, Austria. Bei funktioneller Magnetresonanztomographie wird in der Regel eine Serie von dreidimensionalen Bildern analysiert. Die Messung erfolgt normalerweise durch die wiederholte sequentielle Aufnahme von einzelnen Schichten. Die Akquisition eines 3D-Volumens dauert, je nach Mess-Parameter und -Sequenz, typischerweise zwischen 1 und 4 Sekunden. Dadurch ergeben sich allerdings zeitliche Verschiebungen zwischen den einzelnen aufgenommenen Schichten, die sich negativ auf die Ergebnisse der Analyse auswirken können (Slice-Timing-Effekt). Um diesen zeitlichen Fehler kompensieren zu können, wurde das SliceTiming-Correction-Verfahren (STC) entwickelt und in allen großen fMRISoftwarepakete zur Daten-Vorverarbeitung eingeführt (Henson 1999, Calhoun 2000). Dabei werden die einzelnen Schichten durch zeitliche Interpolation an einer Referenzschicht ausgerichtet. Obwohl diese Methodik weit verbreitet ist, gab es bisher keine valide und erschöpfende Analyse über ihre Wirksamkeit und mögliche Probleme. Da fMRI-Daten von menschlichen Probanden physiologische Variationen in der Hämodynamik aufweisen und nie frei von Bewegungsartfakten sind, wurden simulierte Daten erstellt, um den Slice-Timing-Effekt unverfälscht zu analysieren. Eine Reihe von 4DMatrizen wurde erstellt, um eine Serie von MRI-Scans mit 20 Schichten, einer Auflösung von 32x32 px2 und einer Scandauer von 300 Sekunden zu simulieren. Es wurde eine Voxelgröße von 1.5x1.5x3 mm3 gewählt, welche typisch für hoch-aufgelöstes fMRI ist. Die Zeitverläufe von jedem Datensatz basieren auf verschieden variierten Block- und EventRelated-fMRI-Designs, die mit der kanonischen hämodynamischen Response-Funktion von SPM8 gefaltet worden sind. Diese Rohdaten wurden auf eine zeitliche Auflösung von TR=1, 2, 3 und 4 Sekunden transformiert, wobei jene zeitliche Verschiebung hinzugefügt wurde, die bei der schichtweisen Aufnahme von MR-Bildern typisch ist. Außerdem wurden sowohl sequentielle (1, 2, 3, ... , 20), als auch abwechselnde (2, 4, ... 20, 1, 3, ..., 19) Aufnahmereihenfolgen der Schichten simuliert. Um die Stabilität von STC zu untersuchen, wurden unterschiedliche Grade von weißem Rauschen (CNR=1.7, 2.5, 5 und unendlich) hinzugefügt. Nach räumlicher Glättung (6 mm FWHM, isotropischer Gauß-Kern) wurde eine GLM-Analyse für alle Datensätze durchgeführt. Da die zehnte Schicht als Referenzschicht genommen worden ist, erzielten wir einen effektiven zeitliche Unterschied von ungefähr 0.5, 1, 1.5 und 2 Sekunden zwischen der am besten und schlechtesten ausgerichteten Schicht. Das Diagramm zeigt einen Vergleich der geschätzten Modell-Parameter für unkorrigierte (rot) und korrigierte (grün) Daten für die beschriebenen Versuchsdesigns und Messparameter. Die Werte wurden relativ zum höchsten Parameter der unkorrigierten und störungsfreien Daten normalisiert. Dicke Linien stellen den Durchschnitt dar, während die Flächen die Verteilung der Parameter zeigen. Die Verwendung der geschätzten Modellparameter kann als geeignetes Gütekriterium betrachtet werden, da diese schließlich auch in der Gruppenanalyse 61 verwendet werden. Wir konnten zeigen, dass STC für alle Versuchsbedingungen einen positiven Einfluss auf die Modellparameter aufweist. Außerdem sind (selbst bei stärker verrauschten Daten) keine feststellbaren Artefakte durch STC entstanden. Wir konnten mit diesen umfangreichen Simulationen Ergebnisse aus vorangegangenen in vivo Studien und Analysen von Simulationen von limitierten Datenbeständen untermauern (Sladky et al., HBM 2010). Die Resultate sprechen für einen positiven Effekt von STC auf die Sensitivität und Spezifität der statistischen Aktivitätsbilder. 20.5 Dichtegewichtete Fast Spin Echo MR-Bildgebung 1 2 1 1 1 Ergebnisse: Die kartesisch gefilterten sowie die dichtegewichteten Aufnahmen führten zu identischen PSF mit sehr kleinen Nebenmaxima. Dadurch zeigten die Bilder im Gegensatz zur ungefilterten kartesischen Aufnahme keine Gibbs-Artefakte. Der SNR-Gewinn bei GriddingRekonstruktion im Objekt beträgt in Übereinstimmung mit theoretischen Berechnungen mehr als 50%. Allerdings ist bei dieser Rekonstruktion das Field of View (FOV) durch Einfaltungen aufgrund der unterabgetasteten k-Raum-Randbereiche eingeschränkt. Die PLANEDRekonstruktion liefert einfaltungsfreie Bilder im vollen FOV. Allerdings ist der SNR-Gewinn orientierungs- und ortsabhängig etwas durch den gFaktor reduziert, liegt jedoch stets signifikant über dem SNR bei kartesischer Filterung (Bilder einer Einzelspule in Abbildung 2). M. Zeller , M. Gutberlet , D. Stäb , D. Hahn , H. Köstler ; 1 Institut für Röntgendiagnostik, Universität Würzburg, Würzburg, 2 Germany, Institut für Diagnostische und Interventionelle Radiologie, Medizinische Hochschule Hannover, Hannover, Germany. Einleitung: Ein generelles Problem der kartesischen k-Raum-Abtastung ist, dass aufgrund von Nebenmaxima in der Point Spread Function (PSF) Gibbs-Artefakte im Bild auftreten. Zu deren Reduktion werden oft retrospektiv k-Raum-Filter angewendet, die jedoch zu Verlusten im Signal-zu-Rausch-Verhältnis (SNR) und der räumlichen Auflösung führen. Bei der dichtegewichteten Bildgebung wird durch Abtasten des kRaums mit nicht-kartesischen Trajektorien ein solcher k-Raum-Filter bereits während der Aufnahme angewendet. Dichtegewichtung wurde für SE-, GRE- [1] sowie SR-Sequenzen [2] implementiert, aufgrund des Auftretens der T2-Relaxation jedoch nicht für die Fast Spin EchoSequenz (FSE). Ziel dieser Studie war es, Dichtegewichtung auf dieses Zugpferd der klinischen Bildgebung anzuwenden, was zu verbesserter Bildqualität und einem höheren SNR führt. Material und Methoden: Zur Aufnahme kartesischer sowie dichtegewichteter Bilder von Phantomen und gesunden Probanden wurde ein 3T-MR-Scanner (Siemens TRIO) mit 12-Kanal-Kopfspule verwendet. Dazu kam eine FSE-Sequenz mit folgenden Parametern für beide Verfahren zum Einsatz: TR=6000 ms, TEeff=90 ms, 324 Phasencodierschritte, Auflösung 0,8x0,8x5 mm³, Turbofaktor 9 sowie ein reversed centric-Aufnahmeschema, um lange Echozeiten zu erreichen. Bei FSE mit reversed centric-Sampling ergibt sich aus der FourierTransformation des durch T2-Relaxation bedingten exponentiellen Signalabfalls eine PSF mit stark ausgeprägten Nebenmaxima. Daher wurde der Signalverlauf bei der kartesischen Aufnahme mit einem Filter multipliziert, um eine günstigere Gewichtung herzustellen und die Nebenmaxima zu unterdrücken. Bei der Dichtegewichtung wurde diese Gewichtung, angepasst auf Relaxationszeit von weißer Substanz bei 3 T (T2=75 ms), durch Variation der Akquisitions-Abstände im k-Raum (kRaum-Dichte) erreicht. Dies ist in Abbildung 1 dargestellt. Bei der kartesischen Aufnahme (a.) ist für eine günstige Gewichtung (Hanningfunktion, grau) ein starker Filter (rot) erforderlich. Bei der Dichtegewichtung (b.) fällt die Filterung sehr viel schwächer aus, da die Gewichtung im Wesentlichen durch Variation der k-Raum-Dichte (blau) hergestellt wird. Im äußeren k-Raum-Bereich wurde die minimale kRaum-Dichte auf 0,5 limitiert, um die g-Faktoren bei Rekonstruktion mit paralleler Bildgebung gering zu halten. Die Rekonstruktion der nichtlinearen k-Raum-Daten erfolgte durch Anwendung eines Griddingbzw. eines PLANED-GRAPPA-Algorithmus [1]. Die PSF wurde durch Ableitung der Edge Spread Function an einer scharfen Phantom-Kante ermittelt. Zur SNR-Bestimmung wurde die Pseudo-Replika-Methode [3] verwendet. 62 Zusammenfassung: Die FSE-Bildgebung unter Einsatz von Dichtegewichtung vereint die Vorteile von ungefilterter und gefilterter kartesischer FSE-Bildgebung: Optimales SNR und vollständige GibbsArtefakt-Unterdrückung. Um mit kartesisch gefilterter Aufnahme einen vergleichbaren SNR-Gewinn zu erzielen, müsste die Aufnahmezeit mehr als verdoppelt werden. Literatur [1] Geier O, 2007, MAGMA 20: 19-25 [2] Gutberlet M, 2010, MRI 28: 341-350 [3] Robson P, 2008, MRM 60: 895-907 20.6 Quantitative MR-Perfusionsbildgebung am Herzen bei 1,5T und 3,0T 1 1 2 1 I. Davulcu , S. Weber , K. Kreitner , L. M. Schreiber ; 1 Klinik für Radiologie, Bereich Medizinische Physik, Universitätsmedizin 2 der Johannes Gutenberg-Universität Mainz, Mainz, Germany, Klinik für Radiologie, Universitätsmedizin der Johannes Gutenberg-Universität Mainz, Mainz, Germany. Einleitung: Eine reduzierte myokardiale Durchblutung ist der erste auftretende Effekt der koronaren Herzkrankheit (KHK). Daher erlangt die Durchblutungsmessung des Herzens mittels der strahlungsfreien Magnetresonaztomographie einen besonders hohen Stellenwert. Als Pulssequenzen für die T1-gewichtete dynamische, kontrastmittelgestützte Perfusionsmessung am Herzen kommen dabei sowohl schnelle gespoilte Gradientenechosequenzen wie SRTurboFLASH oder balancierte Steady State Sequenzen mit Präperationspuls für die T1-Gewichtung wie SR-TrueFISP zum Einsatz. Ziel dieser Arbeit war es, die beiden genannten Pulssequenzen unter für jede Feldstärke optimalen Einstellungen bei 1,5T und 3,0T für die quantitative myokardiale Perfusionsmessung zu untersuchen und zu vergleichen. Material und Methoden: Es wurden insgesamt 20 gesunde Probanden im Alter zwischen 20 und 40 Jahren sowohl bei 1,5T (Siemens Avanto) als auch bei 3,0T (Siemens Trio) mit jeweils einer SR-TurboFLASH und SR-TrueFISP Pulssequenz untersucht. Dabei wurde je eine Perfusionsmessung mit 3ml Gd-DTPA durchgeführt. Als Empfangsspule wurden eine Thorax-Spule in Kombination mit einem im MR-Tisch integrierten Rückenarray mit insgesamt 12 Empfangselementen verwendet. Bei allen Sequenzen wurde GRAPPA mit einem Beschleunigungsfaktor von 2 und 18 Referenzlinien sowie eine Präparationszeit (TI) von 100ms verwendet. Die übrigen Pulssequenzparameter TR/TE/Flipwinkel waren wie folgt: 1,5T SRTurboFLASH 1,9ms/0,95ms/20°; 1,5T SR-TrueFISP 1,88ms/0,94ms/~80°, 3,0T SR-TurboFLASH 2,52ms/1,26ms/20°; 3,0T SR-TrueFISP 1,88ms/0,94ms/~32°. Die Ortsauflösung betrug in allen Fällen 2,5x2,5x8,0mm^3. Es wurden das Signal- und Kontrast-zuRauschen (SNR und CNR) bestimmt sowie der myokardiale Blutfluss (MBF) mittels Absolutquantifizierung unter Verwendung des Models MMID4 kalkuliert und auf die Intraobservervariabilität untersucht. Ergebnisse: Trotz des deutlich reduzierten Flipwinkels der SRTrueFISP Sequenz bei 3,0T, bedingt durch die erhöhte Energiedeposition bei höheren Feldstärken, konnte diese das beste SNR und CNR erzielen (siehe Abbildung 1). In der Bestimmung des MBF konnten keine Unterschiede in Abhängigkeit der Feldstärke und der verwendeten Pulssequenz gefunden werden. Jedoch war die Intraobservervariabilität der MBF-Bestimmung, ermittelt durch die Bestimmung des sogenannten Konkordanzkorrelations-Koeffizienten, bei 3,0T höher. Dabei erzielte die SR-TrueFISP einen leicht höheren Wert als die SR-TurboFLASH Sequenz (SR-TurboFLASH bei 1,5T: 0.86, bei 3,0T: 0.89; SR-TrueFISP bei 1,5T: 0.56, bei 3,0T: 0.90) (siehe Abbildung 2). Abbildung 1: SNR und CNR Vergleich der Pulssequenzen SRTurboFLASH (Tfl) und SR-TrueFISP (Trufi) bei den verschiedenen Feldstärken von 1,5T und 3,0T. Abbildung 2: Intraobservervariabilität der Auswertungen mit SRTurboFLASH (Tfl) und SR-TrueFISP (Trufi) bei 1,5T und 3,0T. Die weißen Boxplots entsprechen dabei jeweils der zweiten Auswertung des Observers. Diskussion: Für die quantitative Perfusionsbildgebung am Herzen ist die SR-TrueFSIP Pulssequenz bei der Feldstärke von 3,0T die am besten geeignete Pulssequenz. Sie erzielt die beste Bildqualität hinsichtlich SNR und CNR und ermöglicht die beste Reproduzierbarkeit sowie die geringste Streuung der Werte bei der Absolutquantifizierung des myokardialen Blutflusses. Motivation: In der Routine-MRI-Diagnostik können pathologische Veränderungen von ca. 1mm bei Voxel-Größen von ca. 3 500x500x2000µm nachgewiesen werden. Höhere Ortsauflösungen bis zur Mikroskopie (<100 µm) wären nicht nur für die frühzeitige Diagnose in ersten pathologischen Entwicklungsphasen wichtig, sondern können auch für ein Verständnis der mikrostrukturellen Ursachen für makroskopisch-beobachtbare oder klinische Symptome im Sinne einer MR-basierten Histologie hilfreich sein. Im vorliegenden Beitrag werden Strategien zur Erzielung entsprechend hoher Auflösungen auf einen Human-Scanner mit Mikroskopie-Hardware mit klinischer Nutzeroberfläche erläutert und deren Ergebnisse und Limitierungen beim Einsatz vorgestellt. MR-Mikroskopische, kontrastreiche Bilder demonstrieren die Anwendbarkeit auf verschiedene kleine, humanbiologische Proben (ex-vivo). Die Ergebnisse einer Qualitätskontrolle werden präsentiert. Die Voxel-Grössen sind hierbei um ca. einen Faktor 3 tausend (10 ) kleiner als typischerweise in der klinischen Routine verfügbar. Materialien und Methodik: Die verfügbaren hohen Feldstärken (B0=7T) und kleine an das jeweilige Objekt angepasste sensitive Radiofrequenz (rf)-Spulen (di=15mm bis di=72mm) erlauben eine hohe Sensitivität. Die bei hohen Feldstärken starken Suszeptibilitätsartefakte und größeren chemischen Verschiebungen erfordern hohe Bandbreiten/Pixel und starke Gradientensysteme. Wir nutzen daher ein Gradienten-Insert mit einer ca. 20-fach erhöhten Gradientenstärke (G=750mT/m, innerer freier Durchmesser: 90mm) im Vergleich zu Ganzkörper-Gradienten. Damit wird ebenfalls die Selektion dünner Schichten und eine starke Diffusionswichtung möglich. Das Gradienten-Insert kann einfach auf die Patientenliege aufgebracht und in den MR-scanner (i.d.: 600 mm) eingeschoben werden. Im Rahmen einer Qualitätskontrolle wurden im wesentlichen das Signal-zu-Rausch Verhältnis (SNR) und Ortsauflösung via Modulations-Transfer-Funktion (MTF) untersucht. Hierbei kommt ein speziell für die MR-Mikroskopie entwickeltes Phantom auf der Basis von Plasmageätztem Silizium zum Einsatz, das periodische Strukturen zwischen 32µm und 512µm aufweist. SNR und Auflösung wurden systematisch für unterschiedliche rf-Detektoren, Gradientensysteme und wichtige Protokollparameter (z.B. Bandbreite, Matrix, Mittelungen) ausgewertet. Ergebnisse: Die besten Ergebnisse hinsichtlich SNR und Auflösung wurden mit einem zirkular-polarisiert detektierenden rf-Resonator (di=19mm) erzielt (Turbo-Spin-Echo-Sequenz (TSE): TM=15 min, Mtx: 3 179x704x10, Voxelgröße: 47x28x200µm ). Eine laterale Auflösung von 34µm konnte am Gitter-phantom mit einer Modulation > 50% in der Ebene der Schichtdetektion nachgewiesen werden. Die MRmikroskopischen Methodik lässt sich ebenfalls für Parameterselektive Bildgebung (derzeit T1, T2, T1rho, Diffusivität) einsetzen. 3D-Bilder mit mikroskopischer Auflösung wurden für verschiedene Human-biologische Proben (z.B. osteoarthritischer Knorpel, entnommene Menisci, Sehnen) generiert. Erste Vergleiche mit histologischen Bildern zeigen Detailreichen Kontrast. Die Interpretation vieler beobachteter feiner Strukturen ist aber aufgrund nicht ausreichender Interpretations-Erfahrung bei der hohen Auflösung nicht einfach und sollte auf der Basis von Vergleichen mit histologischen Schnitten möglichst identer Schnittführung erfolgen. Conclusio: MR-Mikroskopie auf humanen Hochfeld-MR-Scannern ist unter Nutzung zusätzlicher spezieller (nicht-kommerzieller) HardwareKomponenten mit einem Klinik-ähnlichen User-interface möglich. Derzeit beschränkt sich die Anwendung wegen der geringen Größe der Detektoren auf Kunststoffe, kleine biologische Proben und entnommene humane Gewebe (ex-vivo) im Sinne einer MR-basierten nichtzerstörenden 3D-Histologie. Die Anwendung an menschlichen Extremitäten z.B. Finger ist prinzipiell vorstellbar, erfordert aber die Zulassung bei der lokalen Ethik-Kommission unter Berücksichtigung insbes. der starken benutzen Gradienten und der elektrischen Sicherheit. Dankesworte: S. Domayer, J. Hofstätter, S. Leder, D. Stelzeneder für die Präparation der Sehnen, Knorpel- und Bandscheibenpräparate und die histologischen Schnitte; J. Friske für die Erstellung der Photos der histologischen Schnitte. E. Moser und S. Trattnig: Leiter des Hochfeld-MR-Centers Wien 20.7 Magnetresonanz-Mikroskopie auf humanen HochfeldMagnetresonanz-Scannern: Welche Auflösungen sind möglich? Perspektiven, Grenzen und Anwendungsbeispiele ex-vivo 1,2 A. Berg ; 1 Medical University of Vienna, MR Center of Excellence, Vienna, Austria, 2 Medical University of Vienna, Center for Medical Physics and Biomedical Engineering, Vienna, Austria. 63 Sciences, Lübeck, Germany. Session 21: Rekonstruktion, Visualisierung, Technologien 21.3 Assessment of partial volume effect in small animal FDG-PET: dependency on activity concentration and reconstruction method 1 1 1 1 1 J. Muellauer , R. Willimayer , J. Stanek , T. Wanek , M. Sauberer , O. 1 2 3 1 Langer , M. Mueller , W. Birkfellner , C. Kuntner ; 1 AIT Austrian Institute of Technology GmbH / Molecular Medicine, 2 Seibersdorf, Austria, Medical University Vienna / Department of Clinical 3 Pharmacology, Vienna, Austria, Medical University Vienna / Center for Medical Physics and Biomedical Engineering, Vienna, Austria. Objectives: We used hot spheres in a warm background to evaluate the partial volume effect. The aim of this study was to investigate the extent of PVE in a preclinical setting and to compare different correction methods. Methods: A NEMA micro-hollow sphere phantom with 4 spheres (7.81, 6.17, 5.02, 3.90 mm diameter) was filled with [18F]FDG. PET measurements were performed with two different acquisition settings (250-750 keV and 350-750 keV energy window) on a small animal scanner. Total activity in the field of view (FOV) ranged from 221.20±74.67 MBq to 22.75±8.73 MBq. Sphere-to-background activity concentration ratios (sph/bg ratio) of 20:1, 10:1, 5:1 and 2:1 were investigated. Images were reconstructed using FBP and OSEM-MAP with attenuation correction. Four methods for partial volume correction (PVC) were investigated: (a) the recovery coefficient (RC) method described by Srinivas et.al.(1), (b) the RC method described by Phelps et.al.(2), (c) the automatic PVC implemented in PMOD3.2 and (d) the masked based method described by Hoetjes et.al.(3). Results: For all studied concentration ratios, the highest RC values were found for the measurements with the highest activity in the FOV. RCs derived from the OSEM-MAP reconstructed images were always higher as compared to FBP reconstructed images. For the larger energy window (250-750 keV) RC values were superior to the values calculated for the smaller window (350-750 keV) for all studied concentrations. PV corrected activities of all methods were compared with the true activities and between each other. Interestingly, the simplest method for PVE correction (Phelps et al [2]) yielded the best agreement for 20:1, 10:1 and 5:1 (only for the 350-750 keV) sph/bkg ratios. For the lower concentration ratios (5:1, 2:1) the automatic PVC implemented in PMOD worked best. Only one sph/bkg ratio (5:1) could not be corrected with any PVC method. Inaccurate RCs (<0) were found for the 2:1 ratios in the smallest sphere (3.90 mm) using FBP. PVE correction showed to be slightly dependent on the activity in the field of view. Conclusion: This study was able to show the importance and impact of PVC when performing quantitative measurements in small structures. 1. S. M. Srinivas et al., Ann Nucl Med 23, 341 (Jun, 2009). 2. M. E. Phelps, PET: Molecular Imaging and Its Biological Applications. M. E. Phelps, Ed., (Springer, Berlin, ed. 1st ed. Softcover of orig. ed. 2004, 2004). 3. N. J. Hoetjes et al., Eur J Nucl Med Mol Imaging 37, 1679 (Aug, 2010). 21.4 Sparse recovery for SPECT imaging of inflammation at implants 1,2 1,2 1 M. Kleine , J. Hamer , T. M. Buzug ; 1 Institute of Medical Engineering, University of Lübeck, Lübeck, 2 Germany, Graduate School for Computing in Medicine and Life 64 The treatment of implant loosening requires a diagnosis of its cause for the operation planning of the implant replacement. If the loosening has mechanical reasons the implant may be replaced directly in one surgical intervention. On the contrary, if the loosening is caused by a bacterial inflammation this has to be factored into the operation planning. As the implant is not accessible before an operation it is the aim of this project to develop molecular imaging strategies for the noninvasive detection of bacterial inflammations. For the imaging process, substances which accumulate at bacterial inflammations on implant surfaces are marked with radioactive tracers. The radioactive decay of the tracers is then detected with a SPECT or PET measurement. Due to the fact that the number of radioactive events will be small and that the inflamed surface is embedded in an absorbing and scattering environment a precise attenuation correction, motion correction and an adapted reconstruction strategy is necessary. The attenuation coefficients can be determined by a CT scan, which can be accomplished in advance or simultaneously in case of a combined device. As the presence of metal implants usually results in severe artifacts in the CT reconstruction, these artifacts have to be corrected first to achieve more accurate attenuation values. The spatial distribution of the attenuation values can then be used in the SPECT reconstruction process as a correction term. The usual acquisition time of a SPECT examination ranges between 5 and 30 minutes. As a consequence, the acquisition will include position adjustments of the patient. These position changes provoke motion artifacts in the reconstructed image and may decrease the image quality significantly. Therefore strategies to correct linear as well as nonlinear patient motion have been developed. If the CT measurement is performed with a separate device, the technique also allows for correcting displacements between the CT and the SPECT image. This registration step is essential for a correct alignment of the spatial distribution of the attenuation coefficients. Exploiting the fact that the statistics of radioactive events are low and SPECT images are smoothened, the application of methods from compressed sensing leads to a sparse recovery for SPECT. The measurement can be modeled by the attenuated Radon transform which is a nonlinear operator. Due to discretization and noisy data the reconstruction is generally an ill-posed problem, such that regularization is needed for a stable recovery. The image reconstruction is normally achieved by iterative schemes, which are computational expensive. If sparsity is introduced as an additional constraint, this leads to faster iteration algorithms as only few important coefficients of the sparse expansion are considered. Additionally, the reconstruction with sparsity constraints can deliver images with much sharper contours, which is of interest for particular medical applications such as the presented project. Session 22: Rekonstruktion, Visualisierung II 22.1 Iterative statistische Rekonstruktion für ein hochauflösendes Medipix3-CT-System 1,2 2 2 2 2 1 J. Luebke , S. Procz , A. Fauler , A. Zwerger , M. Fiederle , M. Mix ; 1 Universitaetsklinikum Freiburg - Abteilung Nuklearmedizin, Freiburg, 2 Germany, Freiburger Materialforschungszentrum, Freiburg, Germany. Eine große Herausforderung in der computertomographischen Bildgebung ist eine weitere Reduktion der Patientenstrahlendosis bei einer gleichbleibenden Bildqualität. Eine einfache Dosisreduktion resultiert in der Regel allerdings in einem erhöhten Bildrauschen und führt zu einer schlechteren Erkennbarkeit von Niedrigkontrastobjekten und kleinen strukturellen Details. Besonders geeignet für niedrige Strahlendosen mit geringer Zählstatistik sind statistische Rekonstruktionsansätze. In der Routine-CT-Bildgebung konnte auf diese Weise der CT-Dosisindex um bis zu 65% bei gleicher Bildqualität reduziert werden [1]. Der Einsatz von photonenzählenden, direktkonvertierenden Detektoren auf Basis von Halbleitern führt ebenfalls zu einer Maximierung der Bildinformation bei einhergehender Strahlenreduzierung [2]. In dieser Arbeit soll eine Kombination einer iterativen statistischen Rekonstruktion mit dem photonenzählenden Medipix3 als Detektor vorgestellt werden [3]. Der hochaufgelöste tomographische Messplatz ist für die präklinische ex vivo und in vivo Anwendung konzipiert. Mit geometrischer Vergrößerung konnte bei zweidimensionalen Messungen bereits eine Ortsauflösung von 4µm realisiert werden [4]. Die tomographische Rekonstruktion basiert auf einem, für die Transmission modifizierten, Ordered Subset Expectation Maximization Algorithmus (mTR-OSEM) [5-6]. Um eine hohe Bildqualität zu erzielen, wurden die Aufnahmeparameter (Röntgenenergie, Akquisitionszeit, Anzahl der Projektionswinkel, geometrische Parameter des Messplatzes), die Datenvorverarbeitung (Kalibrierung der Energieschwellen, Normalisierung, Ersetzen defekter Detektorpixel) und die Rekonstruktionsparameter (Anzahl Iterationen, Anzahl Subsets, Filtermethoden) optimiert. Zusätzliche Regularisierungsmethoden wurden getestet. Die Beurteilung der Bildqualität erfolgt anhand der erzielten örtlichen Auflösung, der Homogenität, des Signal-zu-Rausch- und des Kontrastzu-Rausch-Verhältnisses. Diese dienen gleichzeitig der Optimierung der zuvor genannten Parameter. Messungen wurden mit verschiedenen Phantomen (Niedrigkontrast-, Barpattern-, Homogenitätsphantom) und biologischen Objekten (z.B. Mauspfote, Baumrinde) durchgeführt. Erste Rekonstruktionsergebnisse des Barpattern-Phantoms (Abb.1) sowie einer Mauspfote (Abb.2) zeigen bereits ohne geometrische Vergrößerung eine vielversprechende Bildqualität mit einer örtlichen Auflösung < 100µm. Die Evaluierung des entwickelten Algorithmus erfolgt mit unterschiedlicher Röntgendosis im Vergleich zu einem vorhandenen Filtered-Back-Rekonstruktionsalgorithmus. Abbildung 1: links: Rekonstruktion des Barpattern-Phantoms (28kV, 150µA, 200 Projektionswinkel, 10 Iterationen, 10 subsets, keine Filterung), rechts: Spezifikationen des Barpattern-Phantoms [7] Abbildung 2: Maximum-Intensitäts-Projektion der Rekonstruktion einer Mauspfote (28kV, 150µA, 200 Projektionswinkel, 8 Iterationen, 10 subsets, keine Filterung) [1] Hara A.K et al., “Iterative reconstruction technique for reducing body radiation dose at CT: feasibility study “, AJR Am J Roentgenol, 193(3), pp. 764 - 771, 2009 [2] Watt, J. et al., “Dose reductions in dental X-ray imaging using Medipix”, Nucl. Instr. and Meth., 513, pp. 65-69, 2003 [3] Ballabriga, R. et al. “The Medipix3 Prototype, a Pixel Readout Chip Working in Single Photon Counting Mode With Improved Spectrometric Performance”, IEEE Trans. Nuc. Sci., 54(5), pp. 1824-1829, 2007 [4] Procz, S. et al., “Energieaufgelöster CT-Messplatz mit hoher örtlicher Auflösung“, Medizinische Physik (41. Jahrestagung der DGMP Freiburg), 2010 [5] Hudson, H. M. et al., “Accelerated image reconstruction using ordered subsets of projection data”, IEEE Trans. Med. Im., 13(4), pp. 601-609, 1994 [6] Lübke, J. et al., “Statistical Reconstruction for a high resolution Medipix-CT”, IEEE RTSD Knoxville Conference Record, R08-6, 2010 [7] http://www.qrm.de/content/pdf/QRM-MicroCT-BarpatternPhantom.pdf 22.2 Simulation of Grating-based hard X-ray imaging using Monte Carlo methods 1,2 1,3 4 4 1,2 S. Peter , P. Modregger , M. K. Fix , P. Manser , M. Stampanoni ; 2 Paul Scherrer Institut, Villigen, Switzerland, Eidgenössische 3 Technische Hochschule Zürich, Zürich, Switzerland, University of Lausanne, School of Biology and Medicine Lausanne, Lausanne, 4 Switzerland, Division of Medical Radiation Physics, Inselspital – University of Bern, Bern, Switzerland. 1 Introduction: Grating-based hard X-ray imaging (GI) is a recently established imaging technique, which utilizes a combination of a phase and an absorption grating in order to facilitate phase sensitivity [1]. GI simultaneously provides three different contrast modalities: absorption, phase and dark-field contrast. Since phase contrast has been shown to be extremely sensitive to electron density variations [2], GI is especially suitable for imaging soft tissue samples for biomedical research. Numerical simulations may be used for obtaining a deeper theoretical understanding of the image formation process and, thus, for optimizing the experimental setup and the data analysis procedures. However, while phase contrast relies on beam coherence, dark-field contrast is related to incoherent scattering. Therefore, it is necessary to consider 65 both wave-like and particle-like properties of the X-rays. Scattering is conveniently simulated by Monte Carlo (MC) methods but MC neglects coherent effects such as interference and phase-shift. On the other hand coherent effects are commonly simulated using wave-optics, in which, however, scattering cannot be modeled in a straight forward way. Method and Materials: In this work, we developed a numerical framework combining MC and wave optics simulations. The simulation was split into two parts. For the first part, modeling the source and the sample, MC was used. The second part, modeling the phase and the absorption grating, was conducted using wave optics. For the MC part of the simulation EGS++ [3] was used. To connect the two parts it is necessary to have the resulting signal of the MC simulation in form of a complex amplitude. Therefore, the MC code was expanded to include the optical path length as an additional variable for each particle to track phase-shift information. Furthermore, the refraction on surfaces and total external reflection were included in the particle transport. Each particle corresponds to a plane wave, which were then coherently summed up. The resulting amplitude is passed on into the wave optics part, where it is propagated through both gratings. Finally, the three contrasts are obtained by Fourier-based analysis [1]. Simulated tomographic images are acquired by reconstructing projection images taken at different rotation angles of the sample. Results: The model was used to simulate the phase signal of several different phantoms. The reconstructed images matched the input phantoms. Conclusion: The agreement between input and output shows that the combination of MC and wave optics simulations was successful. The model can now be used for realistic investigations of the image formation process taking into account both coherence and scattering effects. For example the origin of the dark-field signal is believed to be correlated to the incoherent scattering but details are unknown up to now. References: [1] T. Weitkamp et al, X-ray phase imaging with a grating interferometer, Opt. Express 2005; 13(16):6296. [2] F. Pfeiffer et al, High resolution brain tumor visualization using threedimensional X-ray phase contrast tomography, Phys. Med. Biol. 2007 [3] I. Kawrakow et al, The EGSnrc C++ class library, NRC Report PIRS898 (rev A), Ottawa, Canada, 2009. 22.3 A statistical algorithm using Gaussian Markov Random Fields for the segmentation of PET data for Targeted Radionuclide Therapy 1,2 1 2 T. Layer , M. Blaickner , G. Matz ; 1 Health & Environment Department - Molecular Medicine, AIT Austrian 2 Institute of Technology, Vienna, Austria, Vienna University of Technology, Dep. of Communications and Radio-Frequency Engineering, Vienna, Austria. Aim: The aim of this work is to support computational treatment planning for Targeted Radionuclide Therapy (TRT) by means of cancer tissue classification algorithms. In TRT radioactive labelled tracer absorbed by tumour tissue apply dose to cancerous tissue. Segmentation of PositronEmission-Tomography (PET) data enables to distinguish between a voxel belonging to the tumour or to healthy tissue. The common clinical practice is based on threshold models which are sensitive to parameters like signal to background ratio (SBR) or tumour size. In this work statistical algorithms are implemented to overcome these dependencies. Materials and Methods: In order to evaluate the proposed algorithms measurements of a remodelled NEMA-phantom are processed, consisting of a cylindrical outer body homogeneous filled with background-activity and 6 spherical inlays homogeneous filled with foreground-activity. The Partial Volume Effect (PVE) is accounted for by replacing the biggest sphere by a sphere of 8mm diameter and 0.27ml volume. The set of spheres therefore comprises the ones with diameter [mm]/volume[ml] of 8/0.27, 10/0.52, 13/1.15, 17/2.57, 22//5.58 and 28/11.49. Different ratios of sphere-activity/cylinder-activity (SBR) have been measured (2.06, 3.84, 6.72, and 9.39). Basically a Gaussian Mixture Model (GMM) is established to estimate the volume of the sphere which represents the tumour. Markov properties are declared to the unobserved label vector (MRF) and Gibbs distributions are used for describing neighbouring dependencies. Results: Because of insufficient statistical ensembles for small spheres and by using two Gaussian distributions the estimates for background parameters work very well. Consequently the PVE voxels get included to the sphere volumes. The use of the GMRF initialized by a specific choice of Expectation Maximization (EM) procedure for Gaussian mixtures provides a better accuracy for the volumes of the spheres than with threshold methods. With decreasing S/B ratio the segmentation of spheres according to the proposed method results in an increase of the estimation errors and the loss of the smallest spheres. However at larger S/B ratios and small spheres a noticeable improvement over Fuzzy Logic approaches is observed, diminishing the error by ~50%. 66 Conclusion: Measurements for the smallest sphere (8mm) have been performed and processed for the first time within this work and demonstrated the difficulty of segmentation algorithms when applied to spatial dimensions in the same order as the voxel size. 22.4 Improving Time-of-flight PET using Silicon Photomultipliers 1,2 1 1,2 3 2,3 S. E. Brunner , G. Ahmed , L. Gruber , A. Hirtl , M. Jankovec , P. 4 1 1 Knoll , J. Marton , K. Suzuki ; 1 Austrian Academy of Sciences / Stefan Meyer Institute for Subatomic 2 Physics, Vienna, Austria, UT Vienna / Faculty of Physics, Vienna, 3 Austria, Medical University of Vienna / Department of Nuclear Medicine, 4 Vienna, Austria, Wilhelminenspital / Department of Nuclear Medicine with PET center, Vienna, Austria. Aim: Positron emission tomography (PET) has proven its clinical importance over the last years. Recent developments in detector technology led to the commercial construction of first time-of-flight (TOF) PET devices, resulting in enhanced image contrast, lower patient's dose and shorter examination times. Commercial TOF-PET-scanners with coincidence time resolutions of 500-600 ps FWHM are already available. Goal of the proposed work is the improvement of time resolution for TOF-PET towards a coincidence time resolution of 100 ps FWHM with detectors insensitive to magnetic fields. Materials and methods: To achieve this goal, silicon photomultipliers (SiPMs), which are arrays of avalanche photodiodes operated in Geigermode, are developed by our collaboration. SiPM is a novel photosensor which became available on the market recently. Along with many comparable features to the ordinary vacuum photomultiplier, it has considerably smaller size and insensitivity to the magnetic field. For testing purposes SiPMs with dedicated electronics are attached to a LSO crystal and are stabilised in temperature using Peltier elements. The first experimental setup consisted of 3x3 mm² Hamamatsu MPPC S10931-100P and the signals were read out by self developed electronics. Benchmark measurements are performed using a laser (λ = 22 407 nm) and a Na source (500 kBq). For signal visualisation a LeCroy WavePro 735Zi oscilloscope (40 Gs/s, 3.5 GHz) was used. For the development of a future TOF-PET prototype, Monte Carlo (MC) simulations using the framework GATE (Geant4 Application for Tomographic Emission) are performed to optimise the experimental setup. Results: The time resolution of the first detector prototype was measured under various conditions, i. e., overvoltage (Vover) and temperature (T) for the detector array. Additionally, the influence of different laser light intensities was investigated. At optimal parameter settings (Vover = 1.3 V, T = −10 °C) the time resolution was below 130 ps FWHM. First MC simulations indicate that the currently used setup can be extended into a full-ring PET scanner with optimised detector geometry. Conclusions and outlook: The operability of the experimental setup has been proven and showed encouraging results in terms of time resolution and detector stability. Currently, hardware upgrades of the electronics part with ASICs (application-specific integrated circuit) like, e. g., the NINO chip developed at CERN, are in progress. Additionally, simulations for optimisation of the geometry of a PET prototype are performed. Especially, the influence of variations of radius and crystal dimensions is studied in detail. These results will be implemented into the design of a TOF-PET prototype based on SiPMs with envisaged time resolution of 100 ps. For data analysis and image reconstruction dedicated software will be developed. 22.5 FFP-Trajectory Correction for Magnetic Particle Imaging T. F. Sattel, T. M. Buzug; Institute of Medical Engineering, University of Lübeck, Lübeck, Germany. Introduction: To determine the spatial distribution of superparamagnetic iron oxide nano-particles (SPIOs), Magnetic Particle Imaging (MPI) applies time varying fields [1]. Thus, a field free point (FFP) is moved through the object of interest and the SPIOs volume data can be reconstructed from induced receive signals. Due to imperfect field geometries, the FFP-trajectory is deformed, which affects the achievable image quality [2,3]. Methods: The derogation of the FFP-trajectory can be corrected for by adapting the currents on the field generating coils. For this purpose, the desired ideal field is determined for each point in time . The magnetic field coil profiles of each coil are time-invariant and can be precomputed by evaluation of the Biot-Savart law. Alternatively, they can be measured in an experimental setup. The problem of determining appropriate coil currents for magnetic field generation can be formulated mathematically as solving the inverse problem written in matrix-vector notation. For improved results, an additional weighting matrix is introduced, considering only points in close vicinity of the actual FFP position. For evaluation of this method, simulations are performed using the MPI scanner geometry and scanning pattern applied in [4]. Finally, the original and the corrected FFP-trajectories are evaluated. Results: By solving the inverse problem, the currents on the field generating coils can be adapted such that the resulting magnetic field matches a given ideal geometry. The simulation study performed for this contribution shows a distinct improvement in FFP-trajectory for the investigated MPI scanner geometry. For each point in time, the residual of the resulting magnetic field is calculated, confirming the good match of the desired field. Conclusion: The described method allows determining the currents on the field generating coils at each point in time such that the magnetic field is optimized in vicinity of the FFP. The FFP-trajectory, which originally differs from the ideal scanning pattern, can be corrected. This enables new, fast reconstruction methods without introducing new image artefacts. References: [1] B. Gleich et al, “Tomographic imaging using the nonlinear response of magnetic particles”, Nature, vol. 435, no. 7046, pp. 1214-1217, 2005 [2] T Knopp et al, “Trajectory analysis for magnetic particle imaging”, 2009, Phys. Med. Biol. 54, pp. 385 [3] H. Schomberg, “Magnetic particle imaging: Model and reconstruction”, IEEE ISBI, 2010, pp. 992-995 [4] J. Weizenecker et al, “Three-dimensional real-time in vivo magnetic particle imaging,” 2009, Phys. Med. Biol., 54, no. 5, pp. L1-L10 the mean activity for the TrueX-algorithm were used, as recommended by the manufacturer. For the TrueXAllpass with 4i21ss the coefficients were A=1.31±0.03 and B=0.23±0.01. Comparing the results for threshold and C to [1], a signifanct deviation was observed when using the Allpass-filter instead of the Gauss-filter. The mean VSUVabs2.5 reproduced 64 % of the CTV for all algorithms (4i21ss), whereas VSUVrel40% reproduced only 30%-50% of the CTV depending on the reconstruction algorithm. Compared to the OSEMalgorithm, the mean RC values were higher by 20% and 60% for the TrueXGaussian and the TrueXAllpass algorithm, respectively. Conclusion: The results for threshold or activities derived from images reconstructed with the TrueX-algorithm, especially when used the with Allpass-filter, are more sensitive to permutations of iterations and subsets than for the OSEM-algorithm. [1] Knäusl et al, ZMP,2011 22.6 Investigation of the influence of different filter settings and permutations of iterations and subsets on the TrueX algorithm in positron emission tomography 1,2 1,2 1 1 1 I. Rausch , B. Knäusl , A. Hirtl , G. Dobrozemsky , R. Dudczak , H. 3 2 Bergmann , D. Georg ; 1 2 Department of Nuclear Medicine, MUW, Vienna, Austria, Department 3 of Radiotherapy, MUW, Vienna, Austria, Center for Medical Physics and Biomedical Engineering, MUW, Vienna, Austria. Background: PET/CT imaging has become increasingly important in radiotherapy treatment planning, target volume delineation and therapy progress assessment. For absolute quantification of reconstructed PET images the standardised uptake value (SUV) is an essential quantity. It strongly depends on volume segmentation and activity estimation based on the reconstructed image. Therefore the influence of reconstruction algorithms and their settings has to be investigated in detail. In this study the influence of filter settings and of all possible permutations of iterations (i) and subsets (ss) was investigated for the OSEM and the Siemens specific TrueX-algorithm. Material and Methods: Phantom measurements with different signal-tobackground-ratios (SBRs) were performed on a Siemens Biograph64 PET/CT Scanner (Siemens, Medical Systems). A NEMA IEC/2001 Image Body Phantom consisting of a liquid filled cylinder with plexiglass spheres (0.27, 1.15, 2.57, 5.58, 11.49ml) was used. All measurements were reconstructed using the OSEM and the TrueX-algorithm with all permutations of iterations (2, 4, 8) and subsets (4, 8, 14, 21), e.g., 2i4ss for 2 iterations and 4 subsets. The Gauss-filter was used for both algorithms whereas the “Allpass-filter” was used only for the TrueXalgorithm. All results were compared to 4i21ss. For threshold-based volume segmentation and activity determination the software Rover (ABX, Dresden) was used and the data were analysed with R (v.2.12.1). For activity evaluation the recovery coefficient RC (measured activity divided by true activity) and its inverse, the correction factor C, were determined. Additionally, images of five PET examinations of irradiated lung tumour patients were reconstructed using OSEMGaussian, TrueXGaussian and TrueXAllpass with 4i21ss. Volumes were delineated using a fixed threshold (absolute SUVmax=2.5g/ml (VSUVabs2.5); relative SUVmax=40% (VSUVrel40%)) and compared to the CTV. Results: For large spheres (>= 2.57ml) a constant threshold was found for a given SBR and algorithm for all settings. The mean threshold for these spheres was calculated according to TH=a+b/SBR. For TrueXAllpass the following parameters were found: a=23.6±0.8, b=55.7±3.0. Compared to the results of the 4i21ss fitting curve, the deviation of the threshold was highest with about 45% for 2i4ss for a SBR of 2.06 for all algorithms. Increasing the number of iterations and subsets lowered this difference, as expected. The correction factor was fitted according to Calgorithm=A*exp(B/VSphere). The maximum activity for the OSEM and 67 Session 23: Biochemische und molekulare Informationen im MRSignal: Spektroskopie und mehr 23.1 State-of-the-Art Lecture: X-Kern (Natrium) Bildgebung in vivo L. Schad; Universität Heidelberg / Computerunterstützte Klinische Medizin, Mannheim, Germany. 1 Neben dem Wasserstoff ( H) können prinzipiell auch andere MR-aktive 23 35 39 Atomkerne (X-Kerne), wie Natrium ( Na), Chlor ( Cl), Kalium ( K), etc. zur Bildgebung der Gewebevitalität genutzt werden, obwohl die Messung eines X-Kern Signals u.a. aufgrund der niedrigen Konzentration im Gewebe und des zumeist sehr niedrigen gyromagnetischen Verhältnises deutlich schwieriger ist. Ein klinisch interessantes Thema zur Messung der Gewebevitalität mittels X-Kern Bildgebung bietet die Schlaganfallforschung, wo es wenige Minuten nach dem Verschluss einer hirnversorgenden Arterie wegen mangelnder Zufuhr von Metaboliten und Sauerstoff zu einem Abfall von Adenosintriphosphat (ATP) mit Funktionsverlust der Na/K-ATPase kommt. Dadurch können die Nervenzellen ihr Membranpotential nicht mehr aufrechterhalten. Der daraufhin folgende Einstrom von Natrium und Chlorid in die Zelle führt zum einen zur Freisetzung exzitatorischer Aminosäuren (Glutamat) und zum anderen zu einem Anschwellen der Zellen (zytotoxisches intrazelluläres Ödem), das mit einer Einschränkung der Wasserdiffusion einhergeht. Natriumionen spielen eine wesentliche Rolle bei der Aufrechterhaltung des zellulären Gleichgewichts, da sie einen elektro-chemischen Gradienten über die Plasmamembran hinweg aufbauen. Durch diesen Gradienten werden im Hirngewebe die Osmose reguliert, der pH-Wert stabilisiert und Aktionspotentiale entlang der Axone weitergeleitet. Die extrazelluläre 23 Na Konzentration in den intra- und extravaskulären Kompartimenten beträgt etwa 140 mM; intrazellulär ist die Konzentration wesentlich geringer und liegt bei etwa 10 mM. In der weißen Hirnsubstanz, in der dicht gepackte Gliazellen den Hauptvolumenanteil bilden, nimmt der Extrazellulärraum etwa 6-20% des Gesamtvolumens ein. Die Natrium-Bildgebung bietet somit die einmalige Möglichkeit, aufgrund der Änderung der Natriumkonzentration (gesundes Gewebe liegt bei etwa 18-36 mM) die Vitalität des Hirngewebes nach Schlaganfall zu bestimmen. MR-Messtechniken zur Natrium-, Chlor- und KaliumBildgebung, erste Ergebnisse einer experimentellen Schlaganfallforschung in Ratte/Maus bei 9.4 Tesla, sowie erste Pilotversuche am Menschen bei 3 Tesla werden vorgestellt. 23.2 CE Lecture: Grundlagen und Anwendungen der MagnetresonanzSpektroskopie C. Boesch; University & Inselspital, Bern, Switzerland. Bevor die Erfolgsgeschichte der Magnetresonanz in der klinischen Diagnostik begann, war die NMR-Spektroskopie („nuclear magnetic resonance spectroscopy“) in den Labors der Chemie, Physik, und Pharmazeutik bereits fest etabliert. Heute existiert wohl kein Medikament, welches nicht bei der Entwicklung oder mindestens bei der Produktion mit NMR in Berührung kam und die molekulare Struktur von vielen Chemikalien bis hinauf zu Proteinen und anderen grossen BioMolekülen wäre noch unbekannt. Die Magnetresonanz-Spektroskopie (MRS), d.h. die in vivo Variante der NMR, konnte bis heute nicht mit dem Erfolg von der in vitro NMR oder der MR-Bildgebung mithalten, obwohl die nicht-invasive Untersuchung des Stoffwechsels enorm attraktiv wäre. Es hat mehrere Gründe dafür, wobei die hohen Anforderungen an die Geräte (Feldstärke, Feldhomogenität, Frequenzen der verschiedenen Kerne, usw.) ein Hauptgrund sind. In diesem Einführungsvortrag sollen die Grundlagen der MRS erarbeitet werden und es soll gezeigt werden, wie die räumliche Lokalisierung der MR-Spektren funktioniert und wie die zusätzliche Dimension (chemische Verschiebung) wichtige Informationen über das untersuchte Gewebe gibt. Während die klassische MR-Bildgebung sich weitgehend auf die Beobachtung von Wasserstoff und da fast ausschliesslich auf die Beobachtung von Wasser und Fett limitiert, funktioniert ein beachtlicher Teil der MRS Anwendungen via andere Kerne als Wasserstoff, so z.B. über 13-Phosphor oder 13-Kohlenstoff. Diese Isotope sind weniger MRsensitiv als Wasserstoff und stellen zudem nicht immer 100% des beobachteten Elements, was zu einer drastischen EmpfindlichkeitsReduktion führt. Da die interessanten Stoffwechselprodukte zudem um viele Grössenordnungen weniger konzentriert sind als Wasser, sind die 68 relativen Empfindlichkeiten der MR Spektren von nicht-WasserstoffKernen in Stoffwechselprodukten um viele Zehnerpotenzen kleiner als die Bildgebung von Wasser/Fett. Korrigiert werden muss dieser Nachteil über grössere Volumina, respektive über kleinere räumliche Auflösung als bei der Bildgebung. Damit lässt sich auch der optimale Einsatz der MRS abschätzen, der nicht so sehr in fokalen, räumlich begrenzten Läsionen liegt, sondern in der Untersuchung von systemischen Erkrankungen und physiologischen Vorgängen. Erfolgreiche humanmedizinische Anwendungen der MRS sind neben vielen anderen Beispielen bei Studien der Insulinresistenz zu finden. Wenn man bedenkt, dass je nach Land über 40% einer Altergruppe (vor allem bei älteren Menschen) an Insulinresistenz leiden und dass diese Erkrankung einen Grossteil der Herzkreislauf-Erkrankungen mit gigantischer Kostenfolge für die Gesundheitssysteme verursacht, dann wird die Bedeutung von nicht-invasiven Studien mittels MRS klar. Mit der zusätzlichen Verfügbarkeit von Hochfeld-MR Geräten in klinischer Umgebung wird sich die MRS dank besserer spektraler Auflösung und höherer Empfindlichkeit weiter entwickeln können. Wichtig ist aber, dass hauptsächlich die Stärke der MRS für systemische, nicht-fokale Erkrankungen verstanden und die MRS dementsprechend eingesetzt wird. 23.3 Optimierung der Auswertung von MR-Spektren aus dem Hirnstamm 1 2 2 1 2 A. Gröger , R. Schäfer , R. Kolb , D. Berg , U. Klose ; Zentrum für Neurologie, Abteilung Neurodegeneration, Hertie-Institut für klinische Hirnforschung, Universität Tübingen, Tübingen, Germany, 2 Abteilung für Diagnostische und Interventionelle Neuroradiologie, Universitätsklinikum Tübingen, Tübingen, Germany. 1 Einleitung: Der Hirnstamm gilt wegen erhöhten magnetischen Feldstörungen als problematische Region für die MR-Spektroskopie. Durch Verwendung kleiner Voxel können aber Spektren mit guter Qualität erhalten werden (Gröger, 2011). Allerdings war die Standardauswertung mit LCModel aufgrund stark variierender Basislinien deutlich fehlerbehaftet (Helms, 1999; Emir, 2010) und ein Vergleich der Metabolit-Konzentrationen nicht möglich. Ziel der Arbeit war es daher, die Randbedingungen für die LCModel-Analyse so zu optimieren, dass eine Quantifizierung der Metabolite ohne Basislinieneffekte möglich wurde. Methoden: Es wurden 22 junge gesunde Kontrollpersonen (24 - 30 Jahre) mit einer 3D-CSI-Sequenz (TE = 30 ms, TR = 1,3 s, Voxelgröße 6 3 × 6 × 7 mm ) im Bereich des Hirnstamms untersucht. Die Spektrenauswertung erfolgte mit LCModel Version 6.2-2B (S. W. Provencher) in dem Bereich von 3,9 ppm bis 0,8 ppm. Der LCModel-Algorithmus analysiert ein in vivo-Spektrum als Linearkombination von einem Satz in vitro-Modellspektren. Bei der Linearkombination aller in einem Spektrum enthaltener Substanzen sollte eine flache Basislinie übrig bleiben, die in ihrer Neigung nur von der Flanke des deutlich intensiveren Wassersignal beeinflusst sein kann (Seeger, 2003). Der verwendete StandardBasisdatensatz enthielt alle 17 empfohlenen Modellspektren sowie fünf simulierte Makromoleküle. Nur Laktat wurde aus der Simulation ausgeschlossen. Die Randbedingungen wurden durch Simulation weiterer Signale derart optimiert, dass die Bedingungen einer flachen Basislinie und einer vernachlässigbaren Differenz zwischen dem gemessenen Spektrum und der berechneten Anpassung erfüllt waren. Ergebnisse: Insgesamt wurden 88 qualitativ gute Spektren (Signal-zuRauschen: 9,3 ± 1,8, Linienbreite: 0,079 ± 0,021 ppm) mit identischem LCModel-Protokoll ausgewertet. In allen Fällen wurden die Bedingungen einer flachen Basislinie und einer vernachlässigbaren Differenz erfüllt. Dafür wurden insgesamt 11 weitere Signale zwischen 1,81 ppm und 3,78 ppm durch Simulation in die Auswertung eingeführt. Die Ergebnisse sind beispielhaft für ein Spektrum in Abb. 1 dargestellt. Innerhalb der untersuchten Gruppe konnten so stabile Werte für die Konzentrationen der drei Hauptmetabolite N-Acetylaspartat, Kreatin und Cholin (Tab. 1) ohne zusätzliche Korrekturen (Spulenlast, Skalierung auf Wassersignal) erhalten werden. Diskussion: Es konnte gezeigt werden, dass die Optimierung der Anpassungsparameter für die LCModel-Analyse zu stabilen MetabolitKonzentrationen innerhalb einer Gruppe von Probanden führt. Die verbesserte Anpassungsqualität war gekennzeichnet durch eine flache Basislinie und eine vernachlässigbare Differenz zwischen dem gemessenen Spektrum und dem berechneten Fit. Vier der 11 eingeführten Signale könnten Glycin, Cystein (LCModel Manual) und Vitamin C (Terpstra, 2004) entsprechen. Durch die Erhöhung der Freiheitsgrade ist das System jedoch deutlich überbestimmt, was die Stabilität der Ergebnisse, besonders bei Metaboliten geringer Konzentration, beeinflussen kann. Referenzen: Gröger et al., Eur Radiol 2011. Helms, Magn Reson Imaging 1999; 17:1211-1218. Emir et al., NMR Biomed 2011; 24: 263-269. Seeger et al., Magn Reson Med 2003; 49:19-28. Terpstra et al., Magn Reson Med 2004; 51:225-229. Tab. 1: Abgeschätzte Konzentrationen für N-Acetylaspartat, Kreatin und Cholin. Metabolit NAA+NAAG Cr+PCr GPC+PCh NAA/Cr Konzentration rostral [mM] 118,3 ± 16,0 79,5 ± 10,8 23,5 ± 3,4 1,51 ± 0,17 Konzentration caudal [mM] 112,7 ± 15,7 81,3 ± 10,2 27,4 ± 4,4 1,40 ± 0,14 Verhältnis rostral/caudal 1,06 ± 0,11 0,98 ± 0,10 0,87 ± 0,11 1,08 ± 0,11 Abb. 1: Die LCModel-Auswertung mit Standard-Parametern (links) und mit optimierten Parametern (rechts). den Modelllösungen wurden T1rho-Zeiten in Abhängigkeit von den genannten Parametern und der Spinlock-Feldstärke gemessen. Für Kreatin wurde der theoretisch zu erwartende Signalverlauf beobachtet, das heißt die lineare Abhängigkeit von R1rho = 1/T1rho von der Konzentration, die exponentielle Abhängigkeit vom pH und die Lorentzförmige Abhängigkeit als Funktion von B1. Als Referenz ohne chemischen Austausch wurde mit Kontrastmittel versetztes Wasser gemessen, wobei sich der Theorie entsprechende Werte ergaben. Hier ist T1rho = T2 unabhängig von der Spinlock-Feldstärke. Es konnte eine T1rho-Abhängigkeit von der ChondroitinsulfatKonzentration beobachtet werden, was die Bewertung von Knorpel mit T1rho rechtfertigt. Eine Reduktion der Glykosaminoglykane gilt als frühes Zeichen für Knorpeldegeneration. Exemplarisch wurden Bilder eines gesunden Knies aufgenommen und die T1rho-Zeiten bestimmt. Auf diesen Bildern wurde der Knorpel mit gutem Kontrast dargestellt, Knorpelgewebe zeigte die erwartete exponentielle Abnahme des Signals als Funktion der Dauer des Spinlock-Zustands. Planungen sind derzeit darauf ausgerichtet, Anwendungen für diese Untersuchungstechnik zu erschließen. 23.5 1H contrast mechanism via Parahydrogen Self Refocussing 1,2 2 2 1 J. F. Dechent , L. Buljubasich , H. W. Spiess , L. M. Schreiber , K. 2 Münnemann ; 1 Universitätsmedizin der Johannes Gutenberg-Universität, Mainz, 2 Germany, Max Planck Institut für Polymerforschung, Mainz, Germany. 23.4 Untersuchung des Protonenaustauschs zwischen Metaboliten und Wasser mittels Spinlock-Bildgebung T. Rentrop, B. Schmitt, P. Bachert; DKFZ/Medizinische Physik in der Radiologie, Heidelberg, Germany. NMR-Methoden, die chemische Austauschprozesse abbilden, liefern in vivo über morphologische Aussagen hinaus Informationen über kleine Metaboliten im Gewebe. Es gibt verschiedene Techniken, mit denen Aussagen über den Austausch von Protonen (1H) zwischen freien Wassermolekülen und darin gelösten Stoffen gewonnen werden können, z. B. CEST (Chemical Exchange Saturation Transfer) oder T1rho Bildgebung. Als T1rho (T1-Relaxationszeit im rotierenden Koordinatensystem) wird die Zeitkonstante der Signalabnahme während eines Spinlock-Experiments bezeichnet. Der Spinlock eines Spinsystems wird erzeugt, indem nach Anregung (90°-Puls) das B1-Feld durch eine 90°-Phasenverschiebung parallel zur Transversalmagnetisierung eingestellt wird. Da Spinlock nur auf ein Ensemble von Protonen mit der Resonanzfrequenz des rotierenden Koordinatensystems (d.h. auf die Protonen des freien Wassers) wirksam ist, gilt für Protonen mit abweichenden Resonanzfrequenzen (aufgrund der chemischen Verschiebung) die Spinlock-Bedingung nicht. Mit dem Bindungspartner der Protonen ändert sich auch ihre Resonanzfrequenz, das heißt, durch chemischen Austausch verlassen Protonen den Spinlock-Zustand. Dadurch wird der Magnetisierungsvektor der freien Wassermoleküle beeinflusst, der zur Bildgebung verwendet wird. Weil der chemische Austausch von pH-Wert, Temperatur und Konzentration der beteiligten Stoffe abhängt, sind auch Rückschlüsse auf physiologische Parameter möglich. Anwendungen sind unter anderem die Bewertung von Knorpel, Früherkennung von Demenzerkrankungen und die Diagnostik von Tumoren Unter der Annahme eines Zwei-Pool-Modells, beschrieben durch die Bloch-McConnell-Gleichungen, lässt sich ein analytischer Ausdruck für die T1rho-Relaxationszeit herleiten [Trott, O.; Palmer, A.: J. Magn. Reson., 154, 157, 2002]. Relevant sind Parameter wie die Frequenz des Spinlock-Pulses und seine B1-Amplitude, sowie die Austauschrate zwischen den beiden Pools, deren Resonanzfrequenzen und Konzentrationen. Das Ziel dieser Studie war, unter kontrollierten Bedingungen den analytischen Ausdruck zur Berechnung der T1rho-Zeit zu überprüfen. Die Experimente wurden an einem 3-T-Ganzkörper-Tomographen (Magnetom Trio; Siemens, Erlangen) durchgeführt. Mit Kreatin und Chondroitinsulfat wurden wässrige Lösungen verschiedener Konzentrationen und pH-Werte angesetzt. Die Spinlock-Präparation erfolgte mit zwei phaseninvertierten Spinlock-Pulsen, anschließend wurde mit einer Turbo-FLASH-Sequenz Bildgebung durchgeführt. An Introduction: Locating tiny amounts of interesting molecules within a large number of other molecules is a major challenge in molecular imaging. In magnetic resonance imaging (MRI) their signals are usually concealed by the large proton background signal of the body. Hyperpolarization can overcome this issue by increasing the signals up 1 to five orders of magnitude. For the most widely used MRI nucleus H, however, this strategy is limited. The enormous number of thermally polarized protons in the body screens the small amount of hyperpolarized ones. The presetned approach makes use of different 1 temporal evolution of the H-antiphase signal of Parahydrogen Induced Polarization (PHIP)[Natterer&Bargon, Prog.Nucl.Magn.Reson.Spectrosc 1 (1997)] compared to that of the thermal signal of the H-background. By choosing an optimal echo time for detection of the PHIP antiphase signals this new contrast can be simply implemented in any MRI pulse sequence. 1 Experiments: A typical sample tube for the H-imaging experiments contained: 500mg 1-hexyne and 10mg hydrogenation catalyst dissolved in 2600mg of acetone-d6. After pressurizing the tube with 3.5bar of enriched p-H2 outside the tomograph stray field it was subsequently moved into the magnetic field and shaken, thus starting the parahydrogenation reaction. After placing the NMR sample tube inside 1 the phantom the H-MRI experiments were performed (1.5-Tesla Magnetom Sonata, SiemensMedical). Results & Discussion: Figure 2 shows that the intensities of the thermally and hyperpolarized regions of the images at different echo times follow the temporal evolution of the corresponding FIDs. A clear determination of the two areas was achieved by signal intensity. In a subtraction image of echo times 15.8ms and 10.0ms (Figure 3) a separation can be accomplished by signal sign. This method allows for a clear partition even when T2* is equal. Conclusion: In conclusion, a novel 1H-MRI contrast (ParaHydrogen Antiphase Self Refocussing, PHASER) was developed, which allows for selective detection of a small number of hyperpolarized protons with an antiphase NMR/MRI signal in the presence of a large number of thermally polarized protons. The contrast arises from the different time evolution of the antiphase proton signal compared to the thermal proton signal. PHASER can be used with all commonly applied imaging sequences, by choosing optimal echo times for the antiphase signal. Figures: Figure 1: Left: 3D-scheme of phantom used for MRI experiments. Center tube is filled with PHIP substance (orange), outer tube contains water (blue). Right: FIDs originating from the whole phantom. The blue signal originates from thermally polarized water and thermally polarized 69 PHIP substance. The red signal is generated by thermally polarized water and hyperpolarized PHIP substance. 1 Figure 2: H-MR-images acquired with different echo times overlaid on thermally and hyperpolarized FIDs (gradient echo sequence, flipangle: 10°, repetitiontime: 45ms, bandwidth: 600Hz, resolution: 0.7mm/pixel and total acquisition time: 3.96s. Figure 3: Subtraction image (echo times 15.8-10.0 ms) allowing for 22 separation of area with thermally polarized protons 6.691·10 22 protons/cm³ (blue) and area with hyperpolarized protons 0.001·10 protons/cm³ (red) by sign. Hyperpolarized signals appear positive due to signal rise from 10.0ms to 15.8ms, thermal ones negative due to T2* relaxation. 23.6 First MRI of Micro-Fluid Jets with In-bore DNP of 1H at 1.5 T 1 2,1 2 1 M. Terekhov , J. Krummenacker , V. Denysenkov , K. Gerz , T. F. 2 1 Prisner , L. M. Schreiber ; 1 Johannes Gutenberg University Medical Center Mainz, Mainz, 2 Germany, Goethe University Frankfurt,Institute of Physical and Theoretical Chemistry and Center of Biomolecular Magnetic Resonance, Frankfurt-am-Main, Germany. Motivation: Magnetic Resonance Imaging (MRI) is one of the most powerful techniques of non-invasive medical diagnostics. The physical sensitivity of the MR-images being the key issue of providing clinically relevant information is generally inferior in comparison with other imaging methods (e.g. PET). One of the approaches with great potential of improvement of the sensitivity and contrast of MRI is hyperpolarization, i.e. creating a nuclear polarization larger than in Boltzmann equilibrium. DNP is a technique, in which hyperpolarization is achieved by microwave irradiation of electron spins in radicals, which are coupled to the imaged nuclear spins. Due to significant difference of electron and nuclear magnetic moments the increasing of the NMR signal by two orders of magnitude is possible. Typically, DNP is achieved in an external polarizer, in the solid-state at low temperatures, with subsequent melting and shuttling the imaging agent into MRscanner. Being optimal for signal enhancements, the requirement to shuttle practically prohibits the use nuclei with short T1 relaxation times, 1 like H. Additionally, hyperpolarization achieved is scaled down by the factor between the polarizer and the imaging field. To circumvent these 1 we use liquid-state “Overhauser DNP” at 1.5 T for H nuclei that allows placing the polarizer core inside the MRI magnet very close to the imaging objects and the delivery of hyperpolarized (HP-) agent in continuous flow mode. Materials and methods: The microwave source for DNP is a synthesizer tunable from 40 to 45 GHz. The energy is transferred to the brass resonator (hollow-bore cylinder, ID=11 mm) inside scanner magnet by a waveguide. The hyperpolarized agent in the resonator streams through a ID=0.4mm quartz capillary. The flow is achieved using injection pump. The resonator outlet capillary has ID=0.15 mm. The 0.4 mm Plexiglas flat-cell is used as a phantom. The 2D-cell excludes partial volume effect and allows estimation the DNP signal 70 enhancement with intrinsic reference of thermally polarized sample. The 1 H MR-images were detected using 1.5T Sonata MR-Scanner (Siemens, Erlangen, Germany) using a 20mm loop coil. Sample (24 mmol/l TEMPOL solution) was streamed with flow rate of 12-30 ml/hours. SpinEcho and Gradient-Echo sequences have been tested. Results and Conclusion: Fig 1 and 2 shows the jet of HP-sample from the outlet capillary of resonator into the flat cell filled with sample at thermal polarization. While traveling through the cell the HP-sample creates a steady-state signal intensity distribution. Because of the negative enhancement of the NMR signal by DNP, it passes through zero intensity, creating a dark region before it reaches thermal polarization. These results demonstrate the ability to create a continuous flow of a hyperpolarized liquid sample directly in the 1.5 T field and to obtain MRI of micro-fluid jets in real time. The limiting factor of the setup is the amount of HP-sample produced (few microliters/second). A manifest improvement step would be to enlarge the resonator cavity and sample flow speed. However, maintaining of HP buildup time would require larger microwave power. Session 24: Biochemische und molekulare Informationen im MRSignal: X-Kerne und spezielle MRIAnwendungen 24.1 Flussmessung fluorinierter Kontrastgase mittels 19F-MRT unter Hochfrequenzbeatmung J. Friedrich, J. Rivoire, M. Terekhov, L. M. Schreiber; Universitätsmedizin der Johannes Gutenberg-Universität, Mainz, Germany. Einleitung: Die Hochfrequenzbeatmung (HFOV: High Frequency Oscillatory Ventilation) ist eine protektive Beatmungsmethode, die vor allem bei Patienten mit ARDS (engl.: Acute Respiratory Distress Syndrome) angewendet wird. Während der HFOV werden kleine Tidalvolumina mit Beatmungsfrequenzen zwischen 5 - 12 Hz appliziert, um eine ventilationsbedingte Lungenschädigung zu vermeiden. Um die an der HFOV beteiligten Gastransportmechanismen untersuchen zu können, wurde die Bewegung fluorinierter Kontrastgase während HFOV mittels 19F-Gas-MRT untersucht. Material und Methoden: Sämtliche Messungen wurden an einem 1,5 Tesla Tomographen (Magnetom Sonata, Siemens Erlangen) durchgeführt. Heptafluoropropan (C3F7H) und Oktafluorozyklobutan (C4F8) wurden als Kontrastgase eingesetzt. Ihre transversalen Relaxationszeiten im Bereich von 15 - 20 ms sind lang genug, um eine Geschwindigkeitsmessung mittels MRT durchführen zu können. Ein 1,5 m langes, gerades Plexiglasrohr mit einem quasi ovalen Querschnitt und einem Durchmesser ähnlich der menschlichen Trachea sowie ein symmetrisches Bifurkationsmodell aus Plexiglas dienten als Messphantome für die Experimente. Zur Bestimmung der Geschwindigkeiten innerhalb der Phantome wurde eine gespoilte Gradientenecho-Sequenz verwendet. Unter konstantem Fluss wurden zunächst für drei verschiedene Volumenströme (40, 30 und 20 L/min) die Geschwindigkeitsprofile des Gases C3F7H im geraden Rohr ermittelt. In einer weiteren Messung unter konstantem Fluss wurde die Geschwindigkeitsverteilung in der Bifurkation in Frequenz- sowie in Phasenkodierrichtung gemessen. Zur Aufnahme der Geschwindigkeitsprofile unter HFOV wurde das MR-Gerät durch den Ventilator getriggert. Es wurden zwei Messungen bei 7 und 10 Hz mit jeweils 28 Geschwindigkeitskodierschritten (14 Referenzbilder + 14 Geschwindigkeits-kodierte Bilder) durchgeführt. Diese zwei Messungen wurden mit einer Projektionsmethode, bei der nur die Phasenlinie im Zentrum des k-Raums aufgenommen wurde, mit hoher Zeitauflösung wiederholt. Ergebnisse: Die Flussprofile, die sich unter konstantem Fluss im geraden Rohr entwickelten, zeigten turbulentes Verhalten (siehe Abb. 1). In der Bifurkation konnten die Geschwindigkeitsmessungen in Phasenund Frequenzkodierrichtung so kombiniert werden, dass das Geschwindigkeitsvektorfeld einer Ebene über die gesamte Bifurkation hinweg ermittelt werden konnte. Unter HFOV konnten erste, über 5 Pixel gemittelte Geschwindigkeitsprofile für 7 und 10 Hz ermittelt werden. Die Projektionsmethode erlaubte hier eine deutlich höhere Anzahl an Mittelungen bei dennoch geringerer Gesamtmesszeit. Diskussion: Für alle drei Volumenströme stimmen die gemessenen Profile gut mit den theoretischen Profilen nach dem 1/7-Potenzgesetz [H. Oertel, M. Böhle; Vieweg; 2004] überein und beweisen damit die Umsetzbarkeit von Flussmessungen mit fluorinierten Gasen mittels MRT. Unter HFOV zeigten die gemessenen Geschwindigkeiten eine sehr große Schwankung, die sich auf das geringe Signal-Zu-RauschVerhältnis (SNR) zurückführen lässt. Die Projektionsmessung ermöglichte hier eine größere Anzahl an Mittelungen. Dies verbesserte das SNR und damit den Fehler in der Geschwindigkeitsbestimmung deutlich ohne die Messzeit zu verlängern. Nachteil ist hier, dass es sich um in Phasenkodierrichtung gemittelte Geschwindigkeiten handelt und keine Rückschlüsse auf die Gestalt des Profils gezogen werden können. Dennoch erlaubt diese Methode Rückschlüsse auf die Weiterleitung der Druckwelle und mögliche Änderungen der Beatmungsfrequenz im Phantom. 24.2 Produktion von hyperpolarisiertem 129Xe durch optisches Austauschpumpen 1 1 2 1 3 M. Schnurr , F. Borgosano , G. Antweiler , M. Berger , D. Höpfel , P. 1 Bachert ; 1 Deutsches Krebsforschungszentrum, Abt. Medizinische Physik in der 2 Radiologie, Heidelberg, Germany, Universitätsklinikum Schleswig3 Holstein, Lübeck, Germany, Hochschule Karlsruhe für Technik und Wirtschaft, Karlsruhe, Germany. 129 Hyperpolarisiertes Xenon ( Xe) wird als signalstarker Tracer in der MRBildgebung und NMR-Spektroskopie eingesetzt. Im Kleintierexperiment kann zum Beispiel das durch Spin Exchange Optical Pumping (Rb - Xe) hyperpolarisierte und vom Rubidium (Rb) gereinigte Xe-Gas appliziert werden, sodass Lunge und Atemwege im MR-Tomograph abgebildet werden können. Die Vorgänge beim Erzeugen von hyperpolarisiertem Xe-Gas müssen genau verstanden werden, um einen hohen Grad an Hyperpolarisation zu erhalten. Wir benutzen einen von Stephan Appelt (FZ Jülich) gebauten Prototyp eines Xe-Polarisators. Mit dieser Anlage wird durch Heizen Rb-Dampf erzeugt und die Rb-Atome werden durch rechtszirkular polarisiertes Laserlicht (cw-Leistung: 60 W) optisch in einen metastabilen Zustand gepumpt. Die angeregten Rb-Atome übertragen ihre Elektronenspinpolarisation durch Stöße auf das Kernspinsystem der Xe-Atome. Der Grad der Hyperpolarisation wurde in einem 1.5-T-Ganzkörpertomographen (Magnetom Avanto; Siemens, Erlangen) mit einer am DKFZ gebauten Volumenspule für Xe (f0 = 17,615 MHz, 8 cm Durchmesser) bestimmt. Nach Installation des Geräts wurden umfassende Umbauten, darunter eine automatisierte Ansteuerung der Anlage, sowie Sicherheitstests durchgeführt. In den anschließenden Experimenten wurde der Zusammenhang des Polarisationsgrades von Xe mit den makroskopischen thermodynamischen Größen Temperatur (60 °C - 200 °C) und Druck (2 atm - 7 atm) sowie der Flussrate (6 l/h - 30 l/h) des Gases in Messreihen überprüft und optimiert. Dabei konnte der Grad der Hyperpolarisation von zuvor PXe = 0,01 % (relativ zu thermisch polarisiertem Xe) um zwei Größenordnungen auf derzeit PXe = 1,5 % 1 erhöht werden. Thermisch polarisierte Protonen ( H) in Wasser im menschlichen Körper haben im Vergleich hierzu eine sehr geringe -6 Polarisation von nur ca. 10 bei B0 = 1.5 T und T = 310 K. Wir konnten experimentell zeigen, dass die Hyperpolarisation ab einer bestimmten Temperatur aufgrund der ansteigenden Rb-Dichte exponentiell abnimmt, sich mit zunehmendem Druck verringert und auch von der Flußrate abhängt, in Übereinstimmung mit der Theorie. Desweiteren wurde der direkte Zusammenhang der Laserabsorption der Rb-Atome mit der Hyperpolarisation des Xenons, der Laser-HeatingEffekt und die Temperaturabhängigkeit der chemischen Verschiebung gemessen. Mit diesen Kenntnissen und Optimierungen des Systems sind nun die Voraussetzungen geschaffen für Kleintierexperimente mit hyperpolarisiertem Xe zur Untersuchung der Ventilation der Lunge, der Dispositionskinetik von Xe im Organismus und der chemischen Verschiebung von Xe-Resonanzen in vivo. 24.3 Free vs. Forced: model-free characterization of 3He MRI dynamic lung ventilation measurements in forced inspiration and free-breath administration mode 1 2 1 1 1 1 M. Terekhov , M. Gueldner , J. Rivoire , U. Wolf , K. Gast , J. Friedrich , 2 1 S. Karpuk , L. M. Schreiber ; 1 Johannes Gutenberg University Medical Center Mainz, Mainz, 2 Germany, Johannes Gutenberg University, Intsitute of Physics, Mainz, Germany. 3 Motivation: Dynamic ventilation (DV) of lung measured with He MRI is an efficient tool to study the intrapulmonary gas inflow processes. The common approach to data analysis is using a model function to fit the signal-time curve in region of interest. The obtained non-linear fit parameters (rise-times and mean slope) are ambiguous and (more important) strongly dependent on the “tracheal input” (TI) determined by the applied bolus shape-volume profile. We performed a comparison of 3 two ways of He administration which leads to extremely different shapes of bolus input: short bolus (SB) delivered by applicator unit (AU) in free breathing mode and 2) forced inspiration from a Tedlar bag (TB) via a thin high resistance tube resulting in a prolonged bolus (PB) duration 3 To analyze the He signal-time dependence we propose: 1) the MRsignal in lung parenchyma is linearly proportional to gas volume flow through trachea and 2) the transport of gas in parenchyma is diffusive. In this case the signal could be described as S(t+dt)=S(t)+Aout·(Si(t) -Sout(t)) · dt. Here, Aout denotes the “regional transport” which characterizes the 3 rate of He delivery in ROI. This equation can be solved in terms of 71 linear transfer function (LTF) which transforms the input signal Si(t) into regional output Sout(t). The transfer function will be fully determined by -1 -1 -1 -1 the value Aout as TF(z)=Aout z / (1-(1-Aout )z . Thus, finding the TF, the rate of the regional gas delivery could be characterized by the single parameter Aout without using any artificial model functions. Materials and method: All measurements were performed using a broadband MRI system (Sonata, Siemens, Erlangen) with a double tune 3 19 He/ F birdcage resonator (Rapid Biomedical, Germany). Mixture 3 200:300ml of He :N2 was administered in TB and AU mode (2 repetitions, n=10 volunteers). The SGRE sequence, 0 TE=0.9/TR=2.2ms/FA=2 , matrix=128x64, FOV=400mm provides temporal resolution of 7 fps. The input signal intensity Si was determined in ROI on the top of the trachea part where the time-signal bolus profile measured by MRI is close to the volumetric data provided by AU. The coefficient Aout was searched by “golden section” minimization of the standard deviation between transformed input and actually measured signals Sout(t). Results and Discussion: The results show that the LTF-approach can 3 be applied to characterize data of DV with He-MRI. The discrepancy between application modes in terms of LTF shows that “forced” TBapplication leads to strong changes of gas transport in parenchyma in 3 comparison with “free-breath” (AU). The kinetic of delivered He amount could not be described by first order differential equation, probably because the fine tube and high pressure gradient required to overcome the resistance leading to higher velocity of gas in trachea and convective mechanism has stronger effect in parenchyma in comparison with non“ resistive AU-application. Therefore the higher order derivations of input function” should be accounted for to build the appropriate model difference equation and regional transfer function. Probandenmessung bestimmt wurden. Der zeitliche Verlauf des flächengemittelten Massenanteils des Kontrastmittels wurde auf mehreren Querschnittsflächen zwischen Einlass und Auslass bestimmt und mithilfe dieser Kurven die Varianz der VTF entlang des Gefäßes bestimmt. Ergebnisse: Die Ergebnisse zeigen, dass der Kontrastmittelbolus unter Ruhebedingungen stärker dispergiert ist als unter Stressbedingungen (Abb. 1). Die Varianz am Gefäßauslass beträgt unter Stress bei doppelt so großer mittlerer Einlassgeschwindigkeit nur etwa ein Viertel der Varianz unter Ruhe. Die Variation der Herzfrequenz auf 120/min resultiert in einer geringen relativen Abweichung der Varianzwerte von weniger als 2% für die Ruhe- und 1% für die Stressbedingungen. Die durchgeführten Veränderungen der Systolen-Diastolen-Dauer führen ebenso nur zu einer relativen Abweichung von weniger als 1%. 24.4 Simulation der Kontrastmitteldispersion in der myokardialen MRPerfusionsmessung: Einfluss von physiologischen Herzparametern D. Graafen, J. Hamer, R. Schmidt, S. Weber, L. M. Schreiber; Universitätsmedizin der Johannes Gutenberg-Universität, Mainz, Germany. Zielsetzung: Zur Quantifizierung des myokardialen Blutflusses (MBF) wird neben der Signal-Zeit-Kurve im Myokard eine arterielle Inputfunktion (AIF) benötigt, die in der Regel aus dem Blutsignal im linken Ventrikel (LV) abgeschätzt wird. Die Quantifizierung der Perfusion erfolgt durch ein pharmakokinetisches Modell wie MMID4 (NSR, Washington). Der Kontrastmittelbolus kann auf dem Weg zwischen dem LV und dem myokardialen Gewebe aufgrund z.B. des Strömungsprofils und Effekten an Stenosen dispergieren. Die Dispersion kann mathematisch durch die Faltung der linksventrikulären AIF mit einer vaskulären Transportfunktion (VTF) beschrieben werden, deren Varianz den Grad der Dispersion wiedergibt. Dispersion führt zu einer systematischen Unterschätzung des MBF. Ziel dieser Arbeit war die Untersuchung des Einflusses verschiedener Herzparameter (Herzfrequenz, Systolen- zu Diastolendauer) auf die Bolusdispersion mithilfe numerischer Strömungssimulationen (CFD). Material und Methoden: Die Simulationen wurden an einem vereinfachten, zylinderförmigen Koronargefäß (L=10cm, D=3mm) mit physiologischen pulsatilen Strömungen durchgeführt. Die Simulationen wurden für den myokardialen Fluss unter Ruhebedingungen (Mittlere Geschwindigkeit: 0,25m/s; Herzfrequenz 60/min) und durch Skalierung der Amplitude und der Frequenz ebenso unter Stressbedingungen (0,5m/s; HF: 66/min) durchgeführt. Um den Einfluss der Herzfrequenz auf die Dispersion zu bestimmen, wurden die Pulsprofile (Ruhe und Stress) zusätzlich auf eine Frequenz von 120/min zeitlich skaliert. Die Variation der Systolen- zu Diastolendauer wurde am Ruheprofil durch Streckung der Systolendauer um den Faktor 0,5 und 1,5 unter Konstanthaltung der Herzfrequenz und der mittleren Geschwindigkeit realisiert. Die Injektion des Kontrastmittels wurde mithilfe einer GammaVariate-Funktion beschrieben, deren Parameter aus den Daten einer 72 Abbildung 1. Einfluss der mittleren Einlassgeschwindigkeit und der Herzfrequenz. Die mittlere Grafik zeigt einen Überblick über die Varianzentwicklung entlang des Gefäßes unter Ruhe- und Stressbedingungen. Die obere und untere Grafik zeigen jeweils Vergrößerung des Varianzverlaufs am Ende des Gefäßes. Diskussion: Die Dispersion des KM-Bolus wird hauptsächlich durch die mittlere Einlassgeschwindigkeit beeinflusst. Weitere Herzparameter, wie die Herzfrequenz und die Systolen- zu Diastolendauer, scheinen die Dispersion im physiologischen Bereich nur gering zu beeinflussen. Die Simulationen wurden an vereinfachten Gefäßen durchgeführt. Zur genaueren Bestimmung der Dispersion sind weiterführende Simulationen an detaillierten, physiologischen Koronargefäßmodellen notwendig. Eine Abschätzung des Effekts war jedoch im Rahmen der Arbeit möglich. Insbesondere konnte gezeigt werden, dass für zukünftige Simulationen an physiologischen Koronargefäßmodellen die zugehörige Messung von detaillierten Pulsprofilen nicht notwendig zu sein scheint, da sie nur einen geringen Einfluss auf die Dispersion haben. 24.5 Anisotropic phantom measurements for quantitative use of diffusion tensor imaging in clinical practice J. Berberat, S. Rogers, L. Boxheimer, G. Lutters, L. Remonda; Kantonsspital Aarau, Aarau, Switzerland. Introduction: Diffusion weighted MRI applications are increasingly used in clinical practice, including neuronavigation or novel radiation therapy planning for brain tumours. Therefore good quality assurance (QA) is important to avoid clinical errors. Diffusion tensor imaging (DTI) parameters are dependent on imaging data quality as well as the tracking algorithm and its predefined parameters. A hardware phantom containing fibers crossing at a sub-voxel level was used for the QA [1]. Fractional anistropy (FA) analysis was performed, and the geometrical resolution was verified with this phantom. We also compared two analytical programs to evaluate the programs for implementation into clinical practice. Material and Methods: Data acquisition (EPI DTI: voxel size of 2x2x2, matrix size 128x128, 63 slices, TE=99ms, TR=7700ms, b-factor 1000 2 s/mm , 21 diffusion-encoding directions, 3 signal averages followed with T1 VIBE sequence: fatsat., scan duration 3 min, TR=6300ms, o TE=2380ms, matrix 256x256, flip angle 12 , slice thickness 1.0mm, 192 slices) was performed on Siemens 1.5T Avanto MRI-scanner with an eight channel head array coil at room temperature. We compared two analytical programs (Neuro-3D: Siemens, Erlangen, Germany) and BrainVoyager QX v2.1 (BrainInnovationBV: Maastricht, The Netherlands) to evaluate the programs for implementation into clinical practice. Results: FA results were very reproducible within each program (Fig. 1A-B). However, significant differences in FA values were found when comparing the results between the two software programs (Fig. C). Geometrical resolution of the anatomical dataset was satisfactory. Conclusions: Diffusion tensor imaging can be used in highly quantitative modalities, i.e. radiation therapy planning or neuronavigation, subject to accurate quality assurance. Phantom QA is necessary before using DTI for neurosurgical procedures or radiation therapy planning to identify the uncertainties associated with the complex analysis of DTI data. It is important to remember that the results are software-dependent and may vary between different software products. Figure 1. To test reproducibility of the results, the DTI scan was repeated three times in two different orientations. Five ROIs were chosen and fractional anisotropy (FA) values were determined. Results are presented in one of the three measurement directions. (A) The FA (Neuro-3D) and (B) FA (Brainvoyager) values are highly reproducible. (C) Histogram analysis showing the variation between the results of the two analytical software programs. [1] Pullens et al. J Magn Reson Imaging 2010; 32:482-88 4 Radiology, Heidelberg, Germany, 4Department of Diagnostic Radiology, University Medical Center Schleswig-Holstein, Kiel, Austria. Introduction: In T1-weighted(T1w) MR-imaging fat is hyperintense due to its short T1- relaxation time.Fat-suppression-techniques, based on the fat/water chemical shift,can be used to extend the dynamic range of the non-fatty tissue to differentiate between lipid and non-lipid tissue components.Three choices of fat-suppression are commonly available,i.e. Quick-FatSat (Q-FS) [1], Spectrally selective Adiabatic Inversion Recovery (SPAIR-FS) [2] and Water-Excitation (WE-FS) [3].To our knowledge,an evaluation of these fat-suppression-techniques has not been presented so far for radial acquisitions with the k-spaceweighted image contrast (KWIC) view-sharing method [4].Therefore,we performed a qualitative and semi-quantitative comparison of QFS,SPAIR-FS and WE-FS using in vitro and in vivo measurements at a 1.5-T clinical whole-body-system (Avanto, Siemens AG Healthcare Sector, Erlangen, Germany) to guide further optimization of clinical abdominal-MRI. Methods: Imaging experiments were performed to demonstrate the influence of the various fat-suppression techniques for the 3D-Cartesianvolume interpolated gradient-echo-sequence(VIBE) and the 3D-radialVIBE(rVIBE)-sequence with KWIC-view-sharing-reconstruction.In vitro: For the phantom measurements,8 vials(height 10cm,calibre 2.8cm,volume 50mm³) were filled with isotonic sodium solution and doped with different Gd-DTPAconcentrations(Magnevist,Schering,Berlin,Germany) in a range of 010mM with one vial per dose.The vials were placed upright into a bowl filled with lard. In vivo: Measurements of the abdomen were performed in a healthy volunteer during free-breathing where written informed consent was obtained prior to the examination(female,31years,60kg). Both in-vitro and in-vivo measurements were performed using the combination of a 12-channel-thorax and 24-channel-spine RF-coil-array with following parameters:TR/TE=7.19/2.38ms,FA=10°;FOV=343x343 2 mm ,acquisition matrix=256x256;ST=5mm; slab thickness = 200mm; images/slab=40; BW=850 Hz/pixel; TA/volume=0:59-2:15 Min. For the rVIBE-sequence,the number of radial views was set to 400.The selected TR was the smallest possible value for WE-FS,and the selected TE of 2.38ms was the smallest possible value to achieve fat suppression with an opposed-phase condition. 24.6 The Influence of the various fat suppression techniques in radial gradient echo T1w imaging with k-space weighted image contrast (KWIC) for abdominal MRI 1 1 2 2 3 M. Salehi Ravesh , G. Bauman , K. T. Block , R. Grimm , J. Dinkel , M. 3 1 3 3,4 Puderbach , W. Semmler , H. Schlemmer , C. Hintze ; 1 German Cancer Research Center/Division of Medical Physics in 2 Radiology, Heidelberg, Germany, Siemens AG, Healthcare Sector, 3 Erlangen, Germany, German Cancer Research Center/Division of Results: Figure 1 shows the relationship between the measured MRsignal,normalized to the signal in the vial without contrast agent,and 73 contrast agent(ca)-concentration of the dilution series.Independent of the k-space sampling used (Cartesian or radial),the MR-signal increases first with increasing ca-concentration and then from a certain caconcentration transits to a non-linear relation,and finally to a plateau.The curves for VIBE and rVIBE of WE-FS differ by 10%,while for the other techniques the difference is less than 1% of the relative signal-intensity over the entire range of ca-concentration.Figure 2 shows eight equally windowed MR-images of the liver from the volunteer study,which were acquired with different k-space sampling using otherwise same sequence parameters.The images in the upper row were acquired with Cartesian k-space-sampling and the images in the bottom row with the radial k-space-sampling. Discussion: The in-vivo results indicate that the rVIBE-sequence during free-breathing provides an excellent image quality without motion artifacts compared to the conventional VIBE.Among the Cartesian images,the image acquired with WE-FS(d) shows minimal motion artifacts.However,the fat-suppression on this image is very inhomogeneous compared to the corresponding image with radial kspace-sampling(h).The comparison of the images acquired with the rVIBE-sequence(e-h) leads to the conclusion that,first,the fat suppression is in abdominal-MRI necessary to achieve a high contrast between lesion and surrounding tissue.Second,the Q-FS provides better efficacy and homogeneity of fat saturation compared to SPAIR-FS and WE-FS,which is in agreement with the in-vitro results.Q-FS or SPAIR-FS allow for shorter total acquisition-times due to the reduced TR-value compared to WE-FS,which is beneficial in the clinical routine. References: [1]Hatfield,E.etal.MagnetomFlash2008,2; [2]Lauenstein,T.C.etal.JMRI2008,27:1448-1454 [3] th Sala,E.etal.Proc.11 Intl.Soc.Mag.Reson.Med.,2003,Ontario,Canad; [4] Song,H.K.etal.MagnResonMed.2000Dec,44(6):825-32 24.7 Development of a T1rho-Pulse Sequence for MR-Imaging and MRMicroscopy on a Siemens Ultrahigh-Field Magnetic Resonance Scanner S. Berger, C. Horn, A. Berg; Medical University of Vienna, Center for Biomedical Engineering and Physics & MR-Center of Excellence, Vienna, Austria. T1rho-weighted MR is a prospective approach to resolve structures, e.g. healthy and pathologic tissues, which give only a poor contrast when being investigated with conventional T1- and T2-weighted imaging. Particularly, T1rho-weighted imaging is highly sensitive to processes occurring at low frequencies (0.1 - 100 kHz), thus being directly dependent on intrinsic biophysical and chemical properties of the investigated tissues. The variation of the spin-locking (SL) amplitude b1 within the T1rho pulse sequence allows to interact with different molecular and magnetic processes occurring at different time scales. In the last years the benefits of T1rho-weighted MR for diagnosis were identified in a variety of tissues. However, T1rho pulse sequences do not belong to the standard pulse sequences of clinical applications and in most cases are not available from the manufacturer. Clinical T1rho applications are restricted to standard MR systems with e.g. 1.5 T and 3 T. Investigations using T1rho-weighted imaging with higher magnetic fields are rare at all. The aim of the presented work is to present the newly developed T1rho pulse sequences for running on a Siemens ultrahigh-field (B = 7T) MR scanner (IDEA-platform). The new sequences are also implemented on a microimaging system for MR-microscopy allowing spatial resolutions down to 32 µm. The sequence implementation features a user controllable interface for artefact compensation of B0 and b1 inhomogeneities. The pulse sequence, its variations for B0 and b1 inhomogeneity and first evaluation results on a MR microimaging insert for reference gels are presented. The unique combination of T1rho-contrast, ultrahigh-field and microscopic resolutions allows novel investigations ex vivo, in histology, in polymer gel dosimetry, as well as on anorganic materials,e.g. various implants and composites, and in solid state science. In principle the sequences can be applied also in vivo but without microscopic resolution and limitations due to SAR. 74 Session 25: Biomedizinische Technik I 25.3 Imaging method for quantification of pulmonary ventilation using dorsal microphone grid and frequency analysis 1 2 1 1 3 B. Balzer , K. Sohrabi , M. Scholtes , V. Groß , U. Koehler ; 1 2 TH Mittelhessen, Giessen, Germany, ThoraTech GmbH, Wettenberg, 3 Germany, Uni-Klinik Marburg, Marburg, Germany. Introduction: The aim was to analyze and to visualize the specific pulmonary ventilation. Contrary to conventional static lung function analyzes like scintigraphy, we tend to establish a novel imaging method which allows visualizing dynamic pulmonary ventilation. Respiratory sounds are generated by turbulent flow in bronchial tube and contain frequencies from 75 Hz till 2000 Hz accumulating in low-frequency. Methods: We used the new ThoraView device (ThoraTech GmbH, Germany), which consists of a dorsal sound-sensor-grid, which were placed on subject’s back. The ThoraView device also contains a processing and recording unit. Synchronous breathing flow was detected by a pneumotachograph and recorded parallel for comparison. The measurement took 5 minutes for each subject. Subsequently, the sensor position was marked (with Adalat 5mg from Bayer) and we scanned the subject’s lung in MRI. The evaluation algorithm which is based on a frequency analysis transforms the recorded sound signals of each sensor into dynamic ventilation and visualizes it in the particular location in front of the MRI lung image. Flow-intensity was coded in color like ultrasonic evaluation of blood-flow. Results / Conclusion: Up to now, 20 of 40 subjects were measured in this pilot study. We have achieved the visualization of specific lung ventilation using evaluation of sound intensity. This new method is noninvasive and does not need any radiation, but delivers a qualitative and quantitative evaluation of the particular pulmonary areas. Further investigations are necessary to evaluate the ThoraView device in clinical use. 25.4 Left ventricular assist devices in patients suffering heart failure with normal ejection fraction: investigation of their potential use by a computer simulation study C. Wirrmann, F. Moscato, H. Schima; Center for Medical Physics and Biomedical Engineering, Vienna, Austria. Background: About half of the heart failure patients presenting symptoms and signs of heart failure have a normal ejection fraction. This condition has been defined as heart failure with normal ejection fraction (HFNEF). While prevalence of HFNEF increased over a 15-year period, the rate of death from this disorder remained unchanged with little, if any, evidence of conventional heart failure therapies benefits. Although mechanical assistance was used in HFNEF patients only in very few and isolated cases, no systematic investigation of the potential benefits of such a treatment was done. In this study the potential use of rotary blood pumps as a treatment option for HFNEF patients was investigated by means of hemodynamic computer simulations. Materials and Methods: A numerical model reproducing the hemodynamics of HFNEF patients at rest and during exercise was developed using literature patient data. The numerical model of the cardiovascular system was implemented in Matlab®-Simulink® and comprised active atria and ventricles, systemic and pulmonary circulations and autonomic feedback loops for proper modeling exercise hemodynamic response. Values of heart rate (HR), end diastolic pressure (EDP), systemic arterial pressure (SAP), left atrial pressure (LAP), stroke volume (SV), as well as cardiac output (CO) were used to compare the computer model against the literature data. A rotary blood pump was added for left ventricular assistance to the model and the hemodynamic effects at rest and during exercise of three different pump speeds (2500, 3000 and 3500 rpm) were investigated. Results: The computer simulation could well reproduce the significant hemodynamic values of HFNEF patient within the standard deviations provided from the literature data. At rest, a LVAD support of 3000 rpm lead to a reduction of HR (-18,7%, mediated by the baroreflex), EDP (57,3%), LAP (-46,8%) and SV (-15,2%), and to an increase of CO (+6,9%) and MAP (4,5%). Speed could not be further increased without inducing ventricular suction. During exercise, maximal LVAD support of 3500 rpm lead to a reduction of HR (-14,3%, mediated by the baroreflex), LAP (-50,4%) and EDP (-58%), and to an increase of CO (+17,1%), SV(+1,3%) and MAP (+6,4%). Conclusion: The simulation results show that a LVAD could resolve the pathologic hemodynamics of heart failure with normal ejection fraction at rest but foremost during physical activity thus additionally strongly increasing the cardiovascular performance in HFNEF patients. For all these reasons, LVADs could represent a viable option for the treatment of this form of heart failure. 25.6 Simulation der Bild- und Dosisentstehung für eine quasimonochromatische laser-getriebene Röntgenquelle in der Mammographie 1 25.5 Spectrum analyses of catheter signals based on ultrasound raw data I. Erbeck, A. Poelstra, H. Overhoff; University of Applied Sciences Gelsenkirchen, Gelsenkirchen, Germany. Introduction: The success of a high dose rate (HDR) brachytherapy of the breast depends strongly on the position of catheters. To determine their location stereotactic mammography or even CT image volumes are widely-used. While mammography can give only restricted insight into the spatial relations, CT is a resource consuming modality and is associated with ionizing radiation. 3-D ultrasound is a promising alternative for image based catheter detection but suffers from poor image contrast. In ultrasound images of a breast containing catheters, bright, straight lines in different depths z visualize either catheter or tissue structures. Bmode image pixels relate to short time samples of focused receive raw data (A-lines). Primary investigations had shown, that the threshold of the postprocessed sample amplitude Ath and fixed lower and upper cut off frequencies (fl, fu) of the sample’s bandpass-like Fourier spectrum are significant parameters to distinguish between catheter and tissue pixels. However, it seemed that depth dependent cut off frequencies could optimize the segmentation result. Hypothesizing that for small depths, the cut off frequencies decrease with increasing depth, it is investigated the relation between the depth and the frequency content with the help of a breast tissue model. Methods: Via the Research Interface of a MyLab70 ultrasound system (Esaote Europe B.V., Maastricht, The Netherlands), focused receive raw data, i.e. A-lines, of 18 volumes of 7 catheters placed in different depths in turkey breast were acquired. Focus and frequency settings were varied so that for each catheter, data were recorded with optimal and improper parameter settings. The data were analyzed and reconstructed to images using MATLAB; each image has a size of NI × NJ and the gray scale values g(i, j), with 1 ≤ i ≤ NI, 1 ≤ j ≤ NJ, in which z = i·Δz, Δz = c/fs, fs = 50 MHz, c = 1540 m/s; the gray scale values represent post-processed A-line samples. For raw data samples whose corresponding pixels comply with g(i, j) ≥ Ath the Fourier spectrum was determined. The identified spectrum was assigned to the depth z(i) of the raw data sample having the maximal amplitude of all raw data samples used to calculate the respective spectrum. For analyses of large numbers of images, mean values of frequency amplitudes were regarded if several spectra had to be assigned to one depth z. As far as the uncertainty principle of time and frequency allows, the relation between depth z and frequency amplitudes can be observed. Results: Fig. 1 shows the depth dependent frequency content of 36 images containing 5 catheters. It can be observed that the occurrence of high frequencies decreases with depth. Whereas all catheter signals include frequencies around 4 MHz, low positioned catheters also contain the first harmonic of around 8 MHz. Conclusion: A classification of catheters on the basis of frequency content can be optimized if cut off frequencies are related to the depth, i.e. fl = fl(z), fu = fu(z). Especially regarding the base frequency in combination with the first harmonic seems to be a promising approach. 2 1 2 B. Müller , H. Schlattl , F. Grüner , C. Hoeschen ; 1 Ludwig Maximilians Universität München, Garching, Germany, 2 Helmholtz Zentrum München, Neuherberg, Germany. Um das Verhältnis aus der Bildqualität zu der erzeugten Strahlendosis in der Mammographie zu verbessern, ist es notwendig neue Röntgenquellen auf ihre Anwendbarkeit in diesem Gebiet hin zu untersuchen, da es immer schwieriger wird die dort eingesetzten Röntgenröhren weiter zu optimieren. Es wurde die Bild- und Dosisentstehung in der Mammographie mit einer innerhalb des Exzellenzclusters “Munich Center for Advanced Photonics” entwickelten quasi-monochromatischen Röntgenquelle untersucht. Diese Röntgenquelle verwendet laser-beschleunigte Elektronen um in einem Undulator, bestehend aus einer periodischen Anordnung von Permanentmagneten, Synchrotronstrahlung zu erzeugen. Die dadurch erzeugte Strahlung ist nahe zu monochromatisch und besitzt eine sehr geringe Strahldivergenz. Die Simulation der Bildentstehung in der Mammographie wurde mit dem Geant4 Monte Carlo Software-toolkit durchgeführt, unter der Verwendung von hochaufgelösten Voxelmodellen der Brust, die aus CT-scans von anatomischen Präparaten erzeugt wurden. Eine quantitative Analyse der Bildqualität der dadurch erzeugten Mammographien und der berechneten Dosen zeigt, dass es möglich ist, mit quasi-monochromatischen Röntgenquellen die Dosis im Vergleich zur Mammographie mit polychromatischen Röntgenröhren, erheblich zu reduzieren. Fig.1 75 Session 26: Biomedizinische Technik II 26.01 Micromechanics of Lamellar Bone stiffness alignment along the axial direction with a small average helical winding around the osteon axis, (Figure 4). Thus, the experimental results oppose the numerical outcomes of the twisted- and orthogonal plywood pattern, but support the 5-sublayer- and the x-ray diffraction based pattern. A. G. Reisinger, D. H. Pahr, P. K. Zysset; Technische Universität Wien/Institut für Leichtbau und Strukturbiomechanik, Wien, Austria. The hierarchical structure of bone tissue has been investigated intensively in the last century. Whereas bone composition is described in increasing detail, the microscopic mechanisms leading to the remarkable macroscopic mechanical properties are still barely understood. In this work, the hierarchical organization of lamellar bone, the most abundant bone type in humans and many mammals, is reflected in a multiscale material model that provides anisotropic elastic estimations for the characteristic microscopic bone entities. In that way, a relation between composition and morphology of bone's microstructural motives to its macroscopic elastic behavior is established. This work demonstrates that variations in composition and inherent orientation lead to differences in the elastic behavior of lamellar bone on higher length scales. The utilized numerical models allow for a qualitative and quantitative prediction of bone tissue elastic constants. The study is a step toward a deeper understanding of the structure_mechanical function relationship of lamellar bone. 26.02 Visualisierung der Fähigkeiten von Prothesenhänden First, the mineralized collagen fibril, the extrafibrillar matrix and the subsequent fibril-array, are modeled using a multiscale mean-fieldmethod, (Figure 1). Fibrils contain collagen- type I molecules that are periodically reinforced by mineral platelets. Fibrils are embedded in an extra-fibrillar matrix that consists of a network of non-collagenous proteins and mineral. This composite, the uniaxial fibril-array, is the basic structure from which all higher hierarchical levels of lamellar bone are built. The influence of mineral and collagen volume fractions, their spatial distribution and elastic properties as well as the effects of porosity on the fibril-array stiffness is investigated. Calculations show that tissue mineralization and collagen stiffness are crucial parameters for describing lamellar bone axial and transverse stiffness, whereas mineral distribution and fibril volume fraction are less relevant, (Figure 2). Second, the obtained elastic properties of the fibril array are used as an input for a finite-element unit-cell model of the bone lamella, (Figure 1). The fibril alignment in the lamella rotates according to a fibril orientation pattern. Four known patterns were compared regarding the resulting bone lamella anisotropy and stiffness. The widely known twisted plywood and orthogonal plywood patterns lead to in-plane rather isotropic elastic properties. Unsymmetrical patterns like the 5-sublayer pattern, the x-ray diffraction based pattern lead to a privileged stiffness direction that is inclined to the osteon axis, (Figure 3). In the cylindrical setup of an osteon, in which the lamellae are circumferentially disposed, this inclination-angle brings about a helical stiffness winding around the haversian channel, (Figure 1). Third, the numerically obtained anisotropic elastic properties of bone lamellae were related to nanoindentation experiments on human osteons. They were performed on three distinct planes on a single osteon to assess the lamella inplane stiffness in multiple directions. All investigated osteons appeared to be anisotropic with a preferred 76 T. Feix; Otto Bock Healthcare Products GmbH, Wien, Austria. In der Vergangenheit war das Ziel in der Entwicklung von neuen Handprothesen die Erhöhung der Menschenähnlichkeit. Dazu wurden immer mehr Gelenke und Aktuatoren hinzugefügt, sodass die Prothese zu einem sehr komplexen System wurde. Die Komplexität wurde zum Teil so hoch, dass die Funktionen nicht mehr richtig gesteuert wurden und folglich ihr Potential nicht ausgeschöpft wurde. Aktuelle Prothesensteuerungen erlauben eine zeitgleiche Bewegung von einem Freiheitsgrad; die Bewegung von mehreren Freiheitsgraden muss sequentiell abgearbeitet werden, was den Ablauf wesentlich verlangsamt. In letzter Zeit kam es zu einem Paradigmenwechsel. Das Ziel ist nun Hände zu entwickeln, die wenige Freiheitsgrade besitzen, aber trotzdem ein hohes Maß an Fingerfertigkeit erlauben. Die Anzahl der benötigten Steuersignale soll gerade so hoch sein, dass auch wirklich das komplette Bewegungsspektrum der Hand gesteuert werden kann. Solche Hände sind einfacher zu entwerfen und billiger zu produzieren. Zusätzlich können sie leichter und robuster gebaut werden, beides wichtige Faktoren für die Akzeptanz bei Prothesenträgern. Um eine menschliche Hand-Konfiguration zu definieren, bedarf es einer Vielzahl von Parametern (z.B. Gelenkswinkelangaben). Die Hand ist deshalb mathematisch schwer handhabbar, und viele Analysen werden unmöglich. In dieser Arbeit wurde ein System geschaffen, welches dieses Problem umgeht indem es die Bewegungen der Hand in einen zweidimensionalen Raum projiziert. Dieser zweidimensionale Raum kann sehr leicht visualisiert werden und ist leichter handhabbar. In diesen Raum, der von der menschlichen Hand erzeugt wird, werden die Bewegungen einer Prothesenhand projiziert. Das erlaubt einen direkten und intuitiven Vergleich von Prothese und menschlicher Hand. Kann die Prothesenhand große Bereiche der menschlichen Hand abdecken bedeutet dies, dass diese Hand menschenähnlich ist und dementsprechend einen hohen potentiellen Nutzen hat. Die Abbildung zeigt die Projektion der Otto Bock Michelangelo Hand in den Raum der menschlichen Hand. Die farbigen Trajektorien entsprechen den Bewegungen der Prothese und der weiße Hintergrund entspricht der menschlichen Hand. Die Michelangelo Hand bedeckt 2,8% dieser Fläche. Das mag zwar relativ gering erscheinen, aber verglichen mit anderen Händen ist das ein guter Wert, vor allem im Angesicht der wenigen Freiheitsgrade. Nichtsdestotrotz zeigt es auch, dass zur menschlichen Hand noch immer eine enorme Differenz besteht. Die vorgestellte Quantifizierung erlaubt es, den Unterschied zur menschlichen Hand zu messen. Mit der Hilfe dieses Werkzeugs sollen nicht nur existierende Hände bewertet werden, sondern es sollen auch neue optimale kinematische Hand-Designs entwickelt werden. Diese Analyse kann die Basis für eine neue Generation von Prothesenhänden bilden, die wenige Freiheitsgrade aber trotzdem maximale Fähigkeiten besitzt. 26.04 An application for learning and teaching extracellular stimulation of axons S. M. Danner, F. Rattay; Institute for Analysis and Scientific Computing, Vienna University of Technology, Vienna, Austria. 26.03 A new method to assess aortic valve opening during rotary blood pump support 1,2 1,2 1,2,3 M. Granegger , F. Moscato , H. Schima ; 1 Medical University of Vienna, Center for Medical Physics and 2 Biomedical Engineering, Vienna, Austria, Ludwig-Boltzmann-Cluster for 3 Cardiovascular Research, Vienna, Austria, Medical University of Vienna, Dept. of Cardiac Surgery, Vienna, Austria. Introduction: During left ventricular support using rotary blood pumps (RBPs) the biomechanics of the aortic valve (AV) is altered substantially. This may lead to aortic stenosis (AS) and/or aortic insufficiency (AI). Furthermore, if the AV remains closed during the whole heart cycle flow stagnation in the aortic root may cause thrombogenesis, which can lead to neurologic events. Ensuring frequent opening of the AV can improve its condition and decrease the occurrence of thrombogenesis. The assessment of the state of the aortic valve, open during partial support and closed during full support, is currently performed using echocardiography. Since the opening of the AV is highly influenced by preload, afterload and contractility, a robust method is necessary to determine the state of the AV even during exercise or for out of hospital situations. Our hypothesis was that the shape of the systolic pump flow signal provides information on the state of the AV: in case of partial support the pump systolic flow signal presents a flat plateau, in case of full support the systolic peak is sharper. Material and Methods: First, an already validated numerical model of the cardiovascular system including a RBP was employed to investigate the flow signal under different conditions (heart rate, preload, afterload and speed variations). About 5000 beats were analyzed, in 44% of the beats the AV opened and in 56% the AV was always closed. In a next step, animal experiments with a Micromed DeBakey pump were analyzed retrospectively. Here, speed variations in 4 different animals were analyzed with about 2000 beats (27% closed, 73% open). The flow signal was first high-pass filtered and then the shape of the systolic portion was measured, on a beat-to-beat basis, using skewness, kurtosis and the crest factor. Finally, different classification algorithms (linear and quadratic discrimination analysis as well as a nearest neighbor classification algorithm) were employed to determine the state of the AV. A k-fold cross validation was performed (k=10) to train and test the different algorithms. Results: In both the numerical model and the animal experiments the classification algorithms could determine the state of the AV correctly in at least >93% of the test datasets. Skewness, kurtosis and the crest factor contributed similarly to the discrimination between the two states. The nearest neighbor classifier performed best with a correct classification rate of 95% (animal data) and 99% (numerical model). Discussion and Conclusion: A non-invasive assessment of the AV opening during RBP support enables monitoring the state of the AV continuously. This would allow modifying the pump speed to obtain occasional opening of the valve and decrease adverse events like AS, AI and thromboembolic events. The proposed method employs the measured pump flow signal for the discrimination purpose, but also an estimated flow or pressure difference across the pump with sufficient frequency content can be used. Electrical stimulation of the nervous system plays a major role in today’s medical research and practice. Muscles can be stimulated to avoid disuse, impaired function can be improved by targeted stimulation of certain nerves, and nervous system function can be researched. To appropriately apply these techniques, it is essential to understand the underlying mechanisms involved in the artificial activation of the central and peripheral nervous system by electrical stimulation. Complex nerve fiber models, using differential equation to describe the dynamics of ion channels, exist that can be used to investigate the influence of the applied electrical field on the neurons. These models can be applied to calculate, e.g., excitation thresholds and action potential propagation. Thus they offer the possibility to study the electrical stimulation of the nervous system without complicated experiments. In this work, the theory of neuron and axon models and the mode of their artificial electrical activation are explained. An application is presented (see figure) that allows student or people interested in the stimulation of the nervous system to experiment with the activating function (Rattay, 1999) and two commonly used axon models, the McIntyre-RichardsonGrill (MRG; McIntyre et al., 2002) and the Chiu-Ritchie-Rogart-StaggSweeney (CRRSS; Chiu et al., 1979; Sweeney et al., 1987) model. Different cases can be selected, i.e. variations of intracellular and extracellular stimulation with point electrodes. Most parameters, i.e. stimulation strength, pulse shape, distance of the electrode, etc., are changeable by the user to investigate their effects. In combination with the documentation the user should be able to understand the underlying concepts and will get familiar with the computer simulation of electrically stimulated nerve fibers and the differences between the models. The application is designed to offer as much freedom to the user as possible, in order to enable a learning by experimenting approach. Chiu, S. Y., J. M. Ritchie, R. B. Rogart, and D. Stagg (1979). A quantitative descritpion of membrane currents in rabbit myelinated nerve. The Journal of Physiology 292(1), 149-166. McIntyre, C. C., W. M. Grill, D. L. Sherman, and N. V. Thakor (2004). Cel- lular effects of deep brain stimulation: model-based analysis of activation and inhibition. Journal of Neurophysiology 91(4), 1457-69. Rattay, F (1999). The basic mechanism for the electrical stimulation of the nervous system. Neuroscience, 89(2), 335-346. Sweeney, J. D., J. T. Mortimer, and D. Durand (1987). Modeling of mammalian myelinated nerve for functional neuromuscular electrostimulation. Proceedings of the 97h Annual Conference IEEE EMBS, 1577-1578. 77 26.05 Development of a Lab-on-a-Chip for Monitoring Rheumatoid Arthritis Cells 1 2 3 1 26.06 Computational Modeling of Crouch Gait in Children with Cerebral Palsy 1 1 2 1 3 V. Charwat , M. Joksch , B. Klösch , P. Ertl ; 1 AIT Austrian Institute of Technology GmbH / Health and Environment 2 Department / Nano Systems, Vienna, Austria, Siemens AG Austria / 3 Life Science Systems, Vienna, Austria, Ludwig Boltzmann Cluster for Rheumatology and Balneology, Vienna, Austria. R. Hainisch , Z. Ul-Karim , A. Kranzl , M. Gföhler , M. G. Pandy ; 1 University of Technology Vienna / Institute for Engineering Design and 2 Logistics Engineering, Vienna, Austria, Orthopaedic Hospital Speising / 3 Laboratory for Gait and Movement Analysis, Vienna, Austria, The University of Melbourne, Melbourne, Australia. Rheumatoid arthritis (RA) is an autoimmune disease characterized by chronic inflammation of joint tissues, mainly the synovial membrane, which often leads to disabling, painful and irreversible joint destruction if left untreated. Although RA is not a typical age-related disease, its relevance increases in our aging society, since no cure has been found so far and patients usually need to be treated for many years. The high prevalence of about 1% in the Austrian population adds to the need for good diagnostic and therapeutic options. The oldest form of treatment of rheumatic disorders is spa therapy (sulphur, mud, mineral and pearl baths) and is still commonly practised today. In many spas mineral water with high sulphur content, originating from geothermal wells or springs is utilized. To date there is still a lack in detailed scientific investigations of the benefits of H2S treatment. While it is well known that H2S at high concentrations is clearly toxic, it is still not clear whether and to what degree the concentration of sulfur applied in a typical spa treatment (>1mg/kg water) is adequate to induce a protective stress response without harming organisms/cells. H2S is a well known gasotransmitter capable of causing rapid and transient cell responses. Consequently, diagnostic tools capable of rapidly assessing cellular dynamics are required. Here highly integrated microdevices (µTAS) including Cell-on-a-Chip systems can provide the necessary technology to allow for fast, portable and accurate measurements of complex biological systems. The presented research project is concerned with the development of a bench-top sized Cell-on-a-Chip analytical platform for the study of RA and spa therapy. Healthy and RA patient derived synovial fibroblast cells are cultivated in microfluidic cell chips with integrated dielectric sensors for impedance spectroscopy. Once a confluent cell layer has established, sulphur releasing compounds are applied through external syringe pumps and the cell responses are monitored. Mounted into the platform, alternating current (AC) frequency sweeps are performed in the range of 1kHz to 20MHz and impedance data of the cell layer is continuously recorded. While most commonly used cell based assays have a poor time resolution, the applied technology allows continuous monitoring of cellular phenotype dynamics, without any need for additional handling steps. Changes in the cell layer such as varying adhesion, proliferation or biopolymer secretion influence its dielectric properties, which allows us to non-invasively assess cell viability, reproduction, and metabolic activity over long periods of time. Since data from a large number of frequencies is continuously recorded, we acquire large datasets for each experiment, that can be difficult to interpret. Therefore we apply multivariate data analysis methods such as partial least square (PLS) method, principal component analysis (PCA) and neuronal networks to distinguish differences in healthy and diseased as well as treated and untreated cell samples. Our results show that cell experiments on the Cell-on-a-Chip station in combination with statistical data analysis methods can successfully be performed to distinguish between different cellular phenotypes and to monitor dynamic cell responses with a good time resolution of less than 5 minutes. Cerebral Palsy (CP) results from a static injury to the developing brain. This type of injury to the central nervous system commonly results in abnormal motor control with associated delay in onset of walking and an abnormal gait pattern. Crouch gait is a common gait abnormality associated with CP. An overall goal of our long-term research is to develop and use subject specified 3-dimensional computational models of the musculoskeletal system to better understand muscle function during gait. The aim of the present study is to compare kinematics, kinetics and EMG data of CP children with crouch gait with those of aged-matched healthy control subjects. Gait experiments were performed on 5 healthy children (7-11 yrs) and two CP children (10-12 yrs). We created musculoskeletal biomechanical models with 46 muscles and 23 degrees of freedom for the simulation platform OpenSim. The model parameters were customized according to individual anatomical data which was aquired via magnetic resonace imaging (MRI) of all subjects. The coordinates of the muscles attachment points, where extracted from a manual segmented MR-dataset. The parameters for the Hill-type muscle-model in particular maximum isometric force, optimal muscle-fiber-length and tendon-slacklength where set according specially developed calculation algorithms. Current results indicate that for crouched gait, the net extensor moment exerted about the hip increases during early stance, which may be due to an increase in the passive force exerted by the hamstrings. Increased knee flexion during stance was accompanied by an increase in the net extensor moment exerted about the knee in late stance. An increase in ankle dorsiflexion was accompanied by an increase in the net plantarflexion moment exerted about the ankle in the early stance and a decrease in late stance. Data obtained from this study will be further used as input to subject specified musculoskeletal models of the lower limbs to evaluate individual leg-muscle forces during crouch gait in children with CP. 78 26.07 Activation threshold and contraction dynamics of quadriceps femoris heads measured with ultrasound imaging L. Kneisz; Medical University of Vienna, Vienna, Austria. Submission for „ÖGBMT Förderpreis für den wissenschaftlichen Nachwuchs - Diplomarbeit“ The assessment of muscle properties is important in the diagnosis of neuromuscular diseases. Ultrasound imaging is a non-invasive technology which can be used to analyze the structural and dynamical behavior of muscle tissue. Muscle contractions are very short and therefore fast data acquisition is required. The activation of the vastus intermedius (VI) muscle and the superficial muscles rectus femoris (RF), vastus lateralis (VL) and vastus medialis (VM) were examined. The used clinical ultrasound device (Zonare Medical Systems Inc., Mountain View, CA, USA) has a time resolution of 5ms operating in Mmode. Two experiments have been performed to assess muscle properties on seven healthy subjects (age: 22-32 years). The anterior thigh muscles were activated with transcutaneous neuromuscular electrical stimulation using round electrodes (Ø 3.2cm) and counter electrodes (10x13cm). In the first experiment transcutaneous electrical stimulation of the quadriceps femoris muscle motor points (RF, VL, VM) and stimulation with large surface electrodes were applied and the threshold voltages for muscle activation were determined using M-mode ultrasound imaging. Simultaneously electromyographic and acceleromyographic signals were recorded and the results were compared to those of ultrasound imaging in terms of selectivity and sensitivity. Furthermore the contraction induced by the stimulation with large surface electrodes was analyzed using ultrasound B-mode imaging. The second experiment examined the contraction dynamics of the quadriceps femoris heads using superthreshold neuromuscular electrical stimulation. The motor points of each quadriceps head were stimulated selectively but also the femoral nerve was stimulated transcutaneous to achieve a defined vastus intermedius muscle contraction. Changes in muscle diameter were determined and compared to the peak-to-peak amplitudes and root mean square (RMS) values of simultaneous recorded evoked myoelectric and acceleromyographic signals. The rise time of a muscle twitch was measured between different heads of the quadriceps. The results show a high correlation to muscle fiber composition values found in the literature. The thesis provides an insight on the behavior of muscle and potential mechanisms of muscle contractions. 26.08 Virtual Sensibility Rehabilitation meets Multitouch Technology: Revolution der Neurorehabilitation? S. Amsüss; Ludwig Boltzmann Institut f. exp. und klin. Traumatologie, Wien, Austria. Bisher beginnt ein Patient immer erst dann mit dem Training seiner nervenverletzten Hand, wenn das Gefühl wieder in diese zurückgekehrt ist. Die kortikalen Landkarten, die die Finger repräsentieren, sind dann aber bereits verloren gegangen. In diesem vorgestellten neuen Ansatz wird das Training so bald wie möglich nach der Nervenverletzung begonnen, um das Gehirn zu schützen. Es wird hierzu die Multimodalität der Sinne ausgenützt, denn Fühlen, Sehen und Hören hängen stark zusammen. Dies geschieht über ein Multitouch Interface, das eigens für diese Aufgabe konstruiert wurde. Sobald der Patient den Bildschirm berührt und mit diesem interagiert, erfolgt audiovisuelles Feedback. Das Fühlen der Berührung wird sensorisch durch akustische und optische Rückmeldung ersetzt. Im Gehirn des Patienten werden "die Berührung" und "das akustische/optische Feedback" miteinander assoziiert, die kortikalen Landkarten konserviert und schlussendlich dadurch das Rehabilitationsergebnis deutlich verbessert. Im Rahmen dieser Arbeit wurde ein Gerät der Größe 240x260x330mm konstruiert und gebaut, welches einen vollwertigen PC beherbergt. Außerdem beinhaltet das Gerät ein komplettes multitouchfähiges Displaysystem. Dieses besteht im Wesentlichen aus einem Projektor, der das Bild der Computergrafikkarte auf eine Projektionsfläche an der Oberseite des Geräts projiziert. Diese Fläche wird von einer Kamera beobachtet, sodass Finger, die den Bildschirm berühren, erkannt werden können. Ermöglicht wird dies durch vier Infrarotscheinwerfer, welche die Displayoberfläche von hinten bestrahlen und durchleuchten. Bei Berührung des Displays werden die Infrarotstrahlen von den Fingern reflektiert. Die Kamera, welche so umgebaut wurde, dass sie nur infrarotes Licht detektieren kann, nimmt die Finger als leuchtende Punkte wahr. Mittels einer Open Source Software werden die Finger getracked und deren Position über ein TCP/IP Protokoll publiziert. Weiters ist das Display mit Kraftsensoren ausgestattet, um den ausgeübten Druck der Finger zu quantifizieren. Eigens entwickelte Flash Software kann diese Informationen empfangen, auswerten und verarbeiten. Es ist also möglich, eine Vielzahl von Programmen und Spielen zu entwickeln, wodurch die Patienten positiv zum Training motiviert werden sollen. Im Rahmen dieser Masterarbeiten wurden allerdings nur drei Beispielsprogramme entwickelt. Zusätzlich werden alle Trainingsdaten gespeichert, um das Trainingsverhalten des Patienten statistisch auswerten zu können. Das Gerät ist fertiggestellt, eine klinische Studie befindet sich in der Anlaufphase. 26.09 Rotational knee laxity: reliability of a simple measurement device to determine passiv tibial rotation P. Hoffmann, E. Unger, A. Tschakert, W. Mayr; Zentrum für Medizinische Physik und Biomedizinische Technik der MUW, Wien, Austria. Background: Double-Bundle Anterior Cruciate Ligament (ACL) reconstruction has been demonstrated to decrease rotational knee laxity [1-3] [4]. However, there is no commercially available device to quantify knee rotation stability. Methods: The investigators developed a simple, non-invasive device for recording rotation resistance versus knee rotation angle. With subject in prone position, thigh immobilized in a fixture and tibia coupled firmly to a torque sensor (I4A F.NR. D46918; 100NM = 2mV/V © Hottinger Baldwin) via a rigid boot (XP Walker Medium 01P-M © Aircast) to allow precise monitoring of rotation strain applied to the knee, an electronic goniometer (3590S-2-104; RES 100K +/- 5%, ©Mexico Bourns) records axial rotation of the tibia. The apparatus allows adjustment and fixation of the knee flexion angle. The objective of this study was to collect datasets for total tibial rotation, internal- and external tibial rotation, to calculate the side to side difference of tibial rotation between right and left knee of each subject and to validate reliability and reproducibility by recording on 10 human subjects (overall 20 knees). Specifically knee rotation range at 10°, 30° and 90° knee flexion and torque load limitation to 3Nm, 6Nm and 9,5Nm was investigated. Reproducibility of the device was calculated based on the standard deviation between three test sessions. Results: It was found that measured knee rotation differes widely with a recorded minimum of 25° and a maximum of 57° (Dataset 6Nm) between all subjects, however comparing isolated internal knee rotation between right and left knees of each subject we could find a side to side difference of only 1,7° +/- 1,5° (Dateset 6Nm; figure 1). All recorded measurements to determine reliability of the device were detected within the 95% confidence interval, SEMs for measuring total tibial rotation ranged between 0,8° (10° knee flexion, 6Nm torque) and 2,2° (30° knee flexion, 6Nm torque). Our results for measuring isolated internal rotation by determining the physiological resting point for tibial rotation showed a good reproducibility with SEMs between 0,2° and 1,1°(figure 2 and figure 3). Conclusion: The reliability obtained with this device for measuring knee rotation was found to have acceptable limits for clinical use and follow-up interpretation. Relating to our results, focusing on measured internal tibial rotation and corresponding side to side differences of the right and left knee of each subject could help to evaluate the outcome of rotational laxity after ACL reconstruction in further studies. An applied torsional moment of 6Nm could be a good predictor for measuring rotational knee laxity by being easily tolerated by the patient and following our results, 79 an increased torsional moment (over 6Nm) did not lead to an significant rise in the gradient of torque/tibial rotation for internal rotation (figure 4). 26.10 Lokale Verteilung der Spurenelemente Blei, Zink und Strontium im menschlichen Knochen 1 2 1 1,3 4 A. Roschger , B. Pemmer , P. Roschger , J. G. Hofstätter , R. Simon , 1 2 K. Klaushofer , C. Streli ; 1 Ludwig Boltzmann-Institut für Osteologie im Hanusch-Krankenhaus der WGKK und Unfallkrankenhaus Meidling der AUVA, 1. Medizinische Abteilung, Hanusch-Krankenhaus, Heinrich Collin-Str. 30, A-1140, Wien, 2 Austria, TU Wien - Atominstitut, Technische Universitaet Wien, 3 Stadionallee 2, 1020, Wien, Austria, Universitätsklinik für Orthopädie, Allgemeines Krankenhaus Wien, Medizinische Universität, Wien, 4 Austria, Karlsruhe Institute of Technology, Institute for Synchrotron Radiation, Hermann-von-Helmholtz-Platz 1, Eggenstein-Leopoldshafen, Germany. Teilnahme am "Förderungspreis für Wissenschaftlichen Nachwuchs" Es ist bekannt, dass eine Langzeit-Exposition mit Blei (Pb) neben der Schädigung verschiedenster Organe auch einen Risikofaktor für Osteoporose darstellt. Etwa 95% der Bleimenge des menschlichen Körpers sind im Skelett gespeichert. Strontium (Sr) wird ebenfalls vorwiegend im Knochen abgelagert. Das Interesse an Sr wuchs in den letzten Jahren aufgrund der Verwendung von Strontium-Ranelat in der Osteoporose-Behandlung. Zink (Zn) ist ein essentielles Spurenelement, welches häufig in den reaktiven Zentren von Enzymen vorkommt, und die Zellproliferation von knochenbildenden Zellen (Osteoblasten) beeinflusst. Bisherige Studien zeigten, dass die Verwendung von Synchrotronstrahlungs induzierter Mikro-Röntgenfluoreszenanalyse (SRMicro-XRF) kombiniert mit quantitativer Rückstreuelektronenmikroskopie (qBEI) hervorragend zur ortsaufgelösten, zerstörungsfreien Multielement-Untersuchung von Knochen und Gelenksknorpel geeignet ist. So konnte kürzlich an der Knochen-Gelenksknorpel-Grenzfläche (Tidemark (TM)) eine 13-fach höhere Pb-Akkumulation als im subchondralen Knochen nachgewiesen werden. In diesem Projekt wurden folgende Fragestellungen untersucht: 1) Wo und wie findet die Akkumulation von Pb, Zn und Sr im Knorpel und Knochengewebe statt? 2) Wie verhält sich die Spurenelementkonzentration relativ zum Mineralgehalt (Kalzium) im Gewebe? 3) Unterscheidet sich die Spurenelementverteilung im osteoporotischen Knochen von der in normalem Knochen? Dazu wurden Hüftköpfe (n=6) und Kniescheiben (n=3) mit doppelten TMs untersucht. Eine Verdopplung der TM entsteht durch ein nochmaliges Einsetzen einer Mineralisierungsperiode der Knorpelmatrix und steht vermutlich im Zusammenhang mit äußeren mechanischen Reizen. Weiters wurden Knochenproben von Oberschenkelhälsen nach postmenopausalen osteoporotischen Frakturen (n=5) und unfrakturierte Proben (n=5) analysiert. Die frakturierten Proben wurden im Zuge von Hüftoperationen entnommen, während die Kontrollen von Nekropsien stammen. Ein konfokaler Versuchsaufbau, wie er an der FLUO Beamline des Synchrotrons ANKA (KIT, Karlsruhe, Deutschland) und der Beamline L des Synchrotrons DORIS III (HASYLAB, Hamburg, Deutschland) zur Verfügung steht, erlaubt eine räumliche Auflösung von etwa 10 x 15 x 20 3 Für die qBEI-Auswertungen wurden Rasterelektronenµm . mikroskopaufnahmen (Zeiss DSM 962, Oberkochen, Deutschland) mit einer lateralen Auflösung von 1 µm verwendet. Die Analyse des Knorpelgewebes von Proben mit doppelter TM ergab annähernd gleiche Zn-Konzentrationen in beiden TMs. Im Gegensatz dazu war die Pb-Konzentration in den inneren TMs durchschnittlich 2.6fach gegenüber den äußeren TMs erhöht. Daher kann Zn als Marker für die TMs gesehen werden, während die Pb-Konzentration offenbar ein Maß für das Alter der TM ist. In Relation zu den Konzentrationen im subchondralen Knochengewebe war Zn und Pb in den TMs deutlich erhöht (bis zu 58-fach für Pb und bis zu 7-fach für Zn). Der zugrundeliegende Akkumulationsmechanismus ist derzeit noch unklar. Bei der Untersuchung der Oberschenkelhalsproben konnte kein Unterschied in der Elementverteilung zwischen den osteoporotischen Knochen und den nichtfrakturierten Proben der Kontrollgruppe festgestellt werden. Innerhalb einer Probe zeigten die Zementlinien (Grenzflächen zwischen zwei Knochenpaketen) im Vergleich zu den Konchenpaketen signifikant erhöhte Zn und Pb Werte. Daraus kann auf einen spezifischen Einlagerungsmechanismus in diesen Regionen geschlossen werden. Weiters wiesen Knochenränder und Ränder von Osteonen oft hohe Zn Konzentrationen auf. Die Auswertung charakteristischer Gebiete der Knochenpakete ergab einen überproportional starken Anstieg der Pb-Konzentration in Relation zu dem Ca-Gehalt. Dies deutet auf eine stetige Pb-Akkumulation hin, während die Ca-Konzentration einen Sättigungswert erreicht. Ähnliches wurde für Sr beobachtet. 80 Session 27: Medizinische Physik in den Entwicklungsländern 27.2 Vierländerbeitrag zum Strahlenschutz und Strahlentherapie in Nicaragua 1 2 F. Morales , H. von Boetticher ; 1 Hessisches Landesamt für Umwelt und Geologie, Kassel, Germany, 2 Institut für Radiologie und Seminar für Strahlenschutz, Klinikum Links der Weser, Bremen, Germany. 26.11 Application of Semantic Web technologies on biomedical data and their advantages concerning data integration R. Kienast; UMIT - Private Universität für Gesundheitswissenschaften, Medizinische Informatik und Technik, Hall i. T., Austria. Einführung: Für die Forschung im Bereich der Life Sciences ist es heutzutage notwendig verschiedenste Systeme, über deren Umfang und Verteilung hinaus, zu verstehen. Daher besteht der dringende Bedarf biomedizinisches Wissen von verschiedensten Gemeinschaften aus separaten Teildisziplinen zu integrieren [NS06]. Ein vielversprechender Ansatz um diese heterogenen Datenquellen integrieren zu können, ist der Einsatz von Semantic Web Technologien. Sie stellen eine Framework zur Verfügung, welche mit Problemen bei der Datenintegration umgehen kann, und erfüllt auch die Anforderungen, um eine maschinelle Verarbeitung zu ermöglichen. Zielsetzung: Diese Arbeit gibt einen Überblick über die Datenintegration biomedizinischer Daten mithilfe von Semantic Web Technologien. Des Weiteren wurde eine Software entwickelt, welche in der Lage ist, Ontologie-Dateien zu verarbeiten und Daten aus den Life Science Integrative Data Warehouse (LINDA) zu annotieren. Methoden: Um einen Überblick über die Datenintegration biomedizinischer Daten mithilfe von Semantic Web Technologien bereitzustellen, wurde eine systematische Literaturrecherche durchgeführt. Für die Software Entwicklung wurde die objektorientierte Programmiersprache Java und die Technik der Rich Client Programmierung auf Basis des Frameworks von NetBeans verwendet. Die Software wurde nach dem Baukastenprinzip entwickelt. Für die Handhabung der OBO (Open Biological and Biomedical Ontologies) formatierten Ontologie-Dateien wurde die OWL API (Application Programming Interface) verwendet, und zur Unterstützung der Datenbank-Verbindung die Hibernate-API. Ergebnisse: Das Ergebnis dieser Arbeit ist eine detaillierte Übersicht der Datenintegration mithilfe von Semantic Web Technologien in der Biomedizin einschließlich vorhandener Techniken (Standards, Spezifikationen und Methoden), Herausforderungen, Ansätze und Projekte. Die entwickelte Software namens BioDOnX-Rich ist eine modulare Rich Client-Anwendung basierend auf der Programmiersprache Java und der Net-Beans Rich Client Plattform. Sie besitzt die Fähigkeit Ontologien, welche von der OBO Foundry zur Verfügung gestellt werden, zu laden und anzuzeigen. Zu diesen gehört auch die Gene Ontology (GO). Des Weiteren unterstützt sie die Annotation von Daten aus der In House Life Sciences Datenbank (ILSD). Diskussion: Semantic Web Technologien bieten einen mehr oder weniger standardisierten hierarchischen Framework für die Datenintegration an, und ermöglichen eine dezentrale semantische Integration verschiedenster heterogener Datenquellen. Voraussetzung für eine sinnvolle semantische Datenintegration ist jedoch das Vorhandensein von qualitativ hochwertigen, frei zugänglichen biomedizinischen Ontologien, wie zum Beispiel die GO oder andere Ontologien der OBO Foundry. Allerdings gibt es noch ein paar Herausforderungen zu bewältigen, wie zum Beispiel das Fehlen eindeutiger Bezeichner, die Entwicklung und Wartung von Ontologien oder die Abfrage von RDF-Daten. Referenzen: [NS06] T. Berners-Lee N. Shadbolt, W. Hall. The semantic web revisited. IEEE Intell Syst App, 21(3):96-101, 2006. Einleitung: In Nicaragua wurde mit der Strahlentherapie im Jahr 1960 begonnen (die Anfänge der radiologischen Diagnostik liegen natürlich deutlich früher), aber das große Erdbeben im Jahr 1972 zerstörte alle Einrichtungen. Mit Unterstützung aus der Schweiz konnte zwar 1985 das Gebäude wieder aufgebaut werden, aber das blieb leer, weil zu dieser Zeit kein Personal vorhanden war.Der Aufbau der jetzige Struktur begann 1994 im technischem und gesetzlichem Sinne mit dem Bau des Nationalen Zentrums für Strahlentherapie (Centro Nacional de Radioterapia - CNR), dem Labor für Strahlenphysik (Laboratorio de Física de Radiaciones - LAF-RAM) an der Nationalen Autonomen Universität von Nicaragua (UNAN-Managua) und die Gründung von der Behörde (CONEA). Die wichtigsten Partner waren Deutschland (Klinikum Links der Weser, Bremen), die USA (MD Anderson Cancer Center), die Schweiz (Instituto Oncologico della Svizzera Italiana) und die Internationale Atomenergieorganisation (IAEA, Österreich). Übereinstimmungen und Unterschiede: Als Referenz wurden deutsche Verordnungen herangezogen, weil eine Vielzahl von Richtlinien und Verordnungen von Deutschland aus zur Verfügung gestellt worden waren.Für die Strahlentherapie wurde ein Qualitätsplan entwickelt, der von den Medizinphysikern, Strahlentherapeuten, MTRAs und der Direktion unterschrieben wurde. Mit dem Qualitätsplan wurde die Verpflichtung übernommen, nur renommierte Bücher und Empfehlungen wie Perez and Brady's principles and practice of radiation oncology in der Medizin oder die IAEA-Empfehlungen in der Physik zu benutzen. Ein IAEA-Audit wurde beantragt; daraufhin überprüfte ein IAEA-Team (bestehend aus einem Radiotherapeuten, einem Medizinphysiker, einem Strahlenschutzexperten und einem IAEAOfficer) eine Woche lang das Qualitätssystem und kam zu dem Ergebnis, dass das Qualitätssystem die internationalen Empfehlungen vollständig erfüllt.Der Strahlenschutz wird nur mit einer Verordnung Reglamento técnico de protección contra las radiaciones ionizantes (RPRI, 1993) geregelt, die viel einfacher aufgebaut ist als die deutsche Strahlenschutzverordnung (2001), die Richtlinie Strahlenschutz in der Medizin (2002) und die Röntgenverordnung. Zum Strahlenschutz von Patienten werden ständig kombinierte Kontrollen vorgenommen, die beispielhaft im Folgenden aufgeführt werden: a. In einem wöchentlichen Treffen der gesamten Gruppe werden die Bestrahlungsunterlagen eines zufällig ausgewählten Patienten analysiert, um mögliche Fehler von Medizinern oder Physikern zu finden. Die MTRAs werden von Medizinern und Physikern kontrolliert. b. Nach jeder Wartung wird eine unabhängige Messung - mit eigenen Geräten - der absorbierten Dosis von einer Arbeitsgruppe aus der Medizinischen Physik der Universität (UNAN-LAF-RAM) unabhängig vom Zentrum für Strahlentherapie (CNR) durchgeführt. c. Am ersten Tag der Bestrahlung eines Patienten müssen ein Mediziner, ein Physiker und ein MRTA dabei sein, die mit demselben Patient an der Simulation und Bestrahlungsplannung teilgenommen haben, um alle Parameter noch einmal zu kontrollieren. Vor jeder Bestrahlung kontrolliert jeweils ein Physiker die Berechnung eines anderen. Ergebnisse und Diskussion: Es ist natürlich schwierig, beide Länder zu vergleichen, aber in den Grundprinzipien ist es möglich. Es konnte gezeigt werden, dass auch ein Entwicklungsland mit geringen finanziellen Möglichkeiten ein internationales Niveau erreichen kann. Dies war allerdings nur möglich durch den Einsatz und die Begeisterungsfähigkeit einer Gruppe von Fachleuten, der Förderung durch die damaligen Regierungen und der Unterstützung durch die IAEA. Wenn eine dieser drei Voraussetzungen fehlt, kann in Monaten zerstört werden, was man in Jahren aufgebaut hat. Das kommt leider oft in Entwicklungsländern vor. 81 27.3 Modern Radiotherapy - a treatment for the rich only? S. Ueltzhöffer; Precisis AG, Heidelberg, Germany. Discussion about future ways of Radiotherapy in the western world and developing countries. Is modern radiotherapy reserved for the western world only? Are recent developments really driven by the pursuit of better healthcare or rather by even higher reimbursements? Is there a reasonable standard: therapeutically optimal, yet affordable? If there is no perfect treatment, how much of a compromise can be accepted for the sake of a broader accessibility? Whereas increasing therapeutic effectiveness is to be appreciated, Medical Physics research ought to be taking this second goal into account. Although answers might be hard to find and discussions might be controversial, a short introduction and space for an open discussion will be given. As the Medical Physics society can have a large impact on both, treatment device developments and professional's general perception of standards and levels of compromise, this topic is recommended to be part of current and future discussions. 27.4 Medizinische Physik und Biomedizinische Technik - Ausbildung an der Gono University in Bangladesch 1 1 1 1,2 K. C. Paul , M. Akhtaruzzaman , H. A. Azhari , G. A. Zakaria ; 1 Department of Medical Physics and Biomedical Engineering, Gono 2 Bishwabidyalay, Dhaka, Bangladesh, Abteilung für Medizinische Strahlenphysik, Kreiskrankenhaus Gummersbach, Akademisches Lehrkrankenhaus der Universität Köln, Gummersbach, Germany. Das Konzept für eine Abteilung für Medizinische Physik und Biomedizinische Technik in Bangladesch zu schaffen, wurde in den neunziger Jahren erarbeitet. Die Entwicklung begann damit, dass Prof. Dr. Golam Abu Zakaria in Deutschland diesen Prozess durch die Durchführung mehrerer internationaler Seminare über Medizinische Physik in Dhaka eingeleitet hatte. Eines der Ergebnisse war, dass eine private Universität, die Gono Bishwabidyalay (Gono University), im Jahr 2000 auf seinen Vorschlag hin die Gründung eines Masterstudiums M.Sc (4 Semester) in Medizinischer Physik und Biomedizinischer Technik (MP/BME) und später im Jahr 2005 den Bachelor-Studiengang B.Sc (8 Semester) einführte. Beide Studiengänge wurden von der University Grant Commission (UGC) akkreditiert. Seitdem ist es die einzige Universität, die B.Sc- und M.Sc-Kurse in Medizinischer Physik und Biomedizinischer Technik in Bangladesch anbietet. Die Lehrpläne der Kurse basieren auf DGMP-, AAPM- und IAEA-Dokumenten und werden an den Bedarf von Bangladesch angepasst. Die Kursstruktur ist so entwickelt, dass die Studierenden nach dem Abschluss in der Lage sind, in Krankenhäusern, Gesundheitszentren, Instituten und Forschungseinrichtungen zu arbeiten. Die Grundvoraussetzung für die Zulassung zum Masterstudiengang ist ein Bachelor-Abschluss in einem der folgenden Fächer: MP/BME, Physik, verwandte Bereiche der Naturwissenschaften oder Biowissenschaften, Medizinoder Ingenieurwissenschaften. Die Lehrpläne umfassen Vorlesungen, praktische Arbeiten sowie die Erarbeitung einer Dissertation. Formale Prüfungen finden nach jedem Semester statt, diese werden von einem Prüfungsausschuss abgenommen. Praktische Arbeiten finden in Abteilungs-Labors sowie auch in den Strahlentherapien und Radiodiagnostischen Abteilungen verschiedener Krankenhäuser statt. Die Master-Arbeit von den Studenten wird im letzten Semester von lokalen oder ausländischen Professoren betreut und beaufsichtigt. Im Jahr 2003 wurde eine Zusammenarbeit zwischen der Universität Heidelberg (Deutschland) und der Gono University (Bangladesch) vereinbart. Im Rahmen dieser Zusammenarbeit zwischen den beiden Universitäten wurden Professoren und Studierende durch den Deutschen Akademischen Austauschdienst (DAAD) finanziell unterstützt und die Abteilung erhielt auch die Ausstattung, Unterrichtsmaterialien, Zeitschriften und Forschungsmaterialien. Einige der Studierenden und Assistenten konnten ihre Doktorarbeit in Medizinischer Physik schreiben und den praktischen Teil auch an ausländischen Universitäten absolvieren. Nach der Gründung der Abteilung MP/BME bis zum Jahr 2010 wurde an eine Vielzahl von Studenten ein M.Sc und auch inzwischen an acht Studenten ein B.Sc vergeben. Gegenwärtig werden diese Absolventen in der Abteilung für Strahlentherapie des National Institute of Cancer Research (NICRH) und Dhaka Medical College sowie in verschiedenen privaten Krankenhäusern (Square Hospital, United Hospital, Khwaja Yunus Ali Medical College and Hospital) eingesetzt oder sie lehren Medizinische Physik an der Gono University. Die Gründung und der Aufbau der Abteilung für Medizinische Physik und Biomedizinische Technik an der Gono Bishwabidyalay ist eine Erfolgsgeschichte für Bangladesch. Wir möchten die erfolgreiche und 82 moderne Medizinische Physik und Biomedizinische Technik kontinuierlich weiter entwickeln und Programme für Bildung und Forschung mittels der Einbeziehung der neuesten Entwicklungen der Bildgebung und Strahlentherapie erstellen. Für die Zukunft möchten wir weiterhin eine enge Zusammenarbeit mit anderen ausländischen Universitäten und Forschungseinrichtungen etablieren und würden uns über eine Teilnahme an internationalen wissenschaftlichen Konferenzen freuen, um unser Potenzial für eine bessere Behandlung der Krebspatienten in unserem Land zu gewährleisten. POSTER P01.02 Implementierung und Qualitätskontrolle von UTE-Sequenzen für MR-Microimaging an Gewebetypen und Kunststoffen mit sehr kurzen T2-Zeiten Poster 01: MRI und Spektroskopie C. Horn , V. Juras , A. Berg ; Medical University of Vienna, MR-Center of Excellence, Vienna, 2 Austria, Medical University of Vienna, Center for Medical Physics and Biomedical Engineering, Vienna, Austria. 1,2 P01.01 Explorative Analyse der Functional Connectomes Datenbank unter Verwendung von parallelisierter FENICA 1,2 1,3 1,3 1 1,2 1,2 1 3 R. N. Boubela , W. Huf , K. Kalcher , V. Schöpf , C. Scharinger , G. 3 2 3 3 1 Pail , P. Filzmoser , S. Kasper , L. Pezawas , E. Moser , C. 1 Windischberger ; 1 Exzellenzzentrum Hochfeld-MR, Zentrum für Medizinische Physik und Biomedizinische Technik, Lazarettgasse 14, 1090 Wien, Wien, Austria, 2 Institut für Statistik und Wahrscheinlichkeitstheorie, Technische Universität Wien, Wiedner Hauptstrasse 8-10, 1040 Wien, Wien, Austria, 3 Abteilung für biologische Psychiatrie, Universitätsklinik für Psychiatrie and Psychotherapie, Medizinische Universität Wien, Währinger Guertel 18-20, 1090 Wien, Wien, Austria. Einleitung: Niederfrequente, spontane Fluktuationen im BOLD-Signal (blood oxygen level dependent signal) während Restingstate-fMRT konnten seit dem ersten Bericht von Biswal et al. (1995) bereits mehrfach konsistent reproduziert werden. Die damit assoziierten Netzwerke werden als Resting State Networks (RSNs) bezeichnet. Mit der zunehmenden Verfügbarkeit von großen Datensätzen - wie dem Functional-Connectomes-Datenensatz (Biswal et al. 2010), welcher inzwischen ca. 1500 Probanden von über 38 veröffentlichten Studien enthält - und immer leistungsfähigerer Computer-Hardware, steigt damit auch die Bedeutung von explorativen Verfahren im Bereich der NeuroBildgebung. Wir verwendeten Fully Exploratory Network ICA (FENICA; Schöpf et al. (2010)), um eine Gruppe von 300 Probanden aus dem Functional-Connectomes-Datensatz hinsichtlich RSNs zu analysieren. Methodik: Die Rohdaten wurden räumlich geglättet (Gauß-Kernel 8mm FWHM isotrop), bewegungskorrigiert und mit einem Bandpassfilter (0,10,01 Hz) gefiltert (Weissenbacher et al. 2009). ICA (Independent Component Analysis) wurde mit FSL MELODIC berechnet und die Anzahl der Komponenten mittels LAP-Kriterium bestimmt. Danach wurden die Bilder mit AFNI auf eine EPI Schablone im MNI-Raum registriert und auf 3mm isotrop gerastert. Der FENICA-Algorithmus wurde auf die Komponenten der einzelnen Probanden angewandt und redundante Komponenten (räumliche Korrelation größer 0,75) eliminiert. Resultate: In Summe wurden 18 über alle Probanden konsistente Komponenten identifiziert, wovon 12 in der grauen Substanz und die restlichen 6 in der weißen Substanz, Liquor cerebrospinalis und Artefakten lokalisiert waren. Die Abbildung zeigt die 12 Komponenten der grauen Substanz, wobei die Farbe den t-Werten mit Schwellwert t(299)= 6 (p < 0.025 FWE-korrigiert). Diskussion: Dies ist die erste Neuro-Bildgebungsstudie, die ein nahezu vollständig exploratives Verfahren auf weit mehr als 100 Probanden anwandte. Im Gegensatz zu bisherigen Ergebnissen, wo in Abhängigkeit der Gruppengröße und anderer studienspezifischer Faktoren wie etwa Scanner Hardware und Protokolle eine verschiedene Anzahl von Netzwerken gefunden wurde, erlaubt eine Analyse über mehrere Zentren die Synthese der zur Verfügung stehenden Evidenz über RSNs konsistentere Identifikation von Komponenten. Bei kleineren Studien ist die übliche Anzahl von gefundenen RSNs zwischen 8 und 10 (Damoiseaux et al. 2006). Die höhere Sensitivität auf Grund des größeren Stichprobenumfangs erlaubte hier 12 Komponenten zu unterscheiden, die mit verschiedenen Netzwerken in Zusammenhang gebracht werden konnten, einschließlich der Unterscheidung von zwei Komponenten des typischen Default Mode Netzwerks. References: Biswal, B. et al. (1995), 'Functional connectivity in the motor cortex of resting human brain using echo-planar MRI', Magnetic Resonance in Medicine, vol. 34, pp. 537-541. Biswal, B.B. et al. (2010), 'Toward discovery science of human brain function', PNAS, vol. 107, pp. 4734-4739. Damoiseaux, J.S. et al. (2006), 'Consistent resting-state networks across healthy subjects', PNAS, vol. 103, pp. 13848-13859. Schöpf, V. et al. (2010), 'Fully exploratory network ICA (FENICA) on resting-state fMRI data', Journal of Neuroscience Methods, vol. 192, pp. 207-213. Weissenbacher, A. et al. (2009), 'Correlations and anticorrelations in resting-state functional connectivity MRI: a quantitative comparison of preprocessing strategies', Neuroimage, vol. 47, pp. 1408-1416. Einleitung: Die Struktur und der morphologische Aufbau halbfester Gewebekomponenten oder Implantate (z.B. Kortikalis, Hornsubstanz, Cornea, Dermis, kalzifizierter Knorpel, Zähne und Kunststoffe) können nicht mit Standard-MR-Methoden bildlich dargestellt werden, da die Beweglichkeit der signalgebenden Moleküle stark reduziert ist. Hiermit ist eine starke Signal (Linien-) Verbreiterung in der MR verbunden und eine erhebliche Reduktion der T2-Zeiten (< 1 ms). Dies führt bei den Standard-Pulssequenzen der MR-Bildgebung zu einem raschen Zerfall des MR-Signals vor der Detektion. Gewebekomponenten und Materialien mit kurzer T2-Zeit können durch die Anwendung spezieller, auf ultrakurze Detektionzeiten (TEmin = 0.07 ms) ausgelegter UTE (Ultrashort Echo Time) -Sequenzen visualisiert werden. Bisher standen Pulssequenzen für sehr kurze Detektionszeiten nur auf speziellen Mikroskopie-MR-Systemen oder Human-MRScannern mit reduzierter Auflösung zur Verfügung. Im Rahmen einer Qualitätskontrolle werden in dieser Arbeit erste Ergebnisse zur Funktionsweise Bildqualität und Besonderheiten dieser UTE-Sequenzen an einer neu installierten Mikroskopie-Einheit am Wiener Hochfeld-(7T)-Human-Scanner präsentiert. Material und Methodik: Bei den UTE-Sequenzen wird durch starke Gradienten, direkt nach der 90°-Puls-Anregung, im FID eine Frequenzkodierung des Signals als Projektionsprofil mit verschiedenen Projektionsrichtungen vorgenommen. Hierbei wird der dreidimensionale polare k-Raum spiralförmig, über radiale Profile aufgefüllt und anschließend über das kartesische Fouriergitter interpoliert. Hochortsaufgelöste Bildgebung wird durch den Einsatz starker Gradienten und sehr empfindlicher Detektorspulen erreicht. Dies ermöglicht eine spezifische Gradienten-Einheit mit einer maximalen Gradientenstärke von 750 mT/m, die in die Bohrung eines Siemens Magnetom 7T Ganzkörpersystems eingesetzt wird. Prinzipiell ist so eine laterale Auflösung unter 50 µm möglich. Wir untersuchen den Einfluss verschiedener Sequenzparameter auf Auflösungsvermögen, Signal-Rausch-Verhältnis und Artefaktbildung. Als Proben dienen Kunstoffe, die in ihrer Härte (Vernetzungsgrad) und Struktur variieren. Außerdem wird die praktische Anwendbarkeit der Sequenz an biologischen Proben mit kurzen T2-Zeiten evaluiert. Ergebnisse: Die Untersuchung der Orts-Auflösung an einem Phantom zeigt, dass Strukturen von 128 µm aufgelöste werden können. Allerdings ist in der UTE-Bildgebung ein Auftreten starker Kantenanhebungsartefakte in radialer Richtung zu beobachten, die systematisch in einer ausgezeichneten Gradientenrichtung erscheinen. Die Kantenanhebung kann bis zu 100% betragen. Die Bildqualität ist deutlich von der Anzahl der Projektionsprofile abhängig. Abweichungen von der exakten Resonanzfrequenz führen zu weiteren Artefakten. Mögliche Ursachen und Vorschläge zur Lösung werden diskutiert. Conclusio: UTE-Sequenzen erlauben sehr kurze Detektionszeiten von bis zu 0,07 ms und in Kombination mit einem starken MicroimagingGradientensystem auch Auflösungen, die an einem klinischen MRScanner nicht möglich sind. Allerdings weisen die bisher verfügbaren Pulssequenzen auch Artefakte mit einer Anhebung der Signalintensität an den Kanten auf. Deren Ursache kann möglicherweise in einem imperfekten Schaltverhalten der Gradienten liegen. P01.03 Funktionelle Konnektivität zwischen subkortikalen und kortikalen Regionen bei remittierter Depression 1,2 1,2 1,2 2 2 K. Kalcher , R. N. Boubela , W. Huf , C. Scharinger , G. Pail , B. 2 1 3 1 2 Hartinger , C. Windischberger , P. Filzmoser , E. Moser , S. Kasper , L. 2 Pezawas ; 1 Exzellenzzentrum Hochfeld-MR, Zentrum für Medizinische Physik und Biomedizinische Technik, Medizinische Universität Wien, Wien, Austria, 2 Abteilung für biologische Psychiatrie, Universitätsklinik für Psychiatrie and Psychotherapie, Medizinische Universität Wien, Wien, Austria, 3 Institut für Statistik und Wahrscheinlichkeitstheorie, Technische Universität Wien, Wien, Austria. Einleitung: Der klassische Verlauf der Major-Depression ist von einer oder mehreren depressiven Episoden und damit alternierenden Episoden vollständiger oder teilweiser Remission gekennzeichnet. Der Fokus der meisten einschlägigen Studien mit funktioneller Magnetresonanztomographie (fMRT) lag bisher auf den depressiven Episoden. Diese Studien zeigten unterschiedliche Ergebnisse in Struktur 83 und Aktivität bestimmter kortikaler Regionen, darunter Gyrus Cinguli (GC), orbitofrontaler Kortex (OFC) sowie dorsolateraler präfrontaler Kortex (DLPFC). Weiters gibt es Hinweise darauf, dass neuronale Netzwerke aus kortikalen mit subkortikalen Regionen wie der Amygdala und den Basalganglien in der Pathophysiologie der Depression eine Rolle spielen [1]. Episoden der Remission nach Ende der medikamentösen Therapie dagegen werden wesentlich seltener untersucht. In dieser Studie wurde Resting-State-fMRT [2] verwendet, um Unterschiede der Konnektivität zwischen remittiert depressiven Patienten und Gesunden zu ermitteln. Speziell wurden dabei die Konnektivitätsmuster von Amygdala und Basalganglien untersucht. Methodik: 43 remittiert depressive Patienten und 35 gesunde Probanden wurden an der Medizinischen Universität Wien rekrutiert und einem sechsminütigen Resting-State-fMRT-Scan unterzogen (3T Siemens Magnetom TIM Trio, 12-Kanal Kopfspule, GE single-shot EPI Sequenz, TE/TR = 42/2000ms, 96x96 Matrix, Bildfeld 210x210mm, 20 Axialschnitte, 4mm Schichtdicke, 1mm Schichtabstand, 180 Zeitpunkte). Korrektur für Schichtaufnahmezeiten und Bewegung, mittleres Signal der weißen Substanz sowie des Liquor cerebrospinalis und für den Median des Signals der grauen Substanz wurde durchgeführt [3]. SeedZeitreihen für Amygdala und Basalganglien wurden mittels individueller Masken extrahiert und mit allen anderen Knoten in einer oberflächenbasierten Analyse korreliert. Korrelationskoeffizienten wurden Fisher-transformiert, die resultierenden z-Werte mit einem isotropen 8mm FWHM Gaußfilter geglättet und zwischen den Gruppen mittels t-Test verglichen. Resultate: In der Gruppe der remittiert depressiven Patienten zeigte sich erhöhte funktionelle Konnektivität der Basalganglien mit dem posteriorem Teil des GC und dem DLPFC, sowie erhöhte Konnektivität zwischen Amygdala und dem posteriorem Teil des GC und dem OFC. Diskussion: In dieser Studie zeigten sich Hinweise auf unterschiedliche Verschaltung neuronaler Netzwerke von Amygdala und Basalganglien zu depressionsrelevanten kortikalen Regionen. Insbesondere zeigten beide betrachteten subkortikalen Regionen erhöhte Konnektivität zum posterioren Teil des GC, einer Region, die bei Resting-State-fMRT als einer der Hauptbestandteile des sogenannten Default-Mode-Netzwerks des Gehirns anerkannt ist. Folglich sind bei dieser Patientengruppe, obwohl sie keine akuten Symptome mehr aufweist, Veränderungen des Gehirns auf Systemebene nachweisbar. Referenzen: [1] Frodl T., Scheuerecker J., Schoepf V., Linn J., Koutsouleris N., Bokde A.L., Hampel H., Möller H.J., Brückmann H., Wiesmann M., Meisenzahl E. (2010), 'Different effects of mirtazapine and venlafaxine on brain activation: an open randomized controlled fMRI study'. The Journal of Clinical Psychiatry, epub ahead of print. [2] Fox, M.D., Raichle M.E. (2007), 'Spontaneous fluctuations in brain activity observed with functional magnetic resonance imaging', Nature Reviews Neuroscience, vol. 8, pp. 700-711. [3] Weissenbacher, A., Kasess, C., Gerstl, F., Lanzenberger, R., Moser, E., Windischberger, C. (2009), 'Correlations and anticorrelations in resting-state functional connectivity MRI: a quantitative comparison of preprocessing strategies', Neuroimage, vol. 47, pp. 1408-1416. P01.04 Statistische Methoden und Artefakterkennung in fMRT- Daten der menschlichen Wadenmuskulatur 1 2 2 1 1,2 R. Kriegl , M. Andreas , M. Wolzt , E. Moser , A. I. Schmid ; 1 Zentrum für medizinische Physik und biomedizinische Technik, 2 Medizinische Universität Wien, Wien, Austria, Universitätsklinik für klinische Pharmakologie, Medizinische Universität Wien, Wien, Austria. Einleitung: Mit Hilfe der funktionellen Kernspinresonanzbildgebung (fMRT) kann unter anderem die Durchblutung der Skelettmuskulatur untersucht werden. Dies ist von Interesse, da Veränderungen in der Gewebedurchblutung häufig auf kardiovaskuläre Erkrankungen hindeuten. Zum Zweck einer solchen Untersuchung wird die Reperfusion nach einer bewusst hervorgerufenen Ischämie betrachtet. In diesem Fall bestimmen zwei Vorgänge die Reperfusion: Ein starker Anstieg in der Gewebedurchblutung und Änderungen im Sauerstoffgehalt. Beides trägt zum BOLD- Kontrast (blood oxygenation level-dependent) in der fMRT bei. Die Echoplanare Bildgebung (EPI, Echoplanar Imaging) kann dazu benutzt werden um fMRT Daten von Muskeln aufzunehmen. Das Hauptmerkmal der EPI-Technik ist Geschwindigkeit, allerdings ist sie anfällig für Artefakte, insbesondere Bewegungsartefakte. Da das Ischämie-Reperfusionsexperiment relativ lang (45 Min.) dauert, wird die Wahrscheinlichkeit dafür, dass Artefakte auftreten noch vergrößert. Die Unabhängigkeitsanalyse (ICA, independent component analysis) ist eine Methode der multivariaten Statistik, die erfolgreich in der fMRT Bildgebung des Gehirns und in der Elektroenzephalographie angewendet wird. Mit ihr ist es möglich Daten in einzelne, statistisch unabhängige Komponenten zu zerlegen und so einen genaueren Einblick in das 84 Signal zu gewinnen. Ziel der vorgestellten Arbeit ist es, mit Hilfe einer zeitlichen Unabhängigkeitsanalyse (tICA) den Zeitverlauf von fMRTDaten, gemessen in der menschlichen Wadenmuskulatur, zu untersuchen und dabei Artefakte zu identifizieren und dann aus den Daten zu entfernen. Methoden: Elf gesunde, männliche Probanden nahmen an dem Ischämie- Reperfusionsexperiment Teil, in dem sie am Ende der Ischämie Plantarflexion bis zur Erschöpfung ausführen sollten. Fettunterdrückte EPI Bilder (TE = 44 ms, TR = 500 ms) wurden mit einem Siemens Tim Trio Scanner kontinuierlich vor, während und nach der Ausübung der Bewegung aufgenommen. Es wurden fünf axiale Schichten der gesamten Wade, jeweils 5 mm dick, aufgezeichnet. Im Folgenden wurde der kombinierte Zeitverlauf aller gemessenen Voxel betrachtet. In Abbildung 1 und 2 sind axiale EPI-Bilder aller Schichten und ein Signalverlauf mit Erläuterungen zu sehen. Die statistische Analyse der Daten wurde mit Matlab (Matlab R2009a, The Mathworks, Inc) und der eigens für Matlab entwickelten FastICA toolbox durchgeführt. Um die von vornherein sehr große Datenmenge auf eine handhabbare Größe zu reduzieren wurde vor der ICA eine Hauptkomponentenanalyse (PCA, principal component analysis) angewendet. Die PCA ermöglicht es umfangreiche Datensätze zu strukturieren, indem eine Vielzahl statistischer Variablen durch eine geringere Zahl möglichst aussagekräftiger Linearkombinationen, die Hauptkomponenten, genähert wird. Diese Hauptkomponenten wurden dann mittels ICA in Komponenten transformiert, die einen statistisch unabhängigen Zeitverlauf aufweisen. Die so gefundenen statistisch unabhängigen Komponenten dienten nun dazu Artefakte und verschiedene physiologische Bestandteile im Zeitverlauf des Gesamtsignals zu identifizieren und die Artefakte aus dem ursprünglichen Zeitverlauf zu entfernen. Die Identifikation von Artefakten und anderer Signalteile erfolgte durch visuelle Inspektion. Ergebnisse und Schlussfolgerungen: Abbildung 3 zeigt den Zeitverlauf des Signals aus einer Messung vor und nach der Entfernung der durch ICA gefundenen Artefakte. Mithilfe von ICA konnten Artefakte aus dem Signalverlauf identifiziert und entfernt werden, was die Genauigkeit und Zuverlässigkeit von mfMRT Messungen erhöht. Anmerkungen: Studie finanziert durch den Wiener Wissenschaft-, Forschungs- und Technologiefonds (WWTF); [1]. Noseworthy, M.D.,et al. Seminars in Musculoskeletal Radiology. 2003. [2]. McKeown, M.J., et al. Hum. Brain Mapping. 1998. Poster 02: Biomedizinische Technik P02.01 Einfluss der Parameter Umgebungstemperatur und Durchmesser der nasalen Luftwege auf die Temperaturverteilung am Pferdekopf 1 2 3 1 C. Siewert , C. Staszyk , A. Bienert-Zeit , B. Krogbeumker , B. 3 1 Ohnesorge , H. Seifert ; 1 Allgemeine Radiologie und Medizinische Physik, Tierärztliche 2 Hochschule Hannover, Hannover, Germany, Anatomisches Institut, 3 Tierärztliche Hochschule Hannover, Hannover, Germany, Klinik für Pferde, Tierärztliche Hochschule Hannover, Hannover, Germany. Einleitung: Um die Infrarot (IR)-Bildgebung [1] künftig auch zur Diagnostik von Nasengangs- und Nasennebenhöhlen-Pathologien am Pferdekopf einsetzen zu können, sind Kenntnisse über den Einfluss der Parameter Umgebungstemperatur und Durchmesser der nasalen Luftwege auf die Temperaturverteilungsmuster im IR-Bild eine wichtige Voraussetzung. Material und Methoden: Es wurden Finite Element Methode (FEM)Simulationen unter Anwendung der biologischen Wärmeleitungsgleichung (Multiphysics V 4.1, Fa. Comsol Multiphysics GmbH) an einem Querschnittsmodell des Pferdekopfes mit einer Fell-, einer Haut-, einer Knochen- und einer Gewebeschicht mit einem zylinderförmigen, parallel zur Hautoberfläche verlaufenden Luftweg durchgeführt. Dabei wurde die Konvektion auf der Haut- bzw. Felloberfläche berücksichtigt. Die weiteren Parameter der Simulation sind bereits in [3] angegeben. Die Parameter Umgebungstemperatur Tu und Durchmesser des Luftweges wurden im Rahmen der FEMSimulationen variiert. Die berechneten Temperaturverteilungsmuster wurde mit IR-Bildern von Pferdeköpfen qualitativ verglichen, die bei einer Umgebungstemperatur von 5 und 15 °C mit IR-Kameras vom Typ IR Flex Cam 320 bzw. R2 (Fa. Goratec) aufgenommen wurden. Die IR-Bildmatrix betrug 320 x 240 bzw. 160 x 120 Pixel, die thermische Auflösung 70 mK. Ergebnisse: Die mittels FEM-Simulation berechneten Temperaturverteilungsmuster (s. Abb. 2b und c) stimmen qualitativ gut mit typischen IR-Bildern von Probanden überein (s. Abb. 1b und 1c). Die markanten Temperaturunterschiede oberhalb eines Luftweges werden jedoch schwächer, wenn die Umgebungstemperatur ansteigt (Anstieg um 8 ºC, Tu = 19 ºC, s. Abb. 2a). Eine Verringerung des Durchmessers des Luftweges von 10 über 6 auf 2 mm führt ebenfalls zu einer deutlichen Abschwächung des Temperaturprofils (s. Abb. 2d, 2e, 2f). Diskussion: Die Ergebnisse der FEM-Simulationen zeigen, dass die im IR-Bild beobachteten Temperaturverteilungsmuster erheblich von den Parametern Umgebungstemperatur und Durchmesser der nasalen Luftwege beeinflusst werden. Dieser Einfluss muss somit bei der Entwicklung einer Methode zur Auswertung von IR-Bildern in Hinblick auf die Diagnostik von Nasengangs- und NasennebenhöhlenPathologien des Pferdes berücksichtigt werden. Literatur: 1. Keyserlingh JR, Ahlgren PD et al. (2008): Functional Infrared Imaging of the Breast: Historical Perspectives, Current Applikation, and Future Considerations, In: NA Diakides, JD Bronzino, Medical Infrared Imaging, CRC Press, Boca Raton 2. Krogbeumker B, Siewert C, Staszyk C, Bienert A, Ohnesorge B, Seifert H (2009): The passive infrared thermography as addition to diagnostics of diseases in the head region of the horse - First results. In: Dössel, O; Schlegel, WC (Hrsg.): IFMBE Proceedings 25 (II) 11th World Congress Medical Physics and Biomedical Engineering. Berlin Heidelberg NY, 221-224 3. Siewert C, Staszyk C, Seifert H (2010): Einfaches FEM-Modell zur Berechnung der Temperaturverteilung am frontalen Pferdekopf - Erste Ergebnisse. In: 41. Wissenschaftliche Tagung der DGMP (2010), (Hrsg.: N Hodapp, J Hennig, M Mix). Freiburg, Tagungs-CD, 610-612 P02.02 In-silico-Modellierung der sauerstoffkonzentrationsabhängigen Invasionsgeschwindigkeit von Tumorzellen 1,2 3 1 1,4 1,2 A. Toma , P. Pfenning , A. Mang , T. A. Schütz , S. Becker , W. 3 1 Wick , T. M. Buzug ; 1 Institute of Medical Engineering, University of Lübeck, Lübeck, 2 Germany, Kompetenzzentrum für Medizintechnik (TANDEM), Lübeck, 3 Germany, Kilinische Neuroonkologie, Deutsches Krebsforschungszentrum Heidelberg (DKFZ), Heidelberg, Germany, 4 Graduiertenschule für Informatik in Medizin und Lebenswissenschaften, Universität zu Lübeck, Lübeck, Germany. Motivation: Gegenstand dieser Arbeit ist ein diskret-kontinuierlicher Ansatz zur mathematischen Modellierung des zellulären Wachstums eines Glioms in Abhängigkeit von der Nährstoffkonzentration, der extrazellulären Matrix (EZM) und der Matrix-degradierenden Enzyme (MDE). Um den hypoxischen Arealen, die Gehirntumore aufweisen, Rechnung zu tragen und aktuelle Ergebnisse aus in-vitro-Versuchen zu integrieren, haben wir das momentane Standardmodell um einen zusätzlichen Faktor ergänzt: Wir steuern die Migration der Tumorzellen zusätzlich zu Chemotaxis und Haptotaxis durch eine Variation der Diffusionskoeffizienten in Abhängigkeit von der berechneten Sauerstoffkonzentration. Methoden: Bei den betrachteten In-vitro-Experimenten wurden humane Gliomzellen auf einer mit Agar beschichteten Platte ausgesät. Innerhalb von fünf Tagen formen diese intrinsisch sogenannten Sphäroide aus. Diese werden in eine Collagenmatrix implantiert, worin sie innerhalb weniger Stunden anfangen zu sprießen. D.h. einzelne Zellen fangen an, das Sphäroid zu verlassen und, in Abhängigkeit von der vorhandenen Sauerstoffkonzentration, innerhalb der Matrix zu migrieren. Dabei besteht die EZM aus humanem Collagen versetzt mit Fibronectin. Unser in-silico Modell basiert auf einem System von partiellen Differentialgleichungen. Der kontinuierliche Modellierungsanteil beschreibt die Mikroumgebungskomponente bestehend aus der Konzentration der Nährstoffe, der MDE und der Dichte der EZM. Die Lösungen dieser Gleichungen werden mit Hilfe der Finite-ElementeMethode bestimmt. Die raum-zeitliche Invasion der Tumorzellen wird durch die Diskretisierung einer Reaktions-Diffusions-Gleichung beschrieben. Diese besteht zum einen aus einem Diffusionsterm, der die zufällige Migration repräsentiert, als auch aus Termen, die Haptotaxis- bzw. ChemotaxisImpulse aufgrund der EZM bzw. Nährstoffe beschreiben. Beide steuern die direkte Migration. Der diskrete Ansatz ist stochastischer Natur, da eine deterministische Herangehensweise die experimentellen in-vitroBeobachtungen nicht adäquat widerspiegeln kann. Für die Diskretisierung benutzen wir das Standard-Finite-DifferenzenVerfahren: Vorwärtsdifferenzen in der Zeit und zentrale Differenzen im Raum. Die resultierenden Koeffizienten geben Wahrscheinlichkeiten für die Tumorzellbewegungen an. Für die Beschreibung der Diffusion wird nicht standardmäßig ein Koeffizient benutzt, sondern die Werte werden in Abhängigkeit von der Nährstoffkonzentration gesteuert. Die oben beschriebenen in-vitro-Versuche haben gezeigt, dass bei Sauerstoffmangel Tumorzellen ein invasiveres Verhalten zeigen als unter normoxischen Bedingungen (siehe Abb. 1a)). Um diese Beobachtung in die Modellierung einzubinden, verwenden wir einen variierenden Diffusionskoeffizienten für die Migration der Krebszellen beim Auftreten von Hypoxie: 85 which will be used in future work to render each organ for a 3D-Hybrid Model using NURBS (Non-Uniform Rational B-Spline). 4. Conclusion: MONEYPENNY and JAMES qualify both as digital whole body atlas was well as bases for a 3D-Hybrid Model. wobei k > 1. Ergebnisse: Die Resultate der in-vitro und in-silico-Versuche sind in Abb. 1a) bzw. b) dargestellt. Die Entfernung wird mit einer Geraden von der Mitte des Sphäroids zu den 1 % am weitesten migrierten Zellen gemessen. Dabei entspricht eine Invasion von 100 % dem Anfangsstadium, d.h. der Abstand von der Mitte des Tumorsphäroides bis zum Rand. Abb. 1: Die Invasion der Tumorzellen bei Hypoxie und Normoxie: a) invitro, b) in-silico-Ergebnisse. Fazit und Ausblick In diesem Beitrag wurde ein kontinuierliches, stochastisches Modell vorgestellt, das ausschließlich die frühe Invasion des Tumors in Wechselwirkung mit Sauerstoff betrachtet. Hierzu wurde ein entscheidendes, experimentell bestätigtes Verhalten individueller Tumorzellen vorgestellt und integriert, nämlich die Abhängigkeit der Invasionsgeschwindigkeit der Tumorzellen von der Sauerstoffkonzentration. Diese wichtige Erkenntnis kann in Wachstumssimulationen eingebracht werden, um bessere Prognosen über den Verlauf des Tumors auf einer mikroskopischen Ebene schätzen zu können. Die Integration weiterer Prozesse, wie Nekrose und Proliferation, sowie die Interaktionen mit dem Immunsystem sind wesentlicher Bestandteil unserer aktuellen Forschung. P02.03 Development of “MONEYPENNY” and “JAMES”, new whole body atlases for organ recognition with regard to PET data 1 1 1 2 G. Sereinig , B. Matthias , L. Thomas , M. Gerald ; 1 2 AIT-Wien, Vienna, Austria, TU-Vienna, Vienna, Austria. 1. Aim: In contrast to Computed Tomography (CT) molecular imaging like Positron- Emission tomography (PET) does not produce anatomic information like the organs’ shape and boundaries. However a semiautomatic procedure to be used on PET data can assign the displayed activity distribution to specific organs by means of body atlases. Moreover such an atlas preferably serves as basis for the development of a non-rigid Hybrid phantom, combining smooth and adjustable surfaces with high spatial discretisation. For this purpose the adult female voxel phantom “Ella“, and the male voxel phantom “Duke” from the Virtual Family are edited with the help of clinical whole body CT data sets and thus a new female body atlas “MONEYPENNY” and a male body atlas “JAMES” is created. 2. Materials and methods: MONEYPENNY and DUKE were voxelized with Virtual Family Tools and exported into a raw file with regard to different spatial resolutions. The best resolutions are 0,5x0,5x0,5mm voxels with 12 individual blocks that correspond to ten files in raw format which were saved with a total of 2400 slices. The organs and tissues were segmented from these raw images using the image processing software 3D-Doctor, eradicating the error pixels such as uncertainties in body boundary and organ overlaps. In order to create the new phantom the manipulated data was realigned with three anonymised clinical body CT data sets. This re-adjusting was performed in a slice to slice way, using the Pocket Atlas of Sectional Anatomy to identify the respective top and bottom slice of each organ within the CT- Data set. Then the boundaries and the septa of the relevant organs were altered in order to fit the CT-data by means of polygon chains and saved in raw format. 3. Results: The new phantoms have 77 organs which were saved in three ways (raw file, bitmap, tiff) and the Information stored in a txt file (pixel value, organ name, resolution). The two models have an even higher spatial resolution than the Virtual Family(0.1x0.1x0.1mm) and contain no error pixels. Six organs (bladder, liver, prostate, lung, thyroid, kidney) have detailed internal organ walls. For the future use as a body atlas the backbone and the pelvis can be used as coordinate system. The detailed segmented solution with all body organs is prepared in a raw file format solution with only 60MB 86 P02.04 Experimental identification of the transfer function of piezoelectric elements of medical ultrasound probes K. Nounga Kamwa, A. Poelstra, H. Overhoff; University of Applied Sciences Gelsenkirchen, Gelsenkirchen, Germany. 1. Introduction: The application of ultrasound for image guided implantation of brachytherapy catheters is still limited due to poor image contrast and artifacts. The advantages of ultrasound - real time modality to relatively low costs - may find more entrance in the clinical practice if more advanced imaging techniques could handle these drawbacks. In pulse echo imaging a piezoelectric ultrasound transducer is used to transform an electrical signal produced by some driving circuit into an acoustical wave (transmit) and vice versa (receive). Many advanced ultrasound imaging techniques rely onto knowledge of the electromechanical (transmit) and mechanoelectrical (receive) dynamics of the piezoelectric elements. Objective: Development of an experimental identification of piezo transmit and receive dynamics 2. Materials and Method: N piezoelectric crystals with (unknown) and mechanoelectrical receive electromechanical transmit z-space transfer functions are connected to a multi-channel ultrasound system (OPEN system, LeCoeur Electronique, France), which controls frequency modulated as well as phase coded time-discrete emit signals (resp. and measures receive signals (resp. ). The wave propagation from transmit piezo i to receive piezo j is modeled and consists of distilled, degassed water and a circular planar by reflector with a diameter of 80 mm in a distance of 8 mm to the transducer surface. For data acquisition, only one piezo i transmit at a receive the reflection signal. The output time and all piezos, is modeled by a discrete linear ARMA model signal . and The orders m and n and the parameters minimize the least squares sum of the output error . The transfer function of the complete system are chosen to is then given by . Its poles (zeros) are assigned to the piezo’s i-th transmit (j-th receive) transfer functions by selection of those poles (zeros), which occur in all pole maps (zero maps) of the i-th transmit (all pole maps (zero maps) of the j-th receive) piezo. Poles (zeros) are identified to be identical, if their inter-map distance is < 0.1. The identification is possible only for piezo and because the number of unknowns grows slower than the number of . equations Generally it is hypothesized that a piezo’s transmit and receive transfer function is identical. With our experimental set up this can be controlled. 3. Result: The transfer functions of all subsystems could be identified and the results controlled by using different input signals. For least squares errors < 5%, the piezo transmit and receive transfer function’s orders show a range of m<=2, n<=4. Parameter identification is quite similar to the yielded, that the transmitter transfer function receiver transfer function . 4. Conclusions: Small piezo transmit function model orders are acceptable, because they reflect an oscillating system. Ongoing work is addressed to the development of more sophisticated image reconstruction algorithms yielding artifact reduced images. P02.05 Potentielle Effekte von stenosierten bikuspidalen Aortenklappen auf die Entstehung und Ausbreitung von Dissektionen der Aorta Ascendens 1 1,2 3 4 D. Fechtig , H. Schima , H. Kuhlmann , J. Aiginger ; 2 Center for Med. Physics and Biomed. Eng., Vienna, Austria, Ludwig3 Boltzmann-Cluster for Cardiovasc. Surg, Vienna, Austria, Department of 4 Fluid Mechanics and Heat Transfer, Vienna, Austria, Institute of Atomic and Subatomic Physics, Vienna, Austria. 1 Zahlreiche klinische Studien belegen durch das gemeinsame gehäufte Auftreten einen kausalen Zusammenhang zwischen stenosierten bikuspidalen Aortenklappen und DeBakey Typ I Aortendissektionen. Neben histo-pathologischen Faktoren werden eventuelle biomechanische Gründe als potentielle Auslöser dieser Krankheit angenommen. Mit Hilfe von numerischen CFD Simulationen untersuchten wir potentielle Effekte des durch die Klappenstenose veränderten Strömungsfeldes auf die Aortenwand. Methoden: Das pulsatile Geschwindigkeitsfeld der Blutströmung durch die menschliche Aorta in Ruhe und unter Arbeitsbedingungen wurde numerisch für normale Klappen und verschiedene Typen von bikuspidalen Aortenklappen zusammen mit 3 verschiedenen Größen von Aortendissektionen simuliert. Ein steifes Modell des links-ventrikulären Ausflusstrakts, der jeweils offenen Klappe und des Aortenbogens wurde durch ein Netz mit ca. 1.5Mio Zellen diskretisiert. Das Blut wurde als Newtonsche Flüssigkeit approximiert, Turbulenz wurde mit Hilfe des Transition-SST-k-ω-Solvers von ANSYS® modelliert. Neben globalen hemodynamischen Observablen wurden die Geschwindigkeit des BlutJets, Wanddruck, Wandschubspannung und der Staudruck zwischen den bereits dissektierten Arterienlamellen berechnet und visualisiert. Anschließend wurde basierend auf den berechneten Druckwerten unter Ausnutzung des generalisierten Hooke´schen Gesetzes mit Hilfe einer inkrementellen Prozedur eine vergleichende Festigkeitsüberprüfung der Aortenwand und unter Zuhilfenahme von elementaren hydrostatischen Überlegungen die potentielle Dissektionskraft auf die verschieden großen Lamellen durchgeführt um diese dann im Kontext mit experimentellen Materialversagenswerten diskutieren zu können. Resultate: Normale Aortenklappen erreichen systolische Blutgeschwindigkeiten von ca. 1.2m/s, Wanddrücke von 117mmHg und Staudrücke welche allesamt nicht größer als 8mmHg werden, stenosierte bikuspidale Aortenklappen mit einem ellipsoiden Öffnungsverhältnis von 21:6mm hingegen belasten die Wand der aorta ascendens proximal des truncus brachiocephalicus mit systolischen Jets von bis zu 4.4m/s, Wanddrücken um 160mmHg und Staudrücken bis zu 45mmHg. Das Resultat im bikuspidalen Fall sind pulsatile Kraftspitzen von 0.288N auf die delaminierten Wandschichten mit einer Fläche von 2 48mm . Im Falle normaler Aortenklappen fallen die Kraftspitzen mit 0,051N deutlich geringer aus. Ein Vergleich zwischen quantitativen und qualitativen Zusammenhängen zwischen physiologischen und pathologischen Wandspannungen mit belastungsinduzierten Ermüdungserscheinungen der Aortenwand lässt ein signifikant erhöhtes Dissektionsrisiko der Aortenwand im bikuspidalen Fall vermuten. Schlussfolgerungen: Die durch stenosierte bikuspidale Aortenklappen verursachte erhöhte Strömungsgeschwindigkeit des Blutes führt zu signifikant erhöhten Wanddrücken und Staudrücken, was mit hoher Wahrscheinlichkeit die Ursache, zumindest aber einen begünstigenden Faktor bei Bildung und Vergrößerung von Dissektionen der aorta ascendends darstellt. P02.06 Validation of gold standard dataset using 3D/3D intensity-based registration 1 1 2 2 1 S. Ardjo Pawiro , C. Gendrin , P. Markelj , F. Pernus , M. Figl , C. 1 1 3 3 1 Weber , H. Bergmann , M. Stock , D. Georg , W. Birkfellner ; 1 Center for Medical Physics and Biomedical Engineering, Medical 2 University of Vienna, Wien, Austria, Laboratory of Imaging Technologies, Faculty of Electrical Engineering, University of Ljubljana, 3 Ljubljana, Slovenia, University Clinic of Radiotherapy, Division of Medical Radiation Physics, Medical, Wien, Austria. Introduction and objectives: Image registration is necessary to guide the radiotherapy treatment unit and its main application is the correction 1,2 of the patient position in the treatment room. Since an image guided radiotherapy (IGRT) system is a tool to ensure target localization during radiation delivery, it is mandatory that a painstaking validation process of individual components of the system is carried out in order to study how 3,4 single errors in the IGRT system affect the overall accuracy. A prerequisite for an objective validation of an IGRT system component like a 2D/3D registration algorithm is the standardization of the validation process which includes the design of validation data sets, the definition of corresponding ground truth and its accuracy, the validation protocol, 3,4 and the design of a validation metric. The aim of our work is to investigate the validity of a 2D/3D gold standard dataset using the 3D/3D intensity-based image registration. Materials and Methods: The pig head was supplied by the Department of Biomedical Research, Medical University of Vienna (MUV). Image acquisition took place within 24 hours after the pig was sacrificed. Using the screws, the holder was possible to tap threads in the bony skull of the pig. The replaceable spherical markers of 10 mm diameter were made of steel, aluminum, and polytetrafluoroethylene (PTFE). A plastic hollow sphere was filled with olive oil injection for MR - compatible markers. The image dataset was taken in a 64-slice Computerized Tomography (CT), cone beam CT (CBCT) with small and big field of view (FOV), and Magnetic Resonance (MR) with T1, T2 and proton density (PD) weighted . We segmented and calculated the centroid of the markers using ANALYZE 10.0 (AnalyzeDirect Inc., Kansas City, KN). The fiducial registration error (FRE) was calculated using root mean square (RMS) distance between two fiducial points of the pair modalities. Furthermore, the target registration error (TRE) was calculated using RMS distance fiducial markers of an normalized mutual information (NMI) registration method. This method was implemented in ANALYZE 10.0. Results: Table 1 shows that the FRE of point-based 3D/3D registration was in the range of 0.36 - 1.55 mm. The TRE was computed by implementation the 3D/3D intensity-based NMI algorithm for fiducial markers. The results showed a good correlation in the range of 0.63 3.85 mm. Conclusions: The validation gold standard data set using the 3D/3D intensity-based registration shows that the gold standard data set accurate and valid for 2D/3D and 3D/3D image registration. Table 1. The comparison of FRE for 3D/3D point - based registration and TRE for the fiducial centroids when using an intensity based registration algorithm (normalized mutual information). FRE is given in the first line, while TRE can be found below in brackets. CT CBCT CBCT small MR T1 MR T2 MR PD (in big FOV(in FOV(in mm) (in mm) (in mm) (in mm) mm) mm) 0.656 1.44 1.32 CT 0.43 (1.14) 0.36 (0.63) (0.79) (1.70) (3.85) CBCT big 0.62 1.55 1.25 0.52 (0.72) FOV (3.19) (2.42) (3.02) CBCT 0.65 1.49 1.31 small FOV (1.13) (2.29) (3.42) 1.26 1.16 MR T1 (1.88) (1.50) 1.50 MR T2 (2.31) MR PD - P02.07 Beam forming induced needle artifacts in 2-D ultrasound imaging S. Schmiemann, A. Poelstra, H. Overhoff; University of Applied Sciences Gelsenkirchen, Gelsenkirchen, Germany. Introduction: B-mode ultrasound image guidance of brachytherapy catheters relies on geometrically correct catheter visualization. B-mode images are gray value coded illustrations of received pulse wave echoes. Most image reconstruction algorithms misplace reflector locations which are off the wave’s focus. We found, that within ultrasound images the cross sections of thin needles are represented by curved artifacts. To avoid misinterpretation of such images, the artifacts can potentially be removed by signal processing if their origin is well understood. Objective: Derivation of that part of the artifact geometry which is already explainable with the help of linear sound wave propagation in a homogenous medium and a point reflector as a model of a thin needle hit in cross section Methods: 3-D ultrasound volumes of needles and catheters of different materials placed in a basin filled with milk are acquired with the help of a 3-D ultrasound transducer. The artifacts in the acquired images are compared with artifacts, which are simulated by use of the software tool Field II. For sinusoidal wave trains and for impulse waves, the transmit and receive beam forming/ focusing is simulated. The simulation of the impulse wave propagation models the real signal processing sequence, i.e. the application of a matched filter to the received sinusoidal wave train and so its transformation to an impulse. The simulation is performed for a linear array transducer with N piezoelectric elements, which are used synchronously in transmit and receive. For each of the N^2 transmit and receive pairs the wave propagation for reflectors located in (1) the focus point and (2) at off87 focus points was simulated. For focusing, element groups were excited in which the amplitudes of the elements were weighted differently (apodization). The cross section of a thin needle was modeled by a point reflector. The dimensions of reflector misplacement were determined, and the relation of the curved artifacts to the different kinds of apodization was analyzed. Results: The simulation yields axial dimensions of artifacts similar to those observed in the cross sectional ultrasound images. Interferences of sinusoidal wave trains lead to internal structures of the artifacts. Fig. 1 shows an original B-mode image (left), the simulated artifacts for a sinusoidal wave train (middle) and an impulse wave (right). Accordingly, the curved artifacts are a result of transmit and receive beam forming strategy for linear sound wave propagation. The images taken with the ultrasonic device do not show internal structures. So a comparison to pulse waves as excitation signals can be drawn. Thus, the ultrasonic device uses a matched filter for image reconstruction. Conclusion: The major part of needle cross sectional artifacts can be explained by linear wave propagation and transmit/ receive beam forming. Therefore, these artifacts can potentially be removed by image processing in order to improve the precision of image reconstruction. If internal artifact structures are observed in images, matched filtering could be an appropriate part of such image processing, but acquires the knowledge or assumption of the form of the transmit signal. 88 Poster 03: Freie Themen P03.01 Modellierung von Tumorwachstum: Über stabile explizite und implizite numerische Verfahren zur Lösung eines Anfangsrandwertproblems 1 1,2 1,2 1,3 1 A. Mang , A. Toma , S. Becker , T. A. Schütz , T. M. Buzug ; 1 Institut für Medizintechnik, Universität zu Lübeck, Lübeck, Germany, 2 Kompetenzzentrum für Medizintechnik, Lübeck, Germany, 3 Graduiertenschule für Informatik in Medizin und Lebenswissenschaften, Lübeck, Germany. Motivation: Die vorliegende Arbeit diskutiert einen bildbasierten Ansatz zur Modellierung der raum-zeitlichen Dynamik primärer Hirntumoren. Ziel einer mathematischen Modellbildung ist es beispielsweise ($i$) Hypothesen über den Verlauf der Krankheit zu prüfen oder ($ii$) ein generisches Werkzeug bereitzustellen, um die Interpretation medizinischer Bilddaten zu unterstützen. Die raum-zeitliche Dynamik der Population kanzeröser Zellen auf Gewebeebene, welche wir in der vorliegenden Arbeit exklusiv betrachten, wird typischerweise über ein Anfangsrandwertproblem (ARWP) erklärt. Zu dessen Lösung wird in nahezu allen publizierten Arbeiten ein Euler-Cauchy-Verfahren (ECV) verwendet (siehe [1,2]). Dieses besitzt den Nachteil der Existenz einer oberen Schranke für die maximale zeitliche Schrittweite (CFL Bedingung). Damit wird das Verfahren für große Simulationszeiträume ineffizient. Eine gängige Strategie, diese Restriktion zu umgehen, ist die Verwendung impliziter Verfahren. Methoden: Die Modellierung der raum-zeitlichen Dynamik kanzeröser Zellen wird über ein Anfangsrandwertproblem formuliert. Wir nehmen an, dass die raum-zeitliche Ausbreitung der Zellen phänomenologisch hinreichend gut durch passive Diffusion und Proliferation abgebildet werden kann. Um die experimentell bestätigte, entlang der Nervenbahnen gerichtete, Ausbreitung der Tumorzellen abzubilden, integrieren wir Diffusions-Tensor-Daten in das Modell. Für die Modellierung der Zellvermehrung beleuchten wir drei verbreitete Ansätze: exponentielles, logistisches und Gompertz'sches Wachstum. Insgesamt ergibt sich eine parabolische Differentialgleichung zweiter Ordnung mit variablen Koeffizienten, deren Linearität vom gewählten Reaktionsterm abhängt. Zur Lösung des ARWP stellen wir, neben dem expliziten (ECV) und dem impliziten Euler-Verfahren (IE), und dem $\theta$-Verfahren ($\theta \in\{0.25,0.5, 0.75,0.9\}$, Crank-Nicholson (CN) für $\theta = 0.5$), ein neuartiges, kürzlich vorgeschlagenes [3], stabiles explizites EulerVerfahren (ECV$^{\star}$) vor. Die Stabilität des Schemas wird durch eine Unterteilung des beliebig großen Zeitschritts in geschickt gewählte Unterschritte erreicht. Das verblüffende Resultat dieser Strategie ist, dass bis zu 50% der Unterschritte die CFL-Bedingung verletzen. Damit erreichen wir die Effizienz impliziter Verfahren bei algorithmischer Komplexität des ECVs. Zur Lösung des für die impliziten Schemata entstehenden linearen Gleichungssystems verwenden wir effiziente Krylow-Unterraum-Verfahren. Eine numerische Fehler-Analyse erfolgt über die Berechnung der 1-Norm des Abstandes zwischen numerischer und Fundamentallösung eines vereinfachten Modellproblems. Darüber hinaus leiten wir für das ECV eine obere Schranke für die Schrittweite in der $\ell^2_h$-Norm her. Resultate: Der Trend des numerischen Fehlers ist exemplarisch in der Abbildung dargestellt. Gezeigt ist die 1-Norm des Abstandes zwischen numerischer und Fundamentallösung für verschiedene Simulationszeitpunkte. Darüber hinaus demonstrieren wir mittels des nicht vereinfachten Modellproblems den Einfluss unterschiedlicher Modellparameter und die Effizienz der vorgestellten Verfahren. Fazit Der wesentliche Beitrag der vorliegenden Arbeit liegt in ($i$) der Diskussion impliziter Strategien zur Lösung des ARWP, ($ii$) der Bestimmung einer oberen Schranke für die Schrittweite des ECVs bei vorliegendem Modellproblem und ($iii$) der Einführung einer, kürzlich auf dem Gebiet der Bildverarbeitung vorgeschlagenen Strategie zur Stabilisierung des ECVs. Wir haben gezeigt, dass dieser Ansatz bezüglich des numerischen Fehlers und der Effizienz impliziten Verfahren gleichzusetzen ist. Im Zentrum unserer derzeitigen Forschungsbemühungen steht neben der algorithmischen Weiterentwicklung eine Individualisierung der Modellierung. Hiermit erhoffen wir uns Vorhersagen über den Krankheitsverlauf in individuellen Patienten generieren zu können. Referenzen [1] Hogea et al., SIAM J Sci Comput 30:3050-3072(2008) [2] Rockne et al., Phys Med Biol 55:3271-3285(2010) [3] Grewenig et al., LNCS 6376, pp. 533-542, 2010 P03.02 On classifying biological networks using structural features of the underlying network topology L. A. Mueller; UMIT - Institute for Bioinformatics and Translational Research, Hall in Tirol, Austria. Classical univariate feature approaches for the analysis of biological data have shortcomings in modeling the dynamic and multidimensional nature of biological data. Network based approaches have been proven to provide a better solution for modeling and analyzing biological data. To analyze networks structurally, various topological network descriptors have been developed. Moreover, such descriptors capture different structural features of networks and they have been proven useful to characterize molecular networks. The aim of our my thesis is to investigate different groups of topological networks descriptors on their classification performance on biological networks. Moreover, we adapt existing methods or develop new methods to tackle this challenge. In a first study, we inferred correlation networks from different mircoarray studies related to prostate cancer data with two different stages (cancer vs. benign). Clustering the networks using structural features, that are captured by topological network descriptors, lead to two clusters with all cancer networks clustered together. These findings demonstrate that we were able to identify cancer specific features only by analyzing the underlying network topology. To perform our investigations, we developed an package for the open source programming environment R, called QuACN, that contains a selection of topological network descriptors. Compared to commercial software tools, e.g., Dragon, it is freely available and open source. Moreover, it is the only available software package that contains sophisticated measures, such as the parametric graph entropy. The package is under constant development and new groups of network measures will be added permanently. Thus, the package offers the possibility to investigate different groups of network measures in terms of their ability to classify biological data. Therefore, we applied them to a set of molecular networks, representing drug-like compounds that were categorized positive or negative by the Ames test for mutagenicity. It turned out that it was not possible to classify this data with a meaningful classification performance. A structural analysis of the molecular networks lead us to the conclusion that it is necessary to consider different structural features, to perform a meaningful classification. This can be achieved by combining different topological network measures from different groups. We applied this concept within the following study. Here, we present an approach to classify the three domains of life using topological information of the underlying metabolic networks. To combine measures of two different groups (non-entropy-based and entropy-based) we perform a feature selection to estimate the structural features with the highest classification ability in order to optimize the classification performance. It turned out that a meaningful classification was possible by only using 5 structural features. Moreover, it turned out that the group of entropy-based descriptors outperformed the group of non-entropy-based measures, in terms of classification performance. For future work we plan to adapt existing concepts of topological network descriptors, in terms of classification performance on biological networks. Furthermore we plan to develop new descriptors to tackle new challenges in network biology. P03.03 Meta-analytische Re-Analyse dreier aktueller Datensätze 1,2,3 1,2,3 2 1,3 2 W. Huf , K. Kalcher , G. Pail , R. Boubela , L. Pezawas , C. 1 1 2 3 2 Windischberger , E. Moser , M. Friedrich , P. Filzmoser , S. Kasper ; 1 Exzellenzzentrum Hochfeld-MR, Zentrum für Medizinische Physik und Biomedizinische Technik, Medizinische Universität Wien, Wien, Austria, 2 Abteilung für Biologische Psychiatrie, Universitätsklinik für Psychiatrie und Psychotherapie, Medizinische Universität Wien, Wien, Austria, 3 Institut für Statistik und Wahrscheinlichkeitstheorie, Technische Universität Wien, Wien, Austria. Einleitung: Die Bedeutung meta-analytischer Methoden ist zunehmend in Steigen begriffen, einerseits aufgrund der rapide ansteigenden Zahl von Primärstudien, andererseits aufgrund der vermehrten Durchführung von Multi-Center-Studien. In beiden Fällen ist das adäquate Poolen der Evidenz unter Beachtung der Varianzunterschiede zwischen Studien bzw. Zentren von großer Bedeutung. Ziel der vorliegenden Studie war die detaillierte Re-Analyse dreier publizierter Datensätze aus dem Bereich der Psychopharmakologie und Identifikation potentieller Probleme und statistischer Fallen. In einem zweiten Schritt sollte ein großer, frei verfügbarer fMRT-Datensatz (1000 Functional Connectomes Project; Biswal et al. 2010) analysiert werden (siehe Abstract Boubela et al. 2011). Methodik: Drei meta-analytische Datensätze, publiziert von Geddes et al. (2008), Kirsch et al. (2009) sowie Sneed et al. (2008), wurden reanalysiert. Anschließend wurden die gefundenen Resultate und Interpretationsmöglichkeiten mit den publizierten Ergebnissen und Interpretationen verglichen. Im speziellen wurde auf die Untersuchung des Einflusses verschiedener Modelle (Fixed Effect vs. Random Effects, Meta-Regression) und unterschiedlicher Effektgrößen (HAMD, Cohen's d) Wert gelegt. Weiters wurde die Bedeutung von Konfidenzbändern und Verfahren der Modelldiagnostik für geeignete Interpretation der Resultate untersucht. Resultate: Die vorliegende Studie identifizierte einige weitverbreitete methodologische Probleme. Als besonders bedeutsam wurden Effektgrößenwahl sowie Modellwahl identifiziert, da in diesen beiden Stufen der jeweiligen Studie das Risiko des Data-Dredging besonders hoch ist. Weiters wurden Probleme bei Datenaggregation und Mangel an Subgruppen-Analysen festgestellt. Besonders bei Modellen im Bereich der Meta-Regression zeigte sich, dass häufiger Verletzungen der Modellannahmen vorlagen. Zuletzt identifizierte die vorliegende Studie in einigen Bereichen der in Betracht gezogenen Studien einen Mangel an Transparenz, der die Möglichkeiten für Re-Analysen einschränkte. Diskussion: Das hohe Evidenzniveau, das Meta-Analysen generell zugesprochen wird - sei es einerseits in Bereichen wie der Psychopharmakologie, andererseits im Bereich der Neuro-Bildgebung erfordert, dass entsprechend auch die Schwächen meta-analytischer Synthese beachtet werden (Huf, Kalcher et al. 2010). Zu diesem Zweck wurde im Rahmen der vorliegenden Studie eine Checkliste mit zehn Punkten entwickelt, die eine zügige Bewertung der Qualität von MetaAnalyen fördern soll. Letzteres erscheint von steigender Bedeutung, da in letzter Zeit - auch im Bereich der Neuro-Bildgebung - immer häufiger Meta-Analysen publiziert werden (Karg et al. 2011), deren Resultate den Resultaten vorhergehender Meta-Analysen - zumindest teilweise widersprechen. Literatur Biswal, B.B. (2010) 'Toward discovery science of human brain function', PNAS, vol. 107, pp. 4734-4739. Geddes, J.R. (2009), 'Lamotrigine for treatment of bipolar depression: independent meta-analysis and meta-regression of individual patient data from five randomised trials', British Journal of Psychiatry, vol. 194, pp. 4-9. Huf, W. and Kalcher, K. (2010), 'Meta-Analysis: Fact or Fiction? How to Interpret Meta-Analyses', World Journal of Biological Psychiatry, in press. Karg, K. (2011), 'The serotonin transporter promoter variant (5HTTLPR), stress, and depression meta-analysis revisited', Archives of General Psychiatry, published online January 3. Kirsch, I. (2008) 'Initial severity and antidepressant benefits: a metaanalysis of data submitted to the food and drug administration', PLoS Medicine, 5:e45. Sneed, J.R. (2008), 'Design makes a difference: a meta-analysis of antidepressant response rates in placebocontrolled versus comparator trials in late-life depression', American Journal of Geriatric Psychiatry, vol. 16, pp. 65-73. 89 P03.04 Radioactive 32P-implants for low-dose-rate (LDR) brachytherapy of benign stenoses of the urethra and the common bile duct 1 2 2 3 3 3 W. Assmann , M. Bader , C. Stief , J. Schirra , C. Schäfer , A. Wagner , 4 3 R. Sroka , B. Göke ; 1 2 Fakultät für Physik, LMU München, Garching, Germany, Urologische Klinik, Klinikum Großhadern, LMU München, München, Germany, 3 Medizinische Klinik II, Klinikum Großhadern, LMU München, München, 4 Germany, Laserforschungslabor, Klinikum Großhadern, LMU München, München, Germany. Objective: LDR brachytherapy can modulate wound healing avoiding hyperproliferation and benign stenosis of endogenous tubular structures such as bile duct or urethra. 31 Material and Methods: Polymer foils filled with up to 10% P have been developed and tested for their radiation resistance during neutron 31 32 activation of P to P, wash-out behavior and dose distribution. The 32 therapeutic range of the pure electron emitter P was measured to be only a few millimeters delivering minimal dose to the healthy tissue surrounding the treated stenosis. Dose distribution was confirmed by Geant4 simulation. Within a feasibility study on 36 rabbits and 30 swine, a benign stenosis was induced endoscopically by laser or heat in the urethra and the common bile duct, respectively. Usual implants (catheter, stent) were 32 equipped with radioactive P foils and inserted after balloon dilatation to locally irradiate the wounded stenosis tissue. The animals were sacrificed 4 weeks after brachytherapy, and the target tissue was examined by histology. 32 Results: The novel radioactive P-foil allows for the usual stent or catheter application with additional LDR-brachytherapy to prevent stenosis formation. Animal tests applying 0, 15 and 30 Gy within 7 days have not shown adverse dose effects, but evaluation of the influence on stenosis formation is not yet finished. 32 Conclusion: This newly developed P-foil offers a simple and save way to irradiate very precisely tissue with a dose up to some 60 Gy, therefore irradiation of benign as well as malign proliferation could be possible. Radiation protection can be simply assured with 10 mm thick plexiglass devices. The LDR-brachytherapy seems to be better matched to modulate the wound-healing process than short-term irradiation. Acknowledgement: This work was carried out with the support of Bayerische Forschungsstiftung (712/06). P03.05 Untersuchung struktureller Änderungen bestrahlter Zahngewebe 1 2 W. Fränzel , R. Gerlach ; 1 Martin-Luther-Universität Halle, Institut für Physik, Halle/Saale, 2 Germany, Martin-Luther-Universität Halle,Klinik für Starhlentherapie, Halle/Saale, Germany. Einleitung: Die Therapie von im Kopf-Hals-Bereich befindlichen Tumoren erfolgt hauptsächlich durch eine Bestrahlung mit hochenergetischer Röntgenstrahlen (6MV) mit wirkenden Dosen von 60 bis 70 Gy. In Studie [1] wurde gezeigt, dass die mechanischen Eigenschaftsparameter bereits nach einer Dosis von einigen Gray durch den direkten Strahlungseffekt stark reduziert werden. In der vorliegenden Studie werden die Härte und der elastische Modul verglichen mit Ergebnissen aus RAMAN-spektroskopischen Untersuchungen mit dem Ziel, die strahlungsinduzierten mechanischen Veränderungen chemisch zu erklären. Durchführung: Nichtdurchgebrochene dritte Molare wurden nach der Extraktion entsprechend den üblichen Methoden präpariert und in Testund Kontrollgruppen eingeteilt. Für alle Proben wurden die Ausgangswerte der mechanischen Parameter durch Nanoindentierung (NanoindenterII, MTS Knoxville) und die RAMAN-Spektren mit einem FT-RAMAN Spektroskop RFS 100 (Bruker Optik GmbH) im Bereich von -1 200 bis 3000 cm bestimmt. Anschließend erhielten die Zahnproben eine kumulative Röntgenbestrahlung, erzeugt durch einen SIEMENS Beschleuniger Linac MD-2. Nach jeder Bestrahlungsstufe wurden die mechanischen Eigenschaften und das RAMAN-Spektrum gemessen. Aus dem Vergleich zu den Ausgangswerten erschließt sich hiermit die Möglichkeit die strahlungsinduzierten Änderungen in den Spektren mit dem mechanischen Verhalten zu vergleichen. Zwischen allen Untersuchungsschritten wurden die Zahnproben in neutraler physiologischer Lösung gelagert. Ergebnisse: Die mechanischen Eigenschaften verringern sich drastisch nach den ersten Bestrahlungen, wie bereits in [1] beschrieben. Die berechneten Sprödigkeitsparameter steigen mit den applizierten Bestrahlungsdosen. Dies stimmt überein mit der visuellen Feststellung steigender Rauheit und zunehmender Auslösung mineralischer Bestandteile aus den Geweben. Im nichtbestrahlten Zustand gemessene RAMAN-Werte für die Kristallinität sind vergleichbar mit denen aus [2]. Durch die Bestrahlung 90 steigen die Kristallinitätswerte bis zu einer Dosis von 3…5 Gy, danach verringern sie sich wieder auf den Anfangswert. Der Parameter für die Karbonat-Substitution (B-Typ), ist für Schmelz und Dentin verschieden, aber konstant, unabhängig für den gesamten Bestrahlungsverlauf. Das Verhältnis des mineralischen zum organischen Anteil verringert sich bis zu einer Dosis von 3 Gy für Dentin. Mit weiterer Zunahme der Bestrahlungsdosis steigt das mineralisch-organische Verhältnis wieder bis zum Anfangswert an. Da der organische Peak im Spektrum fehlt, kann für Schmelz keine Aussage zum organisch-mineralischen Anteil getroffen werden. Schlussfolgerung: Der Zusammenhang zwischen der starken Verminderung der mechanischen Eigenschaften infolge einer Bestrahlung mit hochenergetischer Röntgenstrahlung nach ersten Bestrahlungsdosen und dem Ansteigen der Sprödigkeit konnte letztlich nicht genau durch RAMAN-Spektroskopie als vermuteter Verlust der Wechselwirkung mineralischer und organischer Anteile ähnlich der Dekarboxylation geklärt werden. Insbesondere der Widerspruch zwischen festgestellter Sprödigkeit und gemessener Kristallinität ist nicht zu erklären. Für weitere Untersuchung muss eine sensitivere Methode eingesetzt werden. [1] Fränzel W., Gerlach R.: The irradiation action om human dental tissue by X-rays and electrons - a nanoindenter study. Zeitsch Med Phys 19 (2009), Nr. 19, 5-10. [2] Tramini P., Pelissier B., Valcarcel J., Bonnet B., Maury L.: A Raman Spectroscopic Investigation of Dentin and Enamel Structures Modified by Lactic Acid. Caries Res 34 (2000). Nr. 3, 233-240. P03.06 Innovative Ansätze zur Therapie der altersbedingten Makuladegeneration 1 2 3 A. Stemberger , J. Neuwirth , S. Binder ; Krankenanstalt Rudolfstiftung / Ärztliche Direktion / Stabsstelle 2 Medizinphysik, Wien, Austria, Seibersdorf Laboratories, Seibersdorf, 3 Austria, Krankenanstalt Rudolfstiftung / Augenabteilung, Wien, Austria. 1 Einführung: Die altersbedingte Makuladegeneration (AMD) ist eine der führenden Ursachen der legalen Erblindung in den Industrieländern. Die AMD tritt in zwei Formen auf, einer nicht neovaskulären, sogenannten atrophischen oder trockenen Form und einer neovaskulären, sogenannten feuchten Form. Patienten, die an der neovaskulären, feuchten Form der Makuladegeneration leiden, stellen die größte Gruppe von Patienten dar, die sehr rasch erblinden. Im Gesamten betrifft die altersbedingte Makuladegeneration etwa 20% aller über 70jährigen Patienten. Lasertherapie und Chirurgie haben sich als uneffizient für die feuchte Form der Makuladegeneration erwiesen. Die derzeitig häufigsten angewandten Therapien sind eine photodynamische Therapie der Neovaskularisation, bzw. intravitreale anti-VEGF Medikamente © © © (Avastin , Macugen , Lucentis ), um eine Regression der Neovaskularisation zu bewirken. Diese neuen Medikamente müssen circa in einem Abstand von etwa 4 bis 6 Wochen appliziert werden, was sowohl die Patienten als auch die verabreichenden Abteilungen stark belastet. Derzeit wird in Studien erprobt, diese aggressive Form der Makuladegeneration einerseits mittels Anwendung umschlossener radioaktiver Stoffe, andererseits unter Verwendung einer Röntgentherapieanlage einer strahlentherapeutischen Behandlung zuzuführen, um den Krankheitsverlauf zu stoppen. Material und Methode: Bei der nuklearmedizinischen Therapie kommt ein Afterloadersystem zum Einsatz, wobei als Nuklid Sr-90/Y-90 mit einer Maximalaktivität von 555 MBq verwendet wird. Im Rahmen eines operativen Eingriffes wird der Strahler für eine wohldefinierte Bestrahlungsdauer über der Läsion positioniert. Im Gegensatz dazu kommt beim radiologischen Ansatz ein nicht invasives stereotaktisches Strahlentherapiesystem zum Einsatz, welches eine fixe Nennspannung von 100 kV und einen Fokus von 1 mm aufweist. Beide Ansätze sind grundsätzlich als positiv zu bewerten, wobei aufgrund der gegebenen Systemunterschiede vor allem in Bezug auf den Strahlenschutz Bedacht genommen werden muss. Ergebnis und Diskussion: In beiden international durchgeführten Studien wurden grundsätzlich neue Therapiewege erfolgreich erprobt, die dazu führen sollen, dass aufgrund einer einmaligen Strahlentherapie die Neovaskularisationen zum Stoppen gebracht werden können. Indikationen für diese neuartigen Therapieformen werden chronische Patienten mit feuchter Makuladegeneration sein, da bei einer Nichtbehandlung durch diese Systeme mit einer akuten Verschlechterung der Sehleistung zu rechnen ist. Poster 04: Bildgebung und Bildverarbeitung P04.01 Entwicklung eines Mausphantoms für dosimetrische Untersuchungen am µCT 1 1 2,3 2,3 2 3 M. Lüpke , C. Böhm , T. Rodt , C. von Falck , G. Stamm , J. Borlak , 2 1 F. Wacker , H. Seifert ; 1 2 Tierärztliche Hochschule Hannover, Hannover, Germany, Medizinische 3 Hochschule Hannover, Hannover, Germany, Fraunhofer Institut für Toxikologie und Experimentelle Medizin, Hannover, Germany. Einleitung: In der Tumorforschung werden häufig Mäuse als Modelltiere eingesetzt. Zur Reduzierung der Versuchstieranzahl werden Verlaufskontrollen mit bildgebenden Verfahren durchgeführt. Wird ionisierende Strahlung (z.B. µCT, µPET) zur Bildgebung verwendet, ist bei mehrfacher Anwendung mit einer nicht unerheblichen Dosis zu rechnen. Eine Dosisminimierung der verschiedenen Untersuchungsprotokolle ist daher anzustreben. Deshalb wurde für die Dosismessungen ein Mausphantom entwickelt, das mit TLD bestückt werden kann. Material und Methoden: Das Mausphantom besteht aus einem Plexiglasstab von 15,5 cm Länge und 1 cm Durchmesser, und einem Plexiglaszylinder mit zentrischer Bohrung für den Plexiglasstab. Der Plexiglaszylinder ist 10 cm lang und hat einen Außendurchmesser von 3 cm. Der Plexiglasstab verfügt über 14 Bohrlöcher (Länge 9 mm, Durchmesser 2 mm) im Abstand von jeweils 1 cm, die als Aufnahme für jeweils ein TLD dienen. Für die Dosismessungen wurden stäbchenförmige TLD des Typs TLD100H (Thermo) mit den Abmessungen von ca. 1 mm Durchmesser und 6 mm Länge verwendet. Die bestrahlten TLD wurden mit einem TLDReader vom Typ 5500 (Thermo) ausgewertet. Die Kalibrierung wurde mit einem Irradiator (Modell 2210, Thermo) durchgeführt. Die Anschlussmessung erfolgte mittels der CT-Kammer DCT10-RS mit dem Dosismessgerät Solidose 400 (Fa. Scanditronix), die im Plexiglaszylinder des Phantoms positioniert werden konnte. Die Ergebnisse der Phantommessungen wurden mit TLD-Messungen in Mauskadavern verglichen. Die TLD-Messungen im Phantom wurden mit jeweils neun TLD durchgeführt und sechsmal wiederholt. In bzw. auf den vier verwendeten Mauskadavern wurden jeweils 14 TLD befestigt. Die korrekte Positionierung der Mauskadaver wurde im Durchleuchtungsmodus überprüft. Die µCT-Untersuchungen wurden mit einem GE Locus µCT der Firma GE Healthcare durchgeführt. Für den Dosisvergleich wurde mit einem Untersuchungsprotokoll gearbeitet, in dem die Röhrenspannung 80 kV, der Röhrenstrom 450 µA, die Anzahl der Projektionen 360 (auf 200°) und die räumliche Auflösung 94 µm (isotrop) betrug. Die axiale Feldlänge betrug 42 mm. Ergebnisse: In Abb. 1 sind die gemessenen Werte im Mausphantom dargestellt. Etwa in der Mitte des ca. 4 cm langen Nutzstrahlenfeldes ist das Dosismaximum deutlich zu erkennen. Die mittlere Dosis beträgt etwa 150 mGy. Im Streustrahlenbereich ist die Dosis erheblich kleiner und beträgt etwa 15 mGy. Alle gemessenen Dosiswerte sind gut reproduzierbar. Abb. 1 Gemessene Dosiswerte innerhalb des Phantoms. Im Durchleuchtungsmodus beträgt die Dosisleistung im Nutzstrahlbereich etwa 25 mGy/min. Die Positionierung einer Maus dauert etwa 2,5 Minuten, so dass die Positionierung zu einer zusätzlichen Dosis von ca. 63 mGy führt. In Abb. 2 sind die Dosiswerte der Mauskadavermessungen dargestellt. Diese setzten sich aus den Dosen während der Untersuchung und der Positionierung zusammen. Im Nutzstrahlenfeld (Thorax) ergibt sich eine mittlere Dosis von 205 mGy. Abb. 2: Mittlere Dosen mit Standardabweichungen der Mauskadavermessungen. Diskussion: Die TLD-Messungen im Mausphantom stimmen sehr gut mit den Messungen im Mauskadaver überein. Das Phantom erweist sich als geeignet für Dosismessungen unterschiedlicher Untersuchungsprotokolle im µCT. Die Dosiswerte von 200 mGy pro Untersuchung im Nutzstrahl bedeuten, dass in Abhängigkeit von der Untersuchungsfrequenz relativ hohe Dosen zu erwarten sind, weshalb ein Einfluss auf das Tumorgeschehen im Tier nicht auszuschließen ist. P04.02 Kriterien für die Bewertung von Segmentierungsalgorithmen für PET-Daten 1 2 3 1 2 S. Weichert , R. Haase , D. Zips , H. Böhme , W. Enghardt , N. 2 Abolmaali ; 1 Fakultät Informatik/Mathematik, HTW Dresden, Dresden, Germany, 2 3 OncoRay, TU Dresden, Dresden, Germany, Klinik und Poliklinik für Radioonkologie, Universitätsklinikum Carl Gustav Carus, TU Dresden, Dresden, Germany. Ziel: Die Positronen-Emissions-Tomografie (PET) wird im wachsenden Maße für die Definition von Zielvolumina in der Strahlentherapie eingesetzt. Die automatische Segmentierung dieser PET-Daten ist wünschenswert, da subjektive Eindrücke der bewertenden Ärzte zu unterschiedlichen Ergebnissen führen können. Zum Vergleich solcher Volumina sind viele Methoden bekannt, jedoch hat sich bis jetzt kein Standard zur Auswertung etabliert. In dieser Studie wurden daher verschiedene Methoden zur Quantifizierung der Konturübereinstimmung verglichen. Methoden: [18F]-Fluorodesoxyglucose-PET-Datensätze von 20 Patienten wurden mittels zweier Algorithmen automatisch segmentiert: Eine iterative Methode nach Nehmeh et al. [1] und das Verfahren der kommerziellen „Rover”-Software (ABX, Radeberg, Deutschland), das auf lokalen Schwellwerten basiert [2]. Die resultierenden Konturen wurden verglichen und folgende Größen ermittelt: Jaccard-Index, Dice-Index, Konturabstand, mittlerer Konturabstand, symmetrischer mittlerer Konturabstand, Klassifizierungsfehler, Volumenfehler, Volumendifferenz, Sensitivität und Falsch-Negativ-Rate, Spezifität und Falsch-Positiv-Rate. Resultate: Die vorläufigen Ergebnisse sind in Tabelle 1 angegeben. Der Jaccard-Index zeigte hohe Variabilität mit den meisten Werten zwischen 50 % und 70 %. Selbst bei dem Konturpaar mit der besten Übereinstimmung laut den meisten Werten (Abb. 1) erreichte dieser lediglich 79,67 %. Zum Vergleich zeigt Abb. 2 ein Paar von Konturen mit ebenfalls hohem Jaccard-Index (68,84 %), der gute Konturübereinstimmung suggeriert. Dem widerspricht jedoch ein symmetrischer mittlerer Konturabstand von 1,73 mm. Der Dice-Index verhielt sich ähnlich dem Jaccard-Index, allerdings mit einem geringeren Gradienten generell höherer Werte. Die Sensitivität lag mehrmals bei 100 %, während Spezifität diesen Wert nie erreichte. Der Volumenfehler reichte von -8,1 % bis 48,02 %, mit Volumendifferenzen von bis zu 95,9 ml. Der symmetrische mittlere Konturabstand zeigte Größen von 0,52 mm bis 6,55 mm. Schlussfolgerung: Die Tatsache, dass sowohl der symmetrische mittlere Konturabstand, als auch die Volumendifferenz metrische Ergebnisse liefern, qualifiziert beide Verfahren für einen anschaulichen Konturvergleich. Der Jaccard-Index hingegen erwies sich für die untersuchte Fragestellung als ungeeignet, da hier bereits kleinste Volumenunterschiede zu großen Veränderungen führen können. Sensitivität und Spezifität sind nützliche Ergänzungen, um die Schnittmenge von Segmentierungen zu quantifizieren. Referenzen [1] S.A. Nehmeh et al., Med. Phys. 36 (2009) 4803 [2] F. Hofheinz et al., J. Nucl. Med. 48 (2007) 1709 91 unterschiedlichen RIT zu erklären. Zitate: 1.Kletting P, Kiryakos H, Reske SN, Glatting G. Analyzing saturable antibody binding based on serum data and pharmacokinetic modelling. Phys Med Biol. accepted 26.10.2010. 2.Glatting G, Kletting P, Reske SN, Hohl K, Ring C. Choosing the optimal fit function: Comparison of the Akaike information criterion and the F-test. Med Phys. 2007;34:4285-4292. P04.04 ImageJ-Plugin zur Berechnung der örtlichen Auflösung in rekonstruierter SPECT Schicht nach NEMA NU 1:2007 1 2 1 1 2 W. Lechner , F. König , K. Poljanc , J. Aiginger , T. Leitha ; 1 Technische Universität Wien / Atominstitut, Wien, Austria, 2 Sozialmedizinisches Zentrum Ost - Donauspital / Abteilung für nuklearmedizinische Diagnostik und Therapie, Wien, Austria. P04.03 Radioimmuntherapie mit Re-188-markiertem Anti-CD66 Antikörper: Kann Äquivalenz der prätherapeutischen und therapeutischen Biokinetiken angenommen werden? 1 2 2 2 1 P. Kletting , M. Andreeff , A. Strumpf , J. Kotzerke , S. N. Reske , G. 1 Glatting ; 1 2 Universität Ulm, Ulm, Germany, Universitätsklinikum TU Dresden, Dresden, Germany. Ziel: In der Radioimmuntherapie (RIT) wird oft eine prätherapeutische Dosimetrie durchgeführt, um für jeden Patienten die passende Dosis zu bestimmen. Dabei wird üblicherweise davon ausgegangen, dass die Bioverteilung der Therapie, der Bioverteilung der prätherapeutischen Messung entspricht. Bei der RIT mit 90Y-markiertem anti-CD66 Antikörper wurde anhand der Aktivitäts-Zeit-Verlaufs der Serummessungen ein Unterschied zwischen der prätherapeutischen und therapeutischen Bioverteilung festgestellt, der höchstwahrscheinlich auf die Absättigung der Antigene zurückzuführen ist (1). In dieser Studie wird mit einer ähnlichen Methode auch die RIT mit 188Re-markiertem anti-CD66 Antikörper entsprechend untersucht. Methoden: Prätherapeutische und therapeutische Zeitaktivitätskurven der 188Re-markierten anti-CD66 Antikörper (jeweils über 5 min - 48 h p.i.) des Blutes von 9 Patienten mit akuter Leukämie wurden mit 4 Varianten eines pharmakokinetischen Modells untersucht (1). Die Parameter des Modells wurden an die Messwerte angepasst und anhand des korrigierten Akaike Informations-Kriteriums (AICc) (2) wurde das empirisch am meisten gestützte Modell ausgewählt. Die Modelle unterschieden sich bezüglich der Annahme über die Immunreaktivität der markierten Antikörper nach dem physikalischen Zerfall bzw. der Freisetzung des Radionuklids vom Antikörper. Ergebnisse: Die visuelle Beurteilung zeigt gute Fits für alle Modelle. Das laut AICc am stärksten von den Daten unterstützte Modell nimmt an, dass der Antikörper beim physikalischen Zerfall sowie beim Freisetzen des Rheniums vom Antikörper immunreaktiv bleibt. Die mittlere Abweichung der Flächen unter den Zeit-Aktivitätskurven (Verweildauern) für die prätherapeutischen Messungen (3.8±1.1) h und den therapeutischen Messungen (4.7±1.7) h liegt bei (22±8)%. Schlussfolgerung: Anhand der Zeitaktivitätswerte des Blutes lassen sich Unterschiede der prätherapeutischen und therapeutischen Biokinetik feststellen. Im Vergleich zu der vorangegangenen Studie mit 90Y und 111In markiertem CD66 Antikörper (1) ist der Unterschied deutlich geringer (Faktor 1.7 zu 1.2). Jedoch bedarf es noch der Analyse der Ganzkörperdaten sowie Organkinetiken, um die Diskrepanz der Ergebnisse dieser zwei nur in dem verwendeten Radionuklid 92 Einleitung: Die in der NEMA NU1:2007 „Performance Measurements of Scintillation Cameras“ definierten Tests dienen dazu, eine gemeinsame Basis für den Vergleich der Leistungsdaten von Geräten unterschiedlicher Hersteller zu schaffen. Für die Ermittlung der Ergebnisse ist eine Auswertesoftware sinnvoll. In Österreich sind von H. Bergmann und R. Nicoletti erstellte MATLAB-Routinen weit verbreitet. Die mangelnde Flexibilität dieser Routinen wenn sie unter der MATLABRuntime Lizenz laufen, bzw. die mangelnde Lizenzfreiheit wenn sie unter MATLAB ausgeführt werden ließen den Wunsch nach offenen Programmen, konkret nach Plugins für Image-J entstehen. ImageJ [ABRA2004] ist ein in Java programmiertes, plattformunabhängiges open source Bildverarbeitungsprogramm, das beliebig durch ebenfalls in Java programmierte Plugins erweitert werden kann. Als erstes Beispiel sollte die Berechnung der örtlichen Auflösung rekonstruierter SPECT Schichten („SPECT reconstructed spacial resolution without scatter“) umgesetzt werden. Methoden: Für die Messung der örtlichen Auflösung rekonstruierter SPECT Schichten wird eine SPECT-Messung dreier Punktquellen aufgenommen und daraus transversale, sagitale und koronale Schichten rekonstruiert. Das erstellte ImageJ-Plugin ist in der Lage im DICOM- Format gespeicherte Schichtaufnahmen zu laden. Die Daten stehen dann als Stapel transversaler Schichtbilder zur Verfügung. Für die Berechnung notwendige Werte (z.B Pixel-Spacing) und Werte die rein der Dokumentation dienen (z.B Datum und Uhrzeit der Messung) werden automatisch aus dem DICOM-Header geladen. Fehlende Werte können gegebenenfalls vom Benutzer ergänzt werden. Die automatische Berechnung der Koordinaten der Punktquellen ist von zentraler Bedeutung, da diese notwendig für die spätere Ermittlung der in der NEMA definierten transversalen-, sagittalen und koronalenSchichtbilder notwendig sind. Nach dem Berechnen der drei Schichtbilder wird eine region of interest (ROI) um jede Punktquelle gelegt. Von dieser ROI werden jeweils zwei zueinander orthogonale PSF ermittelt. Bevor die Halbwertsbreiten der einzelnen PSFs berechnet werden können, muss entsprechend der NEMA für jede PSF das Maximum jener Parabel ermittelt werden, die sich aus dem Parabelfit des Maximalwerts der PSF und dessen beiden Nachbarwerten ergibt. Der halbe Wert des Maximalwerts dieser Parabel wird dann zur Berechnung der Halbwertsbreite verwendet. Abschließend werden die 18 verschieden Halbwertsbreiten, nach NEMA NU 1:2007, zu fünf mittleren Halbwertsbreiten zusammengefasst. Alle ermittelten Daten werden in einem Ausgabefenster dargestellt (siehe Abbildung 1). Die Ergebnisse des ImageJ-Plugins wurden mit den Ergebnissen des bisher verwendeten MATLAB-Programms verglichen. Ergebnisse: Die Abweichungen des ImageJ-Plugins zum Referenzprogramm betragen im mittel 0.03% ± 0,25% (Mittelwert ± 1Standardabweichung). Dies lässt sich durch die unterschiedlichen Methoden zur Bestimmung der Schichten der beiden Programme erklären. Literatur: [ABRA2004] Abramoff, Magalhaes P. J., Ram S. J.: Image Processing with ImageJ. Biophotonics International 11 (2004): S. 36-42 P04.05 Simulationsbasierte Evaluierung der Methode des „steilsten Gradienten“ zur Schätzung der Gewebeperfusion aus dynamischen CT-Daten 1 2,3 4 1 G. Brix , S. Zwick , F. Kiessling , J. Griebel ; Bundesamt für Strahlenschutz, Abteilung für medizinischen 2 Strahlenschutz, Oberschleißheim, Germany, Universitätsklinikum 3 Freiburg, Abteilung für medizinische Physik, Freiburg, Germany, DKFZ, Abteilung für medizinische Physik in der Radiologie, Heidelberg, 4 Germany, Universitätsklinikum Aachen, Abteilung für experimentelle molekulare Bildgebung, Aachen, Germany. 1 Die Gewebeperfusion kann mit der Methode des steilsten Gradienten (MSG) aus dynamischen kontrastverstärkten (DCE) CT-Daten berechnet werden. Ausgehend vom Fick‘schen Prinzip kann man zeigen, dass die Perfusion gegeben ist durch die maximale Steigung der Gewebekurve dividiert durch den Maximalwert der arteriellen Inputfunktion (Abb. 1). Voraussetzung ist allerdings, dass bis zu dem Zeitpunkt, zu dem die Steigung (der Gradient) der Gewebekurve ihr Maximum erreicht, der Abstrom des applizierten Kontrastmittels (KM) aus der terminalen Strombahn vernachlässigt werden kann. Ist diese Bedingung nicht erfüllt, so wird die Perfusion unterschätzt. Ziel unserer Arbeit war es, die Genauigkeit der MSG anhand von simulierten Datensätzen systematisch zu untersuchen. Hierzu wurden unter Verwendung einer gemessenen arteriellen Inputfunktion (AIF, Zeitauflösung 0,72s) 9600 Gewebekurven für 4 Rauschniveaus, 6 Abtaststrategien und 40 Kombinationen der relevanten physiologischen Gewebeparameter (Perfusion, kapillare Permeabilität und relative Verteilungsvolumina des intravasalen und interstitiellen Raums) mittels eines etablierten Simulationsprogramm (MMID4) berechnet. Für jeden Datensatz wurde die Perfusion ermittelt als maximale Steigung der Gewebekurve dividiert durch den Maximalwert der AIF. Darüber hinaus wurde für jedes „Gewebe“ der venöse Abstrom simuliert und der daraus resultierende Fehler bei der MSG ermittelt. Wie erwartet lieferte die MSG systematisch zu niedrige Perfusionswerte, wobei der Fehler mit zunehmender Perfusion und abnehmendem Intravasalvolumen ansteigt (Abb. 2). Gefäßpermeabilität und interstitielles Volumen haben dagegen keinen Einfluss auf die Ergebnisse. Bei einer zeitlichen Auflösung von 0,72 s war der Fehler kleiner als 23 %, wenn die mittlere Transitzeit der KM-Moleküle, d.h. der Quotient aus relativem Plasmavolumen und Perfusion, größer war als 6 s. Eine Vergrößerung des Abtastintervalls und des Rauschniveaus resultierte in einer deutlichen Abnahme der Genauigkeit (systematischer Fehler) bzw. der Präzision (Streuung) der Schätzwerte. Die MSG ermöglicht eine einfache und robuste Schätzung der Gewebeperfusion. Die erreichbare Genauigkeit und Präzision ist für viele klinische Fragestellungen ausreichend, da die mittlere Transitzeit in den meisten Geweben, insbesondere in Tumoren, hinreichend lang ist. Damit ist eine Grundvoraussetzung für die generische Rechtfertigung der MSG unter strahlenhygienischen Gesichtspunkten erfüllt. P04.06 Inherent heart movement uncertainties in radiotherapy estimated from a heart-gated CT study 1 2 3 1 1 R. Abdelhamid , A. Witteler , C. Vockelmann , A. Farrag , A. Khalifa , K. 2 4 Matthias , A. Block ; 1 Clinical Oncology and Nuclear Medicine Department, Assuit University, 2 Egypt, Department of Diagnostic Radiology, Klinikum, Dortmund, 3 Germany, Department of Diagnostic Radiology, Ev. Clinic, Muehlheim, 4 Germany, Institute for Medical Radiation Physics and Radiation Protection, Klinikum, Dortmund, Germany. Introduction: In modern radiotherapy exist some approaches for minimizing heart exposure during the treatment of left sided breast cancer, e.g. deep inspiration breath-hold techniques or respiration-gated radiotherapy. However in both techniques the heart is normally functioning. The aim of this study was to estimate the magnitude of uncertainties caused by this inherent heart movement. Methods: In the period from 2008-2011; 20 patients, all females aging between 40-60 years, were randomly enrolled in our study. For each patient, a diagnostic heart gated CT was performed, and shots in both coronal and transverse planes were used to compare both the antero93 posterior as well as the lateral amplitudes of heart movement during inspiration. The minimum and maximum measurements of the heart distance from the chest wall in the lateral direction were correlated with the parallel antero-posterior measurements at the equivalent time points during inspiration, and vice versa, to check for a possible constant pattern for heart movement that could be used as a model for a free respiration radiotherapy protocol. Results: The absolute minimum amplitude in the transverse planes ranges from 21,9 to 42,1 mm and the maximum one is between 25,7 and 45,9 mm. In the corresponding time points in the coronal planes, the absolute minimum amplitude is between 21,9 and 65,1 mm, whereas the maximum is between 21,9 and 61,9 mm. However, the ratio of both maximum and both minimum amplitudes lies only between 0,8 and 2,0. For analyzing the dynamic behavior the movement amplitude is an important step. We found in coronal planes a movement amplitude ranges from 0,1 to 7,3 mm, whereas in the transverse planes we got a movement amplitude ranges from 2,4 to 6,9 mm. Using the coronal CT measurements as reference points, the maximum distances correlated only weakly and insignificantly (p=0,14, Pearson’s r=0,34, confidence level 95%), while the minimum distances correlated moderately, yet significantly, (p=0,03, Pearson’s r=0.48, confidence level 95%). Using the axial CT measurements as reference points, the maximum distances correlated moderately and insignificantly (p= 0,065, Pearson’s r=0,42, confidence level 95%), and similarly did the minimum distances (p= 0,07, Pearson’s r=0,41, confidence level 95%). Conclusions: Although these preliminary results are far from useful regarding determination of a constant heart movement pattern, we found a weak to moderate correlation between the amplitudes in the coronal and transverse planes. As a result of this, we have to take into account an uncertainty less than one to twice in radiotherapy planning. This is the limitation in precision for heart sparing during deep inspiration breathhold techniques or respiration-gated radiotherapy. P04.07 Ist CTDI100 bei modernen Multislice CT-Scannern noch anwendbar? 1 2 3 2 1 J. M. Voigt , D. Danova , P. B. Noel , J. T. Heverhagen , M. Fiebich ; Institut für Medizinische Physik und Strahlenschutz, Technische 2 Hochschule Mittelhessen, Gießen, Germany, Klinik für Strahlendiagnostik, Universitätskliniken Gießen und Marburg, Standort 3 Marburg, Marburg, Germany, Abteilung für Radiologie, Technische Universität München, München, Germany. 1 Einleitung: Die Computertomographie zählt zu den wichtigsten Schnittbildverfahren der radiologischen Diagnostik. Im Jahre 2008 waren 8 % der Röntgenuntersuchungen in Deutschland CT-Untersuchungen. Der Anteil dieser an der kollektiven effektiven Dosis betrug jedoch 60% [4]. Dieser Sachverhalt belegt eindrucksvoll, wie wichtig ein solides Dosimetriekonzept im Bereich der Computertomographie ist. Grundlage der CT-Dosimetrie ist der Computertomographische Dosisindex (CTDI). Dieser wurde 1981 von Thomas B. Shope [1] entwickelt und ist noch bis heute gültig. Shope beschrieb eine Messgröße, die als das Integral der Dosis entlang einer, der Rotationsachse des CT-Scanners parallelen, Linie definiert ist. Da eine unendliche Integration messtechnisch unmöglich ist, wurde der CTDI normativ als ein Integral von 100 mm Länge festgelegt (CTDI100): Mit: : Luftkerma an der Stelle , : Totalkollimation Der CTDI100 stellt dabei einen über die Totalkollimation gemittelten Wert der Luftkerma im entsprechenden CTDI-Phantom dar und dient als Grundlage zur Abschätzung der Patientendosis [3]. Bei großen Totalkollimationen werden von einer 100 mm langen Messkammer nicht alle Streubeiträge erfasst. Dies bedeutet in Konsequenz, dass die Patientendosis unterschätzt wird. Boone beschrieb 2007 [2] Dosisprofile in Abhängigkeit der Totalkollimation. Die Effizienz des CTDI100, die sich daraus ableiten lässt, liegt bei einer Totalkollimation von 50 mm im zentralen Einschub des 32 cm Körperphantoms nur noch knapp über 60 %. Bei der Abschätzung der Patientendosis werden somit knappe 40 % der Exposition nicht erfasst. In dieser Arbeit wurde die Eignung des CTDI100 überprüft indem bei gleichen Aufnahmeparametern CTDI300 bestimmt wurde. Material und Methoden: An klinischen CT-Scannern der in Deutschland führenden Hersteller wurde bei gleichen Untersuchungsparametern CTDI100 und CTDI300 bestimmt und die Ergebnisse verglichen. Die Messungen wurden sowohl im Kopf- als auch im Körperphantom durchgeführt. Ergebnisse: Bereits bei einer relativ kleinen Totalkollimation von 28,8 mm des Somatom Definition wird der CTDIvol um 18 % im Bodyphantom unterschätzt. Für sequenzielle Kopfuntersuchungen bietet das Somatom Definition eine maximale Totalkollimation von 14,4 mm. Selbst bei dieser wird der CTDIvol um 11 % unterschätzt. 94 Diskussion: Die Messung des CTDI mit einer 300 mm langen Messkammer liefert genauere Werte. Bei immer weiter steigenden Totalkollimationen (Toshiba Aquillion One: 160 mm) stößt diese Art der CTDI-Messung ebenfalls an ihre Grenzen. CTDI300 ist eine sehr gute Methode um auf konventionelle Art weiterhin Dosimetrie an modernen CT-Scannern zu betreiben. Für Cone-Beam-CT und dezidierte CTScanner mit mehr als 100 mm z-Ausdehnung müssen jedoch neue Ansätze in der CT-Dosimetrie gefunden werden. P04.08 Spatial resolution of proton tomography: impact of air gap between patient and detector 1,2 1 1 U. Schneider , M. Hartmann , J. Besserer ; 1 2 Hirslanden Radiotherapie AG, Aarau, Switzerland, Universität Zürich, Vetsuisse Fakultät, Zürich, Switzerland. Purpose: Proton radiography and tomography was investigated since the early 1970s because of its low radiation dose, high density resolution and ability to image directly proton stopping power. However, spatial resolution is still a limiting factor. In this study the impact of an air gap between detector system and patient on spatial resolution was studied. Methods: Spatial resolution of proton radiography and tomography is governed by multiple Coloumb scattering (MCS) of the protons in the patient. In this report we employ Monte Carlo simulations of protons traversing a 20 cm thick water box. Entrance and exit proton coordinates were measured to improve spatial resolution. The simulations were performed with and without a 5 cm air gap in front of and behind the patient. Loss of spatial resolution due to the air gap was studied for protons with different initial angular confusion. Results: It was found that spatial resolution is significantly deteriorated when a 5 cm air gap between the position sensitive detector and the patient is included. For a perfect parallel beam spatial resolution worsens by about 40%. Spatial resolution is getting worse with increasing angular confusion and can reach 100%. Figure 1 shows the spatial resolution in a water tank placed between the dashed lines. The solid line represents the situation without air gap and the dotted line with 5 cm air gap for an angular confusion of 40 mrad. Conclusions: When proton radiographies are produced by measuring the entrance and exit coordinates of the protons in front of and behind the patient the air gap between the detector and the patient can significantly deteriorate the spatial resolution of the system by up to 100%. An alternative would be to measure in addition to the coordinates also the exit and entrance angles of each proton. With the knowledge of the air gap size a image reconstruction without loosing spatial resolution could be possible. Figure 1: Spatial resolution as a function of depth. The water tank was placed between the dashed lines. The solid line represents a coordinate measurement without an air gap (at positions 5 and 25 cm) and the dotted line including an 5 cm air gap (position measurement at 0 and 25 cm). Poster 05: Strahlenschutz P05.01 Diagnostische Referenzwerte für Radiopharmazeutika für Kinder und Erwachsene - ein Statusbericht 1 2 3 4 4 J. H. Bröer , U. Eberlein , C. Vandevoorde , P. Santos , M. Bardiès , K. 3 2 1 Bacher , M. Lassmann , D. Nosske ; 1 2 Bundesamt für Strahlenschutz, Oberschleißheim, Germany, Universität 3 Würzburg, Würzburg, Germany, Universiteit Gent, Gent, Belgium, 4 INSERM, Nantes, France. Ziel: Im Rahmen des EU-Projekts PEDDOSE.NET wurden nationale und internationale Organisationen identifiziert, die sich mit der Dosimetrie von Radiopharmazeutika beschäftigten. Die Empfehlungen dieser Organisationen für in Abhängigkeit vom Gewicht zu verabreichende Aktivitäten von Radiopharmazeutika (diagnostische Referenzwerte (DRW)) sowie die zugrundeliegenden Daten, biokinetischen Modelle und Rechenmodelle wurden erfasst und bewertet. Methode: Die in Frage kommenden nationalen und internationalen Organisationen waren teilweise bereits bekannt oder wurden mit Hilfe des Anhangs von UNSCEAR 2008 identifiziert. Ein Fragebogen wurde erstellt zu den DRW, verwendeten Dosiskoeffizienten, Empfehlungen/Vorschriften für die Verwendung von Hybridsystemen (z.B. PET/CT), die prätherapeutische Dosimetrie und die Einschätzung von zukünftigen Entwicklungen. Ungefähr 30 Organisationen wurden kontaktiert und 21 antworteten und erhielten den Fragebogen. Ergebnisse: Die nationalen DRW für Erwachsene variieren sowohl bezüglich der Untersuchungsmethoden als auch bezüglich der empfohlenen Aktivitäten. Diese Aktivitäten unterscheiden sich für einige Untersuchungen um mehr als den Faktor zwei (z.B. 99m Tc-DTPA). Die DRW für Kinder Nierenfunktionsszintigraphie mit basieren meistens auf den Empfehlungen von Piepsz et al. aus dem Jahr 1990 oder auf der neuen „EANM 2008 paediatric dosage card“. Da die Empfehlungen von Piepsz et al. aber lediglich Koeffizienten enthalten, die mit den nationalen DRW für Erwachsene multipliziert werden, variieren die resultierenden empfohlenen Aktivitäten ebenfalls. Bei biokinetischen Modellen und Dosiskoeffizienten verlassen sich die meisten nationalen Organisationen auf Expertengruppen wie ICRP. Abgesehen von der EANM empfehlen die anderen internationalen Organisationen keine zu verabreichenden Aktivitäten, dafür aber veröffentlichen sie Daten zu biokinetischen Modellen, Dosiskoeffizienten und Rechenmethoden. Über die Notwendigkeit der prätherapeutischen Dosimetrie gibt es unter den kontaktierten Organisationen keine Einigkeit. Schlussfolgerung: Während im Bereich der Dosimetrie die Empfehlungen der ICRP ein weit verbreiteter Standard sind, zeigen die nationalen DRW eine große Variation. Danksagung: PEDDOSE.NET wird finanziell durch die Europäische Kommission mittels des 7. Forschungsrahmenprogramms unterstützt. P05.02 Häufigkeit von Mammographie-Untersuchungen nach Einführung des deutschen Mammographie-Screening-Programms E. A. Nekolla, C. M. Hahn, E. Schüler, J. Griebel, G. Brix; BfS Bundesamt für Strahlenschutz, Neuherberg, Germany. Einführung und Zielsetzung: Im Rahmen der routinemäßigen Auswertung der Daten der Kassenärztlichen Bundesvereinigung (KBV) zur Ermittlung der Häufigkeit von Röntgenuntersuchungen in der deutschen Bevölkerung wurde augenfällig, dass die Anzahl der Mammographien nach Einführung des Mammographie-ScreeningProgramms (MSP) im Jahre 2005 im nachfolgenden Zeitraum deutlich zugenommen hat. Unter der Annahme, dass in Deutschland vor Einführung des MSP keine Mammographien zur Brustkrebsfrüherkennung durchgeführt wurden, entspräche diese Beobachtung den Erwartungen. Allerdings ist davon auszugehen, dass in Deutschland bereits vor Einführung des MSP ein nichtqualitätsgesichertes inoffizielles "graues Screening" im Rahmen einer individuellen Früherkennung stattgefunden hat. Ziel der vorliegenden Studie war es daher, den Einfluss des MSP auf die Gesamtzahl der Mammographien sowie auf die Anzahl der als "kurativ" abgerechneten Mammographien - von denen mit hoher Wahrscheinlichkeit ein gewisser Anteil dem grauen Screening zuzuschlagen ist - zu analysieren, um eine Aussage über die Entwicklung des grauen Screenings in Deutschland treffen zu können. Material und Methodik: Für die Abschätzung der Häufigkeit von Mammographien wurden die zugehörigen Gebührenziffern der KBV (Daten bis 2009) herangezogen. Somit beziehen sich die nachfolgenden Ergebnisse auf den kassenärztlichen ambulanten Bereich. Die KBV 95 unterscheidet seit Einführung des MSP Ziffern für Früherkennungsuntersuchungen, die im Rahmen des MSP abgerechnet werden, und Ziffern für kurative Mammographien. Um die Vergleichbarkeit mit der Häufigkeit der als "kurativ" abgerechneten Mammographien zu gewährleisten, die pro Seite abgerechnet werden, wurde die Anzahl der im Rahmen des MSP abgerechneten Leistungen, bei denen sich die Abrechnungsziffer auf die Screening-Untersuchung, also auf beide Mammae bezieht, verdoppelt. Zur Abschätzung der klinisch tatsächlich indizierten Mammographien wurden Zahlen zur Brustkrebs-Inzidenz/Prävalenz sowie Empfehlungen zur Nachsorge der S3-Leitlinie für Brustkrebs und Schätzungen zur Häufigkeit gutartiger Mammatumoren herangezogen. Ergebnisse: In Abb. 1 ist die absolute Anzahl einseitiger Mammographien für die Jahre 2002-2009 dargestellt. Im Vergleich zum Jahr 2004 (vor Einführung des MSP) hat sich in 2009 die Anzahl der durchgeführten Mammographien insgesamt verdoppelt (Anstieg von rund 4,4 Mio. auf rund 8,9 Mio. Mammographien einseitig). Wie erwartet haben die im Rahmen des MSP abgerechneten Mammographien im Zeitraum 2005-2009 deutlich zugenommen (2009: 5,6 Mio.). Gleichzeitig ist die Anzahl der als "kurativ" abgerechneten Mammographien zwischen 2005 und 2009 um ca. ein Viertel zurückgegangen (2005: 4,5 Mio.; 2009: 3,3 Mio.). Nach einer Analyse altersspezifischer KBV-Daten hat die Anzahl der als "kurativ" abgerechneten Mammographien in der Zielgruppe des MSP (50-69 Jahre) erwartungsgemäß stärker abgenommen als in den anderen Altersgruppen. Die Anzahl der im kassenärztlichen Bereich tatsächlich indizierten kurativen Mammographien wurde unter sehr konservativen Annahmen auf etwa 1,8 Mio. pro Jahr abgeschätzt. Schlussfolgerungen: Nach unserer Einschätzung handelt es sich bei der Differenz zwischen den abgerechneten und den tatsächlich begründeten kurativen Mammographien um Untersuchungen im Rahmen eines grauen Screenings. Der geschätzte Anteil, der dem grauen Screening zuzuschlagen ist, ist im Zeitraum 2005-2009 zwar zurückgegangen (von ca. 60% auf ca. 45%), allerdings nicht in dem Maße wie erhofft. Die Überführung des mutmaßlichen grauen Screenings in ein Programm mit umfangreichen Qualitätssicherungsmaßnahmen - eines der Ziele bei Einführung des MSP - wurde somit noch nicht erreicht. Abb. 1: Anzahl der einseitigen Mammographien im ambulanten kassenärztlichen Sektor für die Jahre 2002-2009. 2+ stored in the phosphor layer (BaFBr:Eu ) of the IP. Scanning the IP with a red laser beam releases photo-stimulated luminescence radiation. The intensity of the photo-stimulated luminescence (PSL) is proportional to the absorbed dose up to 0.1 Gy for X-rays below 100 keV. Depending on temperature and time between radiation and scanning, the stored energy fades. For reducing the impact of fading, the IP is stored at 22° C - 25° C for exactly 50 minutes between radiation and scanning. The IP will be radiated always by using X-rays at a tube voltage of 80 kV. Conditions to minimize image / dose fading and a calibration curve are derived. Possible influences onto the PSL like dose rate, source surface distance (SSD), angle of incidence, mechanical load and scanner characteristics have been analysed. To verify the results, a comparison between CRbased measurement and thermoluminescence dosimeters (TLDs) of the spatial dose distribution in an Alderson-Phantom has been carried out. Results: An exponential calibration curve can be developed for a dose between 0.0344 mGy and 63.0 mGy with a maximal relative error of 15.6 % (Figure 1). For higher doses, a steep slope of the calibration curve results. The PSL intensity is independent of the mechanical load during exposure, SSD and the dose rate in the used range, but it depends on the angle of incidence and the scanner characteristics. Comparing the dose between CR method and ionization chamber, the relative error is less than 20 % (for an incidence angle between 30° and 90°). Discussion and Conclusions: When working as described in materials and methods, the fading effect can be neglected. The effect of the angle of incidence remains the main problem and is a limiting factor. For direct and scattered radiation, an angle correction has to be applied separately. A reason could be the energy and path length dependent absorption in the phosphor layer. Nevertheless spatial dose distribution in an anthropomorphic phantom can be measured by a relative error of less than 30 % for an incident angle of at least 17°. P05.04 Strahlendosis des medizinisch-technischen Personals bei der kontrastmittelverstärkten PET/CT F. Wilke, A. Solle, L. Geworski; Stabsstelle Strahlenschutz und Medizinische Physik, Medizinische Hochschule Hannover, Hannover, Germany. P05.03 CR- based method for measuring dose distribution in an anthropomorphic phantom 1 1 2 1 C. Fässler , I. Lanzolla , P. Egli , S. Scheidegger ; 1 Centre of Applied Mathematics and Physics, Zurich University of 2 Applied Sciences, Winterthur, Switzerland, Kantonsspital Aarau, Aarau, Switzerland. Purpose: Clinical investigations using fluoroscopy in neuroradiology or cardiology often leads to remarkable exposure of patients (absorbed dose, especially at the skin and effective dose). The effective dose cannot be measured exactly. In this study, the feasibility of assessing spatial dose distribution and effective dose in an anthropomorphic phantom by using imaging plates (IP) or Computed Radiography (CR) system respectively has been investigated. Therefore, possible influences and correction factors to get the absorbed dose have been evaluated. Using IPs as an X-ray detector has several advantages to commonly used dosimeters like lower prize and higher resolution in two dimensions. Materials and Methods: A part of the energy of ionizing radiation is 96 Einleitung: Die diagnostische Wertigkeit einer PET/CT Untersuchung mit einer zusätzlich durchgeführten kontrastmittelverstärkten Computertomographie (Antoch 2004) steigt bei den meisten onkologischen Fragestellungen. Bei diesem “One Stop Shop“-Ansatz führen die durch die Kontrastmittel-CT bedingten zusätzlichen Arbeitsschritte wie der Anschluss der KM-Spritze oder die Repositionierung des Patienten zu einer Erhöhung der Expositionsdauer der nicht ärztlichen Mitarbeiter (MTA). Ziel dieser Arbeit war die systematische Quantifizierung dieser zusätzlichen Strahlenexposition sowie die Identifikation der relevanten Einflussfaktoren. Material und Methodik: Im hier betrachteten Beobachtungszeitraum von 2 Jahren wurden durchschnittlich 100 FDG-PET Untersuchungen pro Monat mit einer applizierten Aktivität von jeweils 280 - 350 MBq durchgeführt - zumeist mit onkologischen Fragestellungen. Das verwendete Radiopharmakon wurde dabei von externen Anbietern bezogen und von den MTAs für jeden Patienten separat in einer Bleiburg unter Verwendung einer Dockingstation (Veenstra) und entsprechenden Spritzenabschirmungen portioniert. Nach der Applikation des FDG durch einen Arzt und einer Uptake-Phase von ca. 60 min wurden die Patienten von den MTAs für die PET Untersuchung gelagert. Bei 50 % der Untersuchungen wurde im Anschluss ein kontrastmittelverstärktes CT durchgeführt. Dazu wurde der noch im Gerät liegende Patient nach Beendigung der PET-Untersuchung von der MTA an die Kontrastmittelspritze angeschlossen. Die beiden am PET tätigen MTAs trugen sowohl amtliche Thermolumineszenzdosimeter, direktablesbare Stabdosimeter wie auch - bei der Portionierung des FDG - zusätzlich Fingerringdosimeter. Die Dosiswerte der täglich abgelesenen Stabdosimeter wurden monatlich aufsummiert und mit den Werten der amtlichen Dosimeter verglichen. Die applizierte Aktivität wurde anhand der Patientendokumentation monatlich summiert und mit der Kollektivdosis der Mitarbeiter korreliert. Die so ermittelte Dosis pro applizierte Aktivität (nSv/MBq) wurde mit Werten aus der Literatur verglichen (Seiderstad 2007 und Pakbiers 2007). Ergebnisse: Im ersten Schritt wurde eine solide Übereinstimmung der Dosiswerte der amtlichen Thermolumineszenzdosimeter mit denen der Stabdosimeter festgestellt. Der Quotient aus Extremitätendosis (Hand) und applizierter Aktivität liegt mit im Mittel 391 nSv/MBq im Durchschnitt der in der Literatur veröffentlichten Werte. Der Mittelwert der Ganzkörperdosis pro applizierter Aktivität liegt mit 27 nSv/MBq im oberen Bereich der Literaturwerte. Die im Beobachtungszeitraum ermittelten Dosiswerte erfordern mit Werten oberhalb von 6 mSv/a zwar die Einstufung der Mitarbeiter in Kategorie A, gesetzliche Grenzwerte werden aber nicht erreicht. Schlussfolgerungen: Die als durchschnittlich ermittelten Werte der Extremitätendosis zeigen, dass die ergriffenen Strahlenschutzmaßnahmen (Bleiburg, Spritzenabschirmungen) sowohl geeignet als auch ausreichend sind. Die Hauptursache für die erhöhte Dosis der MTAs wird durch die zusätzlichen Arbeitsschritte der Patientenlagerung und der Kontrastmittelapplikation verlängerten Expositionszeit begründet. Die individuellen Dosen können durch eine vermehrte Rotation des Personals reduziert werden. Eine arbeitstägliche Kontrolle der Dosiswerte der MTAs erscheint sinnvoll. P05.05 Entwicklung eines Multi-Detektor Phantoms für die Dosimetrie im CT 1 1 1 1 1 M. Liebmann , T. Lüllau , C. H. Uhlig , M. Feltes , R. H. Kareem , B. 1 2 Poppe , H. von Boetticher ; 1 2 Carl von Ossietzky Universität, Oldenburg, Germany, Klinikum Links der Weser, Bremen, Germany. Die Computertomographie (CT) verursacht, in zunehmendem Maße, einen großen Anteil der medizinisch bedingten effektiven Dosis. Aus diesem Grund spielt die genaue Erfassung dieser Exposition eine wichtige Rolle. Zur Charakterisierung wird üblicherweise der “computed tomography dose index” (CTDI) genutzt. Dieser wird mit Hilfe einer Ionisationskammer in einem standardisierten Acryl-Phantom gemessen. In dieser Arbeit wird ein neues Multi-Detektor Phantom für die CTDosimetrie vorgestellt, welches bestehende Probleme der CTDIMethode löst. Eines dieser Probleme stellt die Länge des Standard-Phantoms von lediglich 15 cm dar. Für die dosimetrische Charakterisierung von Kopfuntersuchungen ist dies ausreichend, wohingegen der menschliche Torso mehr als doppelt so lang ist. Außerdem ist die Integrationslänge der CTDI-Ionisationskammer mit 10 cm zu kurz für große Strahlbreiten, die in der neuen Generation von 256-Schicht-CT Scannern auftreten. Weiterhin ist die Abschätzung von Organdosen, wie zum Beispiel Hautoder Uterusdosis, mit der CTDI Methode nur bedingt möglich. Das entwickelte Phantom besteht aus mehreren 10 cm dicken Scheiben aus PMMA. Diese können aneinander gereiht werden, wodurch die Nutzung von verschiedenen Detektoren und Detektorgrößen zur Dosisbestimmung oder CTDI Messung ermöglicht wird. Als Detektortypen sind Thermolumineszenzdetektoren, Ionisationskammern oder auch Dosimetriefilme zur Dosismessung an verschiedenen Orten oder ganzen Flächen im Phantom möglich. Ebenso ist ein Einbringen von Gel-Dosimetern in verschiedenen Formen möglich. Die für den jeweiligen Detektor benötigte Adapterplatte lässt sich durch den Aufbau des Phantoms aus separaten Scheiben sehr einfach wechseln. Ein Schrittmotor realisiert die Detektorpositionierung entlang der Tischachse und ermöglicht so eine Fernsteuerung der Messungen. Die Länge des Phantoms wurde vorläufig auf 50 cm erhöht, kann jedoch noch weiter bis zu typischen Torsolängen verlängert werden. Dieses Multi-Detektor Phantom ermöglicht die Messung von Energiedosis an verschiedenen Punkten entlang der Tischachse oder ganzer Flächen auf einmal durch Nutzung von verschiedenen Adapterscheiben, passend zu den spezifischen Detektorgeometrien. Durch die größere Länge kann dieses Phantom auch in Scannern mit großen Strahlbreiten genutzt werden. Diese Arbeit wurde finanziert durch das Bundesministerium für Bildung und Forschung (03NUK008A). Weitere Informationen sind unter www.helmholtz-muenchen.de/kvsf/ zu finden. P05.06 Personendosismessung vor der Schutzkleidung: Ergebnisse einer Testphase im Bereich der Röntgendiagnostik 1 2 3 4 H. von Boetticher , J. Rommerscheid , J. Lachmund , W. Hoffmann , F. 2 Steinberg ; 1 Institut für Radiologie und Seminar für Strahlenschutz, Klinikum Links 2 der Weser, Bremen, Germany, Institut für Radiologie, Bremen, 3 Germany, Abt. MLO, ATLAS Elektronik GmbH, Bremen, Germany, 4 Institut für Community Medicine, Universität Greifswald, Greifswald, Germany. In der Röntgendiagnostik wird die mit der Filmplakette unter der Schürze gemessene Personendosis in der Regel mit der effektiven Dosis des Personals gleichgesetzt. Nach einer Reihe von Publikationen wird bei diesem Vorgehen die effektive Dosis (bestimmt gemäß ICRP 103) systematisch unterschätzt. Eine Messung vor der Schürze - wie in mindestens 10 von 30 europäischen Staaten üblich - würde dieses Problem vermeiden. Dies war Anlass, im Institut für Röntgendiagnostik eines Krankenhauses in Norddeutschland mit Sondergenehmigung der Aufsichtsbehörden für ein Jahr die Filmplakette vor der Schürze zu tragen. Formal entspricht diese Vorgehen einer fehlerhaften Messung der amtlichen Personendosis, wobei dann von den Aufsichtsbehörden eine Ersatzdosis festgelegt werden muss, die wiederum auf den vor der Schürze gemessenen Werten beruht. Im Vorjahr der Studie wurde als Personendosis im Kalenderjahr - bei Tragen der Filmplakette gemäß der einschlägigen Richtlinie unter der Schürze - bei 28 beruflich strahlenexponierten Personen 25-mal ein Wert von 0,0 mSv und 3-mal ein Wert von 0,1 mSv ermittelt. Bei Tragen der Filmplakette vor der Schürze ergab sich für das Jahr der Studie 14mal der Wert 0,0 mSv und 16-mal ein Wert > 0,0 mSv (bei 30 Personen); die ermittelten Werte betrugen zwischen 0,1 und 16,4 mSv. Wegen der Inhomogenität des Feldes, die darauf beruht, dass die Schutzkleidung zwar den Rumpf, aber nicht den Kopf-Halsbereich abgeschirmt, muss der Anzeigewert des Filmdosimeters in jedem Fall rechnerisch korrigiert werden, um eine konservative Abschätzung der effektiven Dosis zu erhalten. Nach Literaturangaben für die Interventionelle Radiologie erhält man eine gute Näherung für die effektive Dosis, wenn bei Messung unterhalb der Schutzkleidung die Werte der Filmdosimeter mit einem Faktor von 2 bzw. 3 multipliziert, bei Messung oberhalb der Schutzkleidung durch einen Faktor von 11 bzw. 7 dividiert werden (Faktoren für Schutzkleidung mit bzw. ohne Schilddrüsenschutz). Mit diesen Korrekturen ergeben sich für das Vorjahr der Studie 25-mal effektive Dosen von 0,0 mSv und 3-mal von 0,2 mSv; beim Tragen der Dosimeter vor der Schutzkleidung ergeben sich für das Jahr der Studie nur 14-mal effektive Dosen von "Null". Die übrigen Werte der effektiven Dosen liegen im Bereich von 0,01-1,5 mSv. Das Personal zeigte sich in hohem Maße motiviert, die Filmdosimeter vor der Schürze zu tragen. Dabei spielte insbesondere eine Rolle, dass so - in Bereichen, in denen man es erwarten sollte, Anzeigewerte > Null auch tatsächlich ermittelt wurden (z. B. bei Durchleuchtungen) - eine Abschätzung der Augendosis und der Dosis am Kopf-Halsbereich möglich wurde - Maßnahmen zur Optimierung des Strahlenschutzes überprüft werden konnten - nachgewiesen werden konnte, ob die Dosimeter tatsächlich getragen wurden. P05.07 Dosisbestimmung zur Evaluierung von Abschirmmaßnahmen bei Patienten mit Seminom 1 2 K. Mair , B. Polivka ; 2 Strahlentherapie Sued, 87439 Kempten, Germany, Kantonsspital Graubuenden, 7000 Chur, Switzerland. 1 Problemstellung: Bei Bestrahlung eines tumorös befallenen Hoden mit hochenergetischer Elektronenstrahlung (Fraktionsdosis 2Gy, Gesamtdosis 20Gy) ist darauf zu achten, die Dosisbelastung am kontralateralen Hoden so niedrig wie möglich zu halten. Unterhalb von 200 mGy sind keine Akutnebenwirkungen zu erwarten [1] [2]. In dieser Arbeit wird der Dosisabfall ausserhalb eines Bestrahlungsfeldes mit Elektronenstrahlung in verschiedenen Abständen und unter Benutzung verschiedener Bleiabschirmungen untersucht. Die Messungen wurden mit Thermolumineszenzdosimetern (TLD) durchgeführt. Die Ergebnisse sollen als Grundlage für die Wahl optimaler Abschirmmassnahmen zur Schonung des kontralateralen Hodens dienen. Eine In-Vivo-Messung am Patienten zeigt die Durchführbarkeit und die Verlässlichkeit der aus den Phantommessungen hervorgehenden Abschirmmassnahmen. Messungen: Der typische Durchmesser kindlicher und ausgewachsener Hoden (ca. 1 - 3cm) erfordert eine Bestrahlung mit Elektronenenergien von 9 bis 15 MeV. Die Grösse des Bestrahlungsfeldes liegt bei etwa 6 97 cm × 6 cm. Das Elektronenfeld wird durch einen Tubus mit einem Bleieinsatz begrenzt. Zunächst wurde in einem einfachen Versuchsaufbau die Dosis mit einer Ionisationskammer abgeschätzt. Die hier gewonnen Erkenntnisse empfehlen die Verwendung einer Bleikapsel zur Schonung des kontralateralen Hoden, um sowohl Streustrahlung aus dem Patienten als auch gestreute Elektronen aus dem Strahlerkopf bzw. Tubus abzuschwächen. Zur Quantifizierung wurde ein RW3-Phantom mit Elektronen bestrahlt und die periphere Dosis mit TLD gemessen. Der Versuchsaufbau ist in Abbildung 1 skizziert, die Strahlparameter sind in Tabelle 1 zusammengefasst. Dosis 1 Gy im Dosismaximum Energien 9, 12, 15 MeV Feldgrösse 6 cm x 6 cm Fokus-Oberflächen-Abstand 100 cm Tabelle 1: Strahl- und Feldanordnungsparameter. Abbildung 1: Versuchsaufbau zur Dosismessung mittels TLD in verschiedenen Positionen (X) an einem RW3-Phantom mit und ohne Bleiabschirmungen. Ergebnisse: Unter der Bleikapsel liegt die Dosis bei Bestrahlung unter o.g. Bedingungen bei durchschnittlich 3,3mGy. Der jeweils höchste Dosiswert wird an Position 4 nachgewiesen, die dem Strahlerkopf am nächsten liegt (siehe Abbildung 1). Die Fehlerabschätzung der TLDMessungen ist zunächst aus den Unsicherheiten der Messauswertung, wie die Bestimmung von Chargen-Drift und der Kalibrierfaktoren zu ermitteln. Durch die Unkenntnis der Strahlenqualität und -energie unter der Kapsel ist eine Messunsicherheit von 10% realistisch. Selbst bei der ermittelten Maximaldosis von 8 mGy (15 MeV) bei einer Felddosis von 1 Gy darf unter Berücksichtung der Unsicherheiten erwartet werden, dass bei einer Patientenbestrahlung mit 20 Gy Gesamtdosis die Dosis am kontralateralen Hoden 200 mGy nicht übersteigt. Die Messergebnisse der In-Vivo-Messungen während der ersten Fraktion einer Patientenbestrahlung bestätigten diese Annahme. Literatur: [1] S.J. Howell, S.M.Shalet: Spermatogenesis After Cancer Treatment: Damage and Recovery, Journal of the National Cancer Institute Monographs, No. 34, 2005 [2] M.D. Piroth et al.: Radiogene Hodenbelastung durch Streustrahlung bei adjuvanten 3-D-Beckenbestrahlung nach anteriorer Resektion beim Rektumkarzinom, Strahlentherapie und Onkologie 2003 No. 11, 3. Juli 2003 P05.08 Schutzbrillen mit optischer Premiumqualität B. Zelzer, A. Speck, T. Eppig, A. Langenbucher; Experimentelle Ophthalmologie - Universität des Saarlandes, Homburg, Germany. Motivation: Arbeiten oder Tätigkeiten im potentiellen Gefahrenbereich chemischer Substanzen oder im Gefahrenbereich einer thermischen oder mechanischen Verletzung müssen mit einem adäquaten Augenschutz durchgeführt werden. Jedoch mindern neben Design und Tragekomfort ganz besonders Abbildungsfehler in der Schutzbrille die Trageakzeptanz und verursachen Ermüdungserscheinungen, Kopfschmerzen und Konzentrationsverlust. Grob sind Abbildungsfehler für Schutzbrillen in den Normen DIN EN 166/167 geregelt. Hier werden Grenzwerte für die sphärische und astigmatische Wirkung sowie die prismatische Wirkungsdifferenz angegeben. Die Abbildungsqualität einer Schutzbrille wird durch alle Schritte der 98 Prozesskette in der Herstellung beeinflusst. Vorgaben für das Produkt werden realisiert, indem bei der Auslegung der Spritzgussform der systematische Einfluss jedes Prozessschrittes berücksichtigt wird, um letztendlich die Soll-Geometrie zu erzielen. Ziele der Studie sind die komplette Abbildung der Prozesskette - vom optischen Design bis hin zur Assemblierung, das Monitoring der z.B. nutzungsbedingten Veränderungen der Spritzgussformen im Sinne der optischen Güte und ob derzeitige Stichprobentests durch automatisierte 100%-Prüfungen (Messung und Optikdesign) zu ersetzten sind. Ansatz: Das Optikdesign einer Arbeitsschutzbrille wird zu Beginn der Prozesskette mit einem individuell entwickelten Programmcode unter Berücksichtigung der optischen Aberrationen entworfen. Danach wird bei jedem einzelnen Prozessschritt mit Hilfe eines Topographiemessgerätes (Deflektometer) die Optikoberfläche vermessen. Gewonnene 3D-Datenensätze werden anschließend in ASAP geladen und analysiert. Für Auswertungen stehen neben der an die DIN EN 166/167 angelehnten Simulation der sphärischen, astigmatischen Wirkung und prismatischen Wirkungsdifferenz ebenfalls eine Wellenfrontanalyse anhand von Zernikepolynomen zur Auswahl. Grundlage der Messergebnisse bilden insgesamt 6 Brillengeometrien, 50 gemessene Spritzgußeinsätze und 50 vermessene Schutzbrillen. Ergebnisse: Die Wellenfrontsimulation wurde mit Hilfe der Raytracer Oslo und Raytrace verifiziert. Es wurde gezeigt, dass sich die optischen Kenngrößen (sph. ast. Wirkung, pris. Wirkungsdiff.) von „Handmessungen“ an der optischen Bank und der Simulationen weitestgehend decken. Im Rahmen einer Versuchsreihe zum Einfluss minimaler Brillendickenunterschiede konnte gezeigt werden, dass es zu keinen signifikanten Veränderungen in den Abbildungsfehlern kommt. Bei einem Vergleich der Wirkungen nach DIN EN 166/167 und den Aberrationen ein und derselben Brillen wurde festgestellt, dass die relativen Verhältnisse mit guter Näherung gleich bleiben (z.b.: sphärische Wirkung zur sphärischen Aberration). Diskussion: Im Rahmen dieser Studie wurde eine Kontrollinstanz für die Prozesskette einer Arbeitsschutzbrillenherstellung, bestehend aus einem Deflektometer und der Simulationssoftware ASAP geschaffen. Diese bildet die Basis für die Generierung eines aberrationsverminderten optischen Brillendesigns. Die genaue Kenntnis der Aberrationsänderungen bei jedem Prozessschritt ermöglicht es, durch ein gezieltes Einbringen eines "verbogenen" Optikdesigns die Herstellung von Arbeitsschutzbrillen zu optimieren - es werden die deterministischen Determinanten der Prozessschritte eliminiert und ausschließlich statistische Streuungen verbleiben im Prozess. Dies trägt zu einem besseren Tragekomfort und zu einer Unfallprävention am Auge bei. Poster 06: Bildgeführte Radiotherapie (IGRT) P06.01 Methode zur hochpräzisen Bestimmung der geometrischen Relation zwischen Tischdrehachse und Strahlisozentrum bei einem Linearbeschleuniger mittels EPID R. Lösch; Klinikum St. Marien, Amberg, Germany. Einleitung: Die Drehachse eines konventionellen Bestrahlungstisch an einem medizinischen Linearbeschleunigers ist idealerweise so justiert, dass der Abstand vom Strahlisozentrum minimal ist. Bei Verwendung des Beschleunigers zur Stereotaxie ist in [1] eine Methode vorgeschlagen, die Position der mechanischen Drehachse des Linearbeschleunigerstativs zur Tichdrehachse zu kontrollieren. Alternativ hierzu implementierten wir ein Verfahren, die geometrische Relation der Tischdrehachse zum Strahlisozentrum hochpräzise zu bestimmen. Diese Daten können verwendet werden, um die Tischdrehachse zu kontrollieren und ggf. nachzujustieren. Material und Methoden: Seit geraumer Zeit wird bereits ein am Winston-Lutz-Test angelehntes Verfahren [2] verwendet, um basierend auf EPID-Aufnahmen die Abmessungen der Isozentrumskugel, sowie die Abweichungen des Strahlisozentrums von einer im Raum anhand der Lichtzeiger positionierten Metallkugel zu bestimmen. Diese Prüfmethode ersetzt die in [3] vorgesehene filmbasierte Methode. Seit Einführung eines Elekta-Synergy Linearbeschleunigers mit Cone-BeamCT wird das Verfahren auch verwendet, um die Abweichung des Strahlisozentrums vom Cone-Beam-CT-Isozentrum zu bestimmen. Dazu wird eine Gummikugel (eine Metallkugel würde zu starke GhostingEffekte im Cone-Beam-CT verursachen) per Cone-Beam-CT im Isozentrum des Cone-Beam-CTs positioniert. Bei dem eingesetzten Verfahren wird die Abweichung des Schattenwurfs der Metall- oder Gummikugel von der Feldmitte eines symmetrischen rechteckigen Feldes bei verschiedenen Tragarmwinkeln ausgewertet. Hierzu wird das Programm Matlab verwendet. Zusammen mit der Information der Strahlrichtung kann somit die Anordnung der Zentralstrahlen im Raum relativ zur Metall- oder Gummikugel sehr genau rekonstruiert werden. Dies ist in Excel realisiert worden. Das Verfahren wurde erweitert, um die Position der Tischdrehachse relativ zum Strahlisozentrum zu bestimmen. Dazu muss die Metall- oder Gummikugel für die vorgenannten Messungen fest mit dem Tisch verbunden sein. Bei einem Tragarmwinkel von 0° werden zusätzlich für mehrere Tischdrehwinkel EPID-Aufnahmen eines rechteckigen Feldes angefertigt. Die Auswertung des Schattenwurfs der (nun mit dem Tisch bewegten) Metall-oder Gummikugel relativ zum ortsfesten Feld kann im Koordinatensystem des Isozentrums als Trajektorie eines Punktes des Tisches in einer Ebene dargestellt werden. Unter Zuhilfenahme des Tischwinkels wird dann die Trajektorie desjenigen Punktes auf dem Tisch bestimmt, der sich am wenigsten bewegt. Der Schwerpunkt dieser Trajektorie ist der Durchstoßpunkt der Tischdrehachse durch die Tischebene. Ergebnisse: Mit dem beschriebenen Verfahren konnte die Position der Tischdrehachse genau bestimmt werden. In der nebenstehenden Abbildung im Koordinatensystem des Isozentrums, dessen (kugelförmige) Ausdehnung mit dargestellt ist, sind die direkt beobachtete Trajektorie der Kugel (Kugelschatten), die Trajektorie des minimal beweglichen Punktes (Fixpunkt) sowie die Drehachse widergegeben . Die Achse wich bei uns anfänglich ca. 1mm in GunTarget-Richtung von Strahlisozentrum ab. Basierend auf den Messungen wurde der Tisch nachjustiert. Die Abweichung wurde mehr als halbiert. Literatur: [1] DIN 6875 Teil 2 [2] R. Lösch: Automatische Bestimmung des Isozentrumskugeldurchmessers und Kontrolle der Laserjustage mittels EPID-Systemen, Dreiländertagung Bern 2007 [3] DIN 6847 Teil 5 P06.02 Atlas-based auto-segmentation for ART of prostate cancer: Evaluation of accuracy and efficiency 1 1 1 1 1 M. Stock , I. Simmat , G. Goldner , P. Georg , W. Birkfellner , W. 2 1 Birkfellner , D. Georg ; 1 Medical University Vienna/Dept. of Radiotherapy, Vienna, Austria, 2 Medical University Vienna/Centre for Medical Physics and Biomedical Engineering, Vienna, Austria. Purpose/Objective: The time-consuming task of CT image segmentation is considered as the bottle neck in re-planning for adaptive radiotherapy. Organ at risk and target delineation is still predominantly performed manually and prone to inter-observer variation. In summary, for adaptive radiotherapy based on CT or CBCT faster contouring procedures will become mandatory. In this study two atlas-based autosegmentation tools were tested in terms of accuracy and efficiency. Material/Methods: Twenty patients with variations regarding contrast agent, rectal balloon, rectal filling and body mass index (BMI) were selected for this study. Automatic contouring with ABAS (Elekta CMS) and iPlan (BrainLAB) was performed and compared to manual delineation of bladder, rectum and prostate. First the performance of available DEMO-atlases on CT was investigated. Second, planning CTs of five patients were selected as new individual atlas and the automated segmentation of CBCT data, acquired during treatment of the same patients, was tested. Dice Similarity Coefficient (DSC), generalized conformity index and indicators for under- and over-segmentation were calculated and compared to inter-observer (IO) variability. Qualitative evaluation in terms of usability of the automatically drawn structures was assessed by a senior radiation oncologist using a visual analogue scale (VAS). In addition segmentation speed was documented. Results: The comparison to manual contouring resulted in significant differences of the two systems for bladder (mean over all patients: DSCABAS = 0.86 and DSCiPlan = 0.51) and prostate (mean: DSCABAS = 0.71 and DSCiPlan = 0.57). The inter-observer variability for the same patient set was less for bladder (DSCIO = 0.94) and prostate (DSCIO = 0.79). Rectum delineation showed comparable results (mean: DSCABAS = 0.78 and DSCiPlan = 0.84) to inter-observer variation (DSCIO = 0.85). The qualitative judgment by the expert showed similar trends than the coefficients used (e.g. for bladder VASABAS 6.2 and VASiPlan 1.5). Automatic CBCT segmentation showed high dependence on the corresponding image quality (mean DSC: bladder 0.66, rectum 0.53, prostate 0.40). Segmentation speed was on average 4 minutes for ABAS and half a minute for iPlan. Conclusion: Results of atlas-based automatic segmentation for prostate cancer using commercial software are still inaccurate. They require corrections which raise the question about sufficient time savings using these tools. Further ideas for improvement are inevitable but may not only be restricted to the registration algorithms but e.g. also to the image quality provided by CBCT images. P06.03 Erste Erfahrungen mit der elastischen Fusion von iPlan RT 4.5 Adaptive S. Kampfer, M. N. Duma, P. Kneschaurek; TU München, Klinikum rechts der Isar, Klinik und Poliklinik für Strahlentherapie und Radiologische Onkologie, München, Germany. Einleitung: In der Strahlentherapie ist Software zur Koregistrierung verschiedener Bilddatensätze (CT/ MR/ PET) weit verbreitet. Diese führt bis heute fast ausschließlich durch rigides Verschieben und Verdrehen 99 der Bildserien eine möglichst gute Übereinstimmung herbei. Oftmals hat sich die Anatomie des Patienten aber, z.B. durch Gewichtsabnahme, zwischen den Aufnahmen wesentlich verändert, und eine elastische Fusion wäre wünschenswert. Mithilfe der neuen iPlan-Softwareversion iPlan RT 4.5 Adaptive von Brainlab (Feldkirchen, Deutschland) können CT-Bilddatensätze elastisch fusioniert werden. Material und Methoden: DICOM-Datensätze von verschiedenen Aufnahmegeräten (CT Emotion16 / Siemens, kV-Conebeam-CT eines Linearbeschleunigers / Varian, MVCT / Tomotherapie) werden in die Software importiert, zunächst rigide und anschließend elastisch fusioniert. Die elastische Fusion (autoMorph), die automatisiert abläuft soll auf Reproduzierbarkeit überprüft werden. Hierzu wird die elastische Fusion dreimal mit den gleichen Ausgangswerten (nach selber rigider Fusion) und zusätzlich zweimal mit davon verschiedenen Ausgangswerten ausgeführt. Die dabei erhaltenen Deformationsmatrizen werden verglichen. Ergebnisse: Die DICOM-Datensätze der verschiedenen Aufnahmegeräte konnten erfolgreich in die Software eingelesen und mit einem ursprünglichen Planungs-CT nach starrer Fusion auch elastisch fusioniert werden. Die errechnete Transformationsmatrix verbiegt erfolgreich Kopien der bereits vorhandenen Strukturen, die eine gute Passform mit dem neueren CT aufweisen. Die Software ermöglicht mit diesen neuen Strukturen die Planung eines adaptierten Planes. Bei wiederholter Anwendung auf denselben Datensatz ergab die elastische Fusion reproduzierbare Transformationsergebnisse. Bei Veränderung der rigiden Koregistrierung ergab sich erwartungsgemäß eine geänderte Transformationsmatrix. Schlussfolgerung: Die hier getesteten Eigenschaften der elastischen Fusion von iPlan RT 4.5 liefern reproduzierbare Ergebnisse und können eine deutliche Arbeitserleichterung bzw. eine Genauigkeitssteigerung bei Rekonturierung ergeben. Die getestete Software lässt sich angenehm bedienen. P06.04 Evaluierung von Goldmarkern zur Implementierung der IGRTTechnik zur Prostatabestrahlung 1 1 1,2 1,2 K. Willborn , Y. Uphoff , H. Looe , B. Poppe ; 1 2 Pius-Hospital, Oldenburg, Germany, Carl von Ossietzky Universität, Oldenburg, Germany. Zielsetzung: Es wurden Messungen an 10 Goldmarker verschiedener Hersteller mit unterschiedlichen Durchmessern, Längen und Oberflächenstrukturen an Geräten des strahlentherapeutischen Prozessablaufes zur Prostatabestrahlung durchgeführt. Dabei galt es den Marker mit optimaler Detektierbarkeit und einem ebenso guten Kontrast für die klinische Anwendung herauszufiltern. Material und Methoden: Anhand von DRRs, welche auf den PlanungsCTs der einzelnen Marker in einem CIRS-Phantom beruhen, wurden Überlagerungen mit den orthogonalen Portal-Aufnahmen eines Beschleuniger erstellt, von denen Screenshots genommen wurden. Dieses Vorgehen erfolgte entsprechend für Verschiebungen um jeweils 1, 3 und 5 mm nach links-lateral, anterior und inferior. Weiterhin wurden Untersuchungen bezüglich des Einflusses von Markern auf die Bestrahlungsplanung vorgenommen. Fachkundige Probanden bewerteten schließlich alle Aufnahmen qualitativ. Diese Ergebnisse sowie die einer teilweisen quantitativen Auswertung bildeten die Grundlagen für die Entscheidung zu Gunsten eines Markers. Ergebnisse: Die Marker ließen sich aufgrund ihres Kontrastverhaltens in vier Gruppen abhängig von ihren Durchmessern einteilen. Der X-Mark der Firma additec GmbH mit den Maßen von 1,15 mm x 10 mm erhielt rundweg die besten Bewertungen: RW3 mit 1,2 ± 0,11, DRR mit 1,1 ± 0,15, EPI mit 1,5 ± 0,35, Überlagerungen mit 1,7 ± 0,54. Auch mit der schlechtesten Bewertung im Bereich der Artefaktbildung von 2,2 ± 0,89, stellte sich dieser Marker dennoch im Gesamtergebnis mit 1,6 ± 0,43 als der zu bevorzugende dar. Die Untersuchung der Marker auf Einflüsse auf die Bestrahlungsplanung zeigten keine klinisch relevanten Ergebnisse. Schlussfolgerungen: Kontrastverhalten und Detektierbarkeit sind abhängig von Länge und Durchmesser eines Markers. Für eine Anwendung im Rahmen einer IGRT-basierten Radiatio der Prostata scheinen daher generell Marker mit einem Durchmesser von mindestens 1,10 mm sowie einer Länge ab 3 mm klinisch vorteilhaft, bei besten Ergebnissen mit einer Länge von 10 mm. Ein Einfluss von Oberflächenstrukturen konnte nicht eindeutig nachgewiesen werden, scheint aber nicht ausgeschlossen. P06.05 Assessment of intrafraction prostate and patient movement for IMRT patients with rectal balloon E. Steiner, M. Stock, G. Goldner, D. Georg; Department of Radiotherapy, Medical University of Vienna, Vienna, Austria. Purpose/Objective: To investigate the intrafraction prostate movement during IMRT delivery. The shift of bony structures was measured additionally in order to determine patient motion during the delivery of a fraction. Thus, a differentiation between the prostate and the whole patient movement was included in the analysis. Margins accounting for setup uncertainties and intrafraction motion were calculated. Material/Methods: Seventeen patients with prostate cancer, each with 3 implanted fiducial gold markers (1.2 mm diameter, 3 mm length) within the prostate, were immobilized in supine position utilizing a knee support. Among them twelve patients with advanced prostate cancer were receiving an IMRT treatment and five patients with localized prostate cancer a 4-field box treatment. To spare the posterior rectal wall and to immobilize the prostate an endorectal balloon (filled with 40 ccm of air) was used on a daily basis. After the first treatment setup based on skin marks, patients were imaged using the ExacTrac stereoscopic imaging system. If the marker displacement exceeded the tolerance of 3 mm in relation to the marker positions on the planning CT, patients were shifted accordingly and verification images were taken. Additionally, all patients were imaged after treatment. Patients treated with IMRT were also imaged during the treatment (approximately at halftime). Marker/prostate and bone drifts were evaluated as a function of treatment time for more than 600 treatment fractions. Margins were calculated according to the van Herk recipe [1]. Results: The patient movement evaluated by bone match was strongly patient dependent, but was in general smallest in longitudinal direction. In contrast, marker (=prostate) drifts were less dependent on patients and showed a significant increase with treatment time in longitudinal and vertical direction. In lateral direction the prostate stayed rather stable. Trends for standard deviations for prostate and patient motion are shown in Fig. 1. Margins resulted in 2.2 mm, 3.9 mm, 4.3 mm for 4-field box, 3.7 mm, 2.6 mm, 3.6 mm for 5-field boost IMRT and 4.2 mm, 5.1 mm, 6.6 mm for 9-field pelvic IMRT in lateral, longitudinal and vertical direction, respectively. Mean treatment times were 5.4 min, 9.7 min and 16.2 min for 4-field box, 5-field and 9-field IMRT, respectively. Conclusion: Intrafraction prostate and patient motion causes significant positioning variations. Calculated margins were comparable to results from literature where no endorectal balloon was used. When aiming to further reduce the treatment margin, repositioning of the patients during the treatment will be necessary. As bone drift increases as a function of treatment time, patients seem to become more uneasy the longer the treatment takes. New treatment techniques like rotational IMRT will help to tackle the issue of intrafraction motion effects. [1] van Herk, M.: Errors and margins in radiotherapy. Seminars in Radiation Oncology 14: 52-64 (2004) P06.06 Introducing A Stochastic Model in Order to Deal with Marker Displacements due to Non-Rigid Deformations in Feature Based Image Registration for Patient Positioning with Multiple Radiographs 1,2 3 1 1 2 W. Hoegele , P. Zygmanski , B. Dobler , O. Koelbl , R. Loeschel ; 1 Department of Radiation Oncology, Regensburg University Medical 2 Center, Regensburg, Germany, Department of Computer Science and 100 Mathematics, University of Applied Sciences, Regensburg, Germany, Department of Radiation Oncology, Brigham and Women’s Hospital and Harvard Medical School, Boston, MA, United States. 3 Image registration for the purpose of patient positioning before or during a radiotherapy treatment is a standard tool in clinical routine. Established approaches are the registration of A) orthogonal kV or MV radiographs of the current patient setup with digitally reconstructed radiographs (DRR) of the computed tomography (CT) which was the basis for treatment planning, or B) 3D on-board cone-beam CT (CBCT) data with the 3D planning CT. The overall aim is to estimate the rigid transformation of the treatment couch (shifts and rotations) to optimally fit the patient to the treatment plan. For this purpose rigid feature- or intensity-based image registration methods are commonly utilized. These approaches, however, do not specifically account for anatomical deformations of the patient. This may lead conceptually and clinically to unsatisfying results since non-rigid deformations inside the patient are known from practice, especially for treatment sites in the abdomen. On the other side, non-rigid image registration is a viable field of research, but is computationally time consuming and conceptually challenging which may not be suitable for robust real time applications in the clinic. We present an alternative feature based concept for short arcs in order to incorporate deformability of body regions into the estimation of the rigid couch transformation. The estimation is based on markers which are visible in 40° arcs consisting of 20 radiographs, and which are slightly displaced due to deformations. This acquisition scheme allows using more than only two radiographs as in A) and reduces time and dose from imaging compared to B). The mathematical concept is based on a stochastic-geometrical model[Högele et al.(2011)], which describes the acquisition geometry and possible displacements of the markers in the radiographs in stochastic terms. Eventually, this leads to a maximum likelihood estimator (ML) for the rigid couch transformation. The input data of the ML are marker extracted radiographs, and the necessary correspondence between markers in the current radiographs and the reference is performed automatically by the estimator. In a simulation study we compare the proposed method to a normalized crosscorrelation (NCC) approach which represents an efficient standard tool in rigid image registration. In this simulation study a cylindrical phantom was utilized (see Fig.1). In every simulation four metallic markers were individually and randomly displaced, and a global translational setuperror was introduced. At first, the radiograph was calculated, second, feature extraction was utilized to visualize the markers in the radiographs, and third, both estimation methods were applied to this data and compared to the true setup-error. The histograms of radial displacements before estimation, and after estimation with NCC and ML are presented in Fig.2 for four individual displacement ranges of the markers (rigid, 1-3 mm). This study shows that including a stochastic model of the geometry of image acquisition for deformable body regions leads to superior results than standard methods. Moreover, a new mathematical framework for marker based patient positioning with multiple radiographs is established. P06.07 Vorstellung einer umfassenden Softwareumgebung zur Beurteilung und Verbesserung der retrospektiven Rekonstruktion von 4D-CT Datensätzen zur Bestrahlungsplanung atembeweglicher Tumore S. Wachter, N. Wachter-Gerstner, J. Hofinger; Department of Radiotherapy, Passau, Germany. Fragestellung: Neuartige Bestrahlungstechniken wie z.B. extrakranielle stereotaktische Radiotherapie verwenden zunehmend 4D-CTDatensätze als Planungsgrundlage. Es liegen Berichte vor, dass bis zu 90% dieser Daten erhebliche Artefarkte aufweisen (Yamamoto et al. 2008, IJRBP). Verschiedene Resortierungsmaßnahmen von Triggersignalen können Artefarkte in unterschiedlichem Ausmaß beeinflussen. Material und Methode: Es wird eine selbst entwickelte Softwareumgebung vorgestellt, die nach Import von Atemkurven von kommerziellen Herstellern (zb. Varian RPM, Anzai, VisionRT) eine Neuberechnung und -verteilung der aquirierten Triggerpunkte auf Basis verschiedener Algorithmen (zb. Max. Inspiration/Exspiration, globale /lokale Amplitudenwerte) erlaubt. Die Software wurde mit open-source Komponenten programmiert (Scriptsprache PHP), und kann auf verschiedenen Betriebssystemen ausgeführt werden. Als Frontend dienen herkömmliche Internet-Browser. Sie beinhaltet neben einer graphisch-visuellen Ausgabe der Triggerneuverteilungen auch die Möglichkeit der gemeinsamen Betrachtung der Atemkurve und der rekonstruierten DICOM-Bilder. Eine Datenbankunterstützung erleichtert den quantitativen und qualitativen Vergleich der verschiedenen Triggersortierungen. Über eine Berechnung von MPRs lassen sich Artefarktreduktionen auch visuell anzeigen. Mit einer ebenfalls selbst entwickelten und programmierbaren Motion-Plattform (linearer Schrittmotor) lassen sich sowohl Patientenatemkurven wie auch synthetische Atemmuster bezüglich dem Auftreten von Distorsionen oder Artefarkten beurteilen. Ergebnisse: Die Analyse von Atemkurven mit anschließender Neuberechnung von Triggerpunkten und einer Bewertung der verschiedenen Algorithmen anhand von statistischen Steuungsmaßen führt zu signifikanten Artefarktreduktionen bei der Rekonstruktion von 4D-CT-Datensätzen. Mit dem Motion-Phantom lassen sich zusätzliche, sonst klinisch unerkannte Artefarkte erkennen. Schlussfolgerung: Mit der vorgestellten Software lassen sich Artefarkte durch eine systematische Analyse der Atemkurve vor Rekonstruktion der 4D-CT-Bilder signifikant reduzieren. P06.08 Heart movement analysis for improving the respiration-gated radiotherapy in patients with left sided breast cancer 1 2 1 1 2 R. Abdelhamid , O. Waletzko , A. Farrag , A. Khalifa , R. Rohn , A. 3 Block ; 1 Clinical Oncology and Nuclear Medicine Department, Assuit University, 2 Egypt, Praxis für Strahlentherapie am Klinikum, Dortmund, Germany, 3 Institut für Medizinische Strahlenphysik, Dortmund, Germany. Introduction: Respiration induced heart movement during radiotherapy exposes the heart to the inevitable risks of radio-exposure, and hence radiation injury, in cases of Lt. sided breast cancer. The impact of such a risk is additionally aggravated by the use of radiotherapy in combination with cardiotoxic chemotherapeutic agents. Radio-oncologists pay special attention to the coronary arteries that might be included in this small part of the heart exposed to radiation. The aim of this study was to include the internal heart movement for improving respiration-gated radiotherapy of left sided breast cancer. Methods: In the period from 2004-2010; 116 patients, all females with LN positive Lt. sided breast cancer, were randomly enrolled in our study after an informed consent was taken from all patients for both techniques. Of them, 70 had respiration curves with sufficient quality for a reliable analysis. In all patients, both techniques were applied, and heart movement was retrospectively analyzed and compared. We use the Varian Real-time Position management (RPM) Respiratory Gating system. The signal provider for the gated beam is a marker block with infrared reflectors, which is placed on the patient’s breast. Two planning CT's in inspiration and expiration, and one free breathing scan are performed. The motion of a marked point at the edge of the heart was analyzed with the clinic-developed software ORAT in the simulator sequence for acquiring information of the cranio-caudal amplitude of heart movements in free breathing (respiration-induced amplitude) and a 15 seconds breath-hold phase (inherent amplitude). Results: The amplitude of the respiration-gated heart movement ranged from 2.8-33.8mm (mean: 16.2 - SD: 5.8), while that of the breathhold was 0.8-16.1mm (mean: 3.1 - SD: 2.56). There was about 80.9% decrease in the mean amplitude of movement by breath-hold. Comparing the mean amplitude of both groups using T-test showed a highly statistically significant difference (p = 0.0001, confidence level 101 95%). Using Pearson’s correlation, the values of paired amplitudes correlated significantly, albeit weakly (Pearson’s r = 0.3 - p = 0.026 confidence level 95%). Conclusions: Respiration-gated Radiotherapy produces a significant reduction in the amplitude of heart movement in comparison to the standard radiotherapy. This, in turn, could be utilized to spare a larger cardiac volume during radiotherapy planning. Different techniques were tried to minimize heart radio-exposure, as: the deep breath-hold or the respiration-gated radiotherapy. Previous studies did not pay much attention to the role of inherent heart movement. In this study, we analyzed the inherent heart movement, as the heart functions no matter the patient is holding breath or not. The role of inherent heart movement varies from one patient to another which should be taken in consideration during defining the parameters of respiration-gated radiotherapy. The inherent amplitude of the heart motion is the physiological lower limit of the respiration-gating window. Poster 07: Dosisberechung und Monte-Carlo Anwendungen in der Strahlentherapie P07.01 On the accuracy of Acuros XB and AAA dose calculation for small fields with reference to RapidArc stereotactic treatments A. Clivio, A. Fogliata, G. Nicolini, E. Vanetti, L. Cozzi; IOSI, Bellinzona, Switzerland. Purpose: To assess the accuracy against measurements of two photon dose calculation algorithms (Acuros XB and the Analytical Anisotropic algorithm AAA) for small fields usable in stereotactic treatments with particular focus on RapidArc. Methods: Acuros XB and AAA were configured for stereotactic use. Baseline accuracy was assessed on small jaw-collimated open fields for different values for the spot sizes parameter in the beam data: 0.0, 0.5, 1 2 and 2mm. Data were calculated with a grid of 1x1mm . Investigated 2 fields were: 3x3, 2x2, 1x1 and 0.8x0.8 cm from a 6MV beam from a Clinac2100iX. Profiles, PDD, and output factors were measured in water 2 with a PTW diamond detector (detector size: 4mm , thickness 0.4mm) and compared to calculations. Four RapidArc test cases were optimized, 2 calculated and delivered with jaw settings J3x3, J2x2 and J1x1 cm , the last was optimized twice to generate high (H) and low (L) modulation patterns. Each plan consisted of one partial arc (gantry 110° to 250°), and collimator 45°. Dose to isocenter was measured in a PTW Octavius phantom and compared to calculations. 2D measurements were performed by means of portal dosimetry with the GLAaS method developed at author’s institute. Analysis was performed with gamma pass-fail test with 3% dose difference and 2mm distance to agreement thresholds. Results: Open square fields: penumbrae from open field profiles were in good agreement with diamond measurements for 1mm spot size setting for Acuros XB, and between 0.5 and 1mm for AAA. Maximum MU difference between calculations and measurements was 1.7% for Acuros 2 XB (0.2% for fields greater than 1x1cm ) with 0.5 or 1mm spot size. Agreement for AAA was within 0.7% (2.8%) for 0.5 (1mm) spot size. RapidArc cases: doses were evaluated in a 4 mm diameter structure at isocentre and computed values differed from measurements by 0.0, -0.2, 5.5, -3.4% for AcurosXB calculations (1mm spot size), and of -0.1, 0.3, 6.7, -1.2% for AAA, respectively for J3x3, J2x2, J1x1H, J1x1L Rapidarc plans. Gamma Agreement Index from 2D dose analysis resulted higher than 95% for J3x3 and J2x2 cases, being around 80% for J1x1 maps. Sensitivity with respect to the dosimetric leaf gap and transmission factor MLC parameters was evaluated in the four RapidArc cases, showing the need to properly set the dosimetric leaf gap for accurate calculations. Conclusion: i) Acuros XB and AAA showed acceptable characteristics for stereotactic small fields provided adequate tuning of configuration parameters is performed, ii) dose calculated for RapidArc stereotactic plans showed an acceptable agreement against point and 2D measurements. Both algorithms can therefore be considered safely applicable to stereotactic treatments. P07.02 The impact of AcurosXB photon calculation algorithm on dose distribution in breast treatments under different lung densities A. Clivio, A. Fogliata, G. Nicolini, E. Vanetti, L. Cozzi; IOSI, Bellinzona, Switzerland. Purpose: A pre-clinical release of AcurosXB, a photon dose calculation algorithm for external beams, has been tested in Eclipse environment. Aim of the study was to investigate the influence of different air filling in lungs on the Acuros XB algorithm. Evaluation of the new algorithm in clinical breast cases is performed, with particular attention to the different lung densities present in free breathing (FB) with respect to deep inspiration breath hold mode (DIBH). Aim of the study was to investigate the influence of different air filling in lungs on the Acuros XB algorithm. Methods: CT datasets from 10 breast patients acquired in both free breathing (FB) and deep inspiration breath hold (DIBH) conditions were selected. Average lung density distributions had mean densities of 0.27±0.04 and 0.16±0.02 g cm-3 respectively. Two 3D-CRT techniques are used, the most common two tangential fields, and a three field technique. Reference benchmark calculations were performed with the Voxel Monte Carlo (VMC++). An analysis was performed in terms of DVHs and of 3D γ index evaluation, in particular within the low density medium (lung). As a further comparison, Anisotropic Analytical Algorithm (AAA) was used for dose distribution calculations. Results were stratified according to the breathing conditions also to appraise if differences present in various lung densities could be clinically relevant. Evaluation 102 of dose to medium and dose to water is also carried out for VMC++ and AcurosXB, allowing this feature. Results: In general AcurosXB presented dose distributions very similar to the Monte Carlo calculations in lung regions for both FB and DIBH breathing, indicating that also in clinical cases the specific structure density is not changing the overall dose calculation accuracy. Good agreement between Monte Carlo and AcurosXB evaluations in terms of dose calculation in medium and in dose to water was reported. AAA calculations confirmed to give acceptable results, but with less accuracy with respect to the new AcurosXB algorithm. Conclusion: The evaluation of AcurosXB in 3D-CRT clinical cases with low density heterogeneity in breast treatment was considered satisfactory and similar to Monte Carlo calculations. P07.03 Commissioning of a virtual linear accelerator impact of different primary electron beam parameters 1,2 2 1 2 H. Nassar , J. Wulff , N. El Khayati , K. Zink ; Laboratory of Nuclear Physics, Faculty of Sciences, Mohammed V 2 Agdal University, Rabat, Morocco, Institüt für Medizinische Physik und Strahlenschutz – IMPS, University of Applied Sciences, Giessen, Germany. 1 Purpose: In the past two decades, Monte Carlo simulation is widely used to calculate dose distributions. An accurate calculation of dose distributions in radiation therapy requires an accurate description of the radiation source. Our aim in the current study was to determinate the influence of incident electron beam characteristics on Monte Carlo based dose distributions for a 6 MV photon beam produced by an ELEKTA Precise accelerator. Mean energy, radial intensity distribution and energy spread of the initial electron beam, were studied. Methods and Materials: The depth-dose and dose-profile for different field sizes (i.e. 3x3 cm², 5x5 cm², 10x10 cm² and 40x40 cm² ) were calculated in a water phantom using the DOSXYZnrc user-code with 0.5x0.5x0.5 cm³ (for all field seizes) and 0.25x0.25x0.25 cm³ ( for 3x3 cm² and 5x5 cm²) voxel geometries. All measurements were performed with two ion chambers PTW 31010 (for all field seizes) and PTW 31016 ( for 3x3 cm² and 5x5 cm²) at a SSD of 100 cm. Results: The comparisons of measured and calculated depth-dose and dose-profile curves were performed at a depths of 2.5 cm, 5.0 cm and 10.0 cm. The resulting differences are less than 1%. The statistical uncertainties of all dose values were within 0.5% for all applied energies (from 5.6 MeV to 6.4 MeV), radial intensity distributions given at FWHM of initial electron beam (from 1 mm to 3 mm) and all applied energy spread. The depth-dose and dose-profile curves were considerably affected by the mean energy of the incident electron beam with dose profiles to be more sensitive on that parameter (Fig. 1). The depth-dose curves were almost unaffected by the radial intensity distribution of initial electron beam, but in contrast, dose-profiles curves were affected to it, especially for large field sizes (Fig. 2). No influence was observed in dose-profile or depth-dose curves regarding energy spread of primary electron beam (Fig. 3). Fig. 2 : influence of the radial intensity distribution on lateral dose-profile for a 6 MV photon beam Fig. 3 : influence of the energy spread on lateral dose-profile for a 6 MV photon beam Conclusion: Simulating photon beam produced by incident electron beam in a linear accelerator, mean energy and radial intensity distribution should be turned accurately to obtain a good agreement in calculation of dose distribution. Fig. 1 : influence of the mean energy on lateral dose-profile for a 6 MV photon beam 103 P07.04 Validierung eines mit Geant4 simulierten Linearbeschleunigers durch Messungen mit zwei verschiedenen dosimetrischen Messsystemen 1 1 1,2 2 1 N. Escobar Corral , C. Bornemann , S. Lotze , A. Stahl , M. J. Eble ; 1 Klinik für Strahlentherapie, Universitätsklinikum Aachen, Aachen, 2 Germany, III Physikalisches Institut B, RWTH Aachen, Aachen, Germany. Mittels moderner Behandlungstechniken, wie z. B. Intensitätsmodulierte Strahlentherapie IMRT, werden komplexe Dosisverteilungen verabreicht, die an die Form eines Zielvolumens sehr genau angepasst sind. Im Vergleich zur klassischen konformalen Therapie kann die verschriebene Dosis im Tumorgewebe, bei gleichzeitiger Schonung umliegender Risikoorgane, besser appliziert werden. Um zu gewährleisten, dass ein Behandlungsplan diese Bedingungen erfüllt, ist es notwendig, die Energiedeposition im Gewebe genau berechnen zu können. Die größte Genauigkeit erreicht die Monte-CarloMethode (MC), die jedoch aufgrund der notwendigen Rechenkapazität und -zeit bis heute noch nicht standardmäßig in klinische Therapieplanungssysteme integriert werden konnte. Mit dem Ziel genauere Berechnungen der Dosisverteilungen durchführen zu können, wird in der Medizinischen Physik unserer Klinik eine auf Geant4 basierte Monte Carlo Software entwickelt. In unserer Klinik wurde der Beschleuniger SLi Plus der Firma Elekta Oncology Systems vom Bremsstrahlungstarget bis zum Strahlenaustrittsfenster mit allen Kollimatoren, einschließlich der einzelnen MLCs, in Geant4 modelliert. Um die Simulation des Beschleunigers zu validieren, wurden zwei Phantome, ein Wasserphantom und ein PMMA-Plattenstapel, modelliert. Die Bestrahlung dieser Phantome mit Photonen der Energie 6MeV und 10MeV wurde für verschiedene Feldgrößen mit unterschiedlichen MLC Einstellungen simuliert. Um die Ergebnisse der Simulation mit Messergebnissen vergleichen zu können, wurden Bestrahlungen unter den simulierten Bedingungen durchgeführt. Zum einen wurden mit einer Ionisationskammer im Wasserphantom Dosisquerprofile bestimmt. Zum anderen wurden mit Gafchromic EBT2 Filmen im PMMA-Plattenstapel Dosisverteilungen gemessen. Gemessene und simulierte Dosisverteilungen wurden anhand der Gammaindexmethode nach Low et al. (1998) verglichen. Die Ergebnisse dieser Arbeit zeigen die Genauigkeit der Geant4 basierten MC Simulation und ihre Übereinstimmung mit den Messergebnissen. Die Abweichungen bezogen auf die Feldgeometrien sind kompatibel mit der von Elekta angegebenen Präzision (2mm oder 1% der Feldgröße). Die Übereinstimmung von Simulation und Messung im Bezug auf absolute Dosiswerte werden anhand verschiedener Gammaindexkriterien diskutiert. P07.05 Basisdatenerhebung für sehr kleine Bestrahlungsfelder im Festkörperphantom unter TPR-Bedingungen M. Janich, F. Lange, R. Gerlach, D. Vordermark; Universitätsklinikum Halle, Halle, Germany. Einleitung: Für Präzisionbestrahlungstechniken wie IMRT oder Stereotaxie ist die Basisdatenmessung für sehr kleine Bestrahlungsfelder bis in den Millimeterbereich obligatorisch, gestaltet sich aber insbesondere für die Messung der Tiefendosisverteilung als sehr schwierig. Zum einen ist man bei der Wahl des Detektors, was seine laterale Ausdehnung betrifft, sehr eingeschränkt und zum anderen ist dessen submillimetergenaue Justage auf dem Zentralstrahl kompliziert. Standardmäßig erfolgt die Messung der Tiefendosisverteilung unter TPR-Bedingungen mithilfe eines Halbleiterdetektors im Wasserphantom, indem die Wasserschicht oberhalb des Detektors durch Pumpen sukzessive verändert wird. Leider führt die Wasserbewegung zu verrauschten Kurven und die Umverteilung von ca. 100kg Wasser während der Messung zu Instabilitäten im Messaufbau, was eine genaue Fixation des Detektors im Isozentrum verhindert. Im Folgenden wird gezeigt, dass es möglich ist, durch das Messen von wenigen TPR-Kurven im Festkörperphantom und deren Anpassung an eine analytische Funktion, einen Satz von feldgrößenabhängigen Parametern zu bestimmen. Er gestattet es nachträglich, zusätzliche inter- oder extrapolierte TPR-Kurven genauer zu berechnen, als sie im Wasserphantom unter klinischen Bedingungen messbar wären. Material und Methoden: Für die Messungen wurde eine Halbleiterkammer (60012) der Firma PTW in einem selbstgebauten Miniphantom aus RW3-Material (Abb. 1) über die Tischsteuerung exakt im Isozentrum fixiert und sukzessive weiteres Phantommaterial aufgelegt. Die Bestimmung der TPR-Kurven erfolgte für 5 Feldgrößen 2 (1x1, 2x2, 3x3, 5x5, 8x8cm ) für 6 und 15MV Photonenstrahlung an einem Linearbeschleuniger (Typ:ONCOR, Fa. Siemens) bis in eine Tiefe 104 vom 250mm in nichtäquidistanten Schritten. Die gemessenen Kurven wurden mit der in [Sauer et al.] angegebenen Funktion über eine Variation der 5 Parameter angepasst. Anders als dort vorgeschlagen wurden für alle 5 Parameter feldgrößenabhängige Funktionen eingeführt und die numerische Anpassung so realisiert, dass sich eine möglichst gute Anpassung der Parameter an diese Funktionen einerseits und an die TPR-Kurve andererseits ergibt. Der mithilfe dieser multifunktionellen Analyse erhaltene Parametersatz wurde zur Berechnung von inter- und extrapolierten TPR-Kurven genutzt und diese mit gemessenen Daten verglichen. Ergebnisse und Diskussion: Die Tabelle in Abbildung 2 zeigt die relativen Fehler zwischen den gemessenen und den aus dem gewonnen Datensatz berechneten TPR-Werten für die 6MV Strahlung. Alle Fehler größer ±1% sind rot dargestellt, ein Fehler größer 3% tritt nicht auf. Diese kleinen Fehler sind um so bemerkenswerter, wenn man bedenkt, dass eine laterale Dejustage des Detektors von nur 2mm, die bei der Messung einer prozentualen Tiefendosiskurve durchaus auftreten kann, 2 in einem 1x1cm Feld bereits zu einem Fehler von >6% führt, bei einem 2 0.6x0.6cm Feld sogar >16%. Vor diesem Hintergrund fällt es leicht, den Parametersatz zur Extrapolation hin zu kleineren Feldgrößen zu nutzen, die einer direkten Messung nur noch unter Laborbedingungen zugänglich wären. In Abbildung 3 sind die ersten Zentimeter von acht aus dem Datensatz berechneten TPR-Kurven dargestellt. Die farbigen Kurven entsprechen extrapolierten Daten sehr kleiner Felder. Alle Datensätze sind in 10cm Tiefe auf 1 normiert. Literatur: O.A. Sauer, J. Wilbert: “Functional representation of tissue phantom ratios for photon fields“, Med. Phys. 36 (12), 2009 Abb.1 Abb.2: Poster 08: Protonen- und Ionentherapie P08.01 Bestimmung des Ansprechvermögens von Alanin in modulierten Protonen- und 12C-Bestrahlungsfeldern M. Kunz, M. Klingebiel, K. Zink; Instituts für Medizinische Physik und Strahlenschutz, Gießen, Germany. Einleitung: Viele Eigenschaften machen Alanine zu einem geeigneten Dosimeter im Bereich der Hadronen-Dosimetrie: Das Massenstoßbremsvermögen von Alanine und Wasser ist über weite Energiebereiche nahezu identisch und auch seine wasserähnliche Dichte in Kombination mit dem Bindemittel Paraffin machen Alanin zu einem nahezu wasseräquivalenten Detektor. In dieser Studie werden Simulationsergebnisse zum Ansprechvermögen von Alanin bezogen auf Wasser, die auf der Strahlungstransportsoftware FLUKA [1] beruhen, mit publizierten Messergebnissen verglichen. Es wurden modulierte Strahlungsfelder mit Energien von 51-62 MeV (Protonen) respektive 96112 MeV/n (12C) eingesetzt. Material und Methoden: Die verwendeten Alanin-Pellets orientieren sich an den von Anton et al. [2] angegebenen Spezifikationen (siehe Tabelle 1). Das Ansprechvermögen r des Alanindetektors ist Abb.3: folgendermaßen definiert: DAla beschreibt die Energiedosis im Alanin-Pellet, DH2O die WasserEnergiedosis am Ort des Pellets. Sowohl mit Protonen- als auch mit 12C-Feldern verschiedener Größe wurden Spread-out-Bragg-Peaks (SOBP) von ungefähr einem cm Breite in einem Wasserphantom generiert. Die maximale Energie der Protonen betrug 62 MeV, die von 12C 112 MeV. Die Alanin-Pellets wurden in allen Simulationen in der Mitte des SOBPs positioniert, wobei sich die Symmetrieachse der Pellets parallel zur Bestrahlungsrichtung befand. Um den Einfluss einer notwendigen PMMA-Halterung der Pellets zu verifizieren, sind in einer zweiten Simulation die Pellets in einer PMMA-Halterung im Wasserphantom positioniert worden. Bei der Platzierung wurde sowohl die Dicke der Pellets als auch der PMMA-Halterung in ihre jeweilige wasseräquivalente Dicke umgerechnet. Abbildung 1 zeigt einen mittels Protonen generierten SOBP sowie die Platzierung des Pellets. Abbildung 2 zeigt die entsprechende Situation im 12C-SOBP. Tabelle 1: Spezifikationen der verwendeten Alanin-Pellets Durchmesser 4.85 mm Dicke 2.85 mm Verhältnis Alanin zu Paraffin 10/11 Alanin zu 1/11 Paraffin Effektive Dichte 1.22 g/cm³ Abbildung 1: SOBP von Protonen im Wasserphantom. Die gestrichelten Linien markieren die Position des Alanin-Pellets. 105 P08.02 A generic set of fragmentation data for clinical ion beams and its exemplary application for the comparison of different beam delivery methods 1 1 2 2 1,3 P. Botas , S. Greilich , D. C. Hansen , N. Bassler , O. Jäkel ; 1 Division of Medical Physics in Radiation Oncology,German Cancer 2 Research Center (DKFZ), Heidelberg, Germany, Department of Experimental Clinical Oncology, Aarhus University Hospital, Aarhus, 3 Denmark, Department Radiation Oncology and Radiotherapy, Heidelberg University, Heidelberg, Germany. Abbildung 2: SOBP von 12C im Wasserphantom. Die gestrichelten Linien markieren die Position des Alanin-Pellets. Ergebnisse: Die Simulationen zeigten keinen signifikanten Einfluss der PMMA-Halterung auf das Ansprechvermögen. Aufgrund dessen werden im Folgenden nur die Ergebnisse ohne PMMA-Halterung präsentiert. Wie in Abbildung 3 zu sehen, ergibt sich für 12C ein feldgrößenunabhängiges Ansprechvermögen, das im Mittel einen Wert von 0.986, mit einer Variation innerhalb der statistischen Unsicherheit von 0,2% (1σ) aufweist. Beim Ansprechvermögen der Protonen zeigt sich eine größere Streuung der Simulationswerte. Das mittlere Ansprechvermögen ergibt sich hier zu 0,994 mit einer Variation von +1%. Gründe für die stärkere Streuung der Protonen-SimulationsErgebnisse sind noch unbekannt. Die präsentierten Werte sind in guter Übereinstimmung mit publizierten Werten von Onori et al. [5], welche ein Ansprechvermögen von 0.97 +-1,5% (1σ) aus experimentellen Ergebnissen angeben. Da für Protonen-Strahlung kein Primärstandard definiert ist, wird 60CoStrahlung als Referenzstrahlungsqualität herangezogen (IAEA-Protokoll TRS398 [3]). Bezieht man nun das mittlere Ansprechvermögen von Protonen und 12C-Ionen auf das von 60Co, dass unter Bezugsbedingungen (DIN 6800-2 [4]) ermittelt wurde, ergibt sich ein relatives Ansprechvermögen von 1.019(10) für Protonen und von 1.0105(17) für 12C. Der Wert für Protonen ist ca. 5% größer als der von Fattibene et al. [6] bestimmte experimentelle Wert, liegt aber noch innerhalb der von den Autoren angegebenen Fehlergrenzen. In clinically applied beams of heavy ions with initial kinetic energy of up to approx. 500 MeV/u, complex mixed fields occur due to projectile fragmentation. For many purposes such as the treatment planning, prediction of detector response, biological effect, and computation of stopping power ratios, it is necessary to have data of ion fluence differential in energy and penetration depth as a function of primary particle type and initial energy. Nowadays, experimental data are still limited and data sets used in treatment planning systems are tailored to the special needs of the algorithms and machines and limited in access due to proprietary reasons. Also, they have to be consistently derived along with the stopping powers or other data sources which are again not easily available. Generic data sets in contrast would enable the community to explore characteristics of clinical ion beams for many purposes. We used the latest version of the SHIELD-HIT heavy ion transport code with a novel scoring routine developed by the Aarhus Particle Therapy Group to generate data sets of ion fluence for a carbon ion beam with kinetic energy from 50 up to 500 MeV/u (Fig.1). We calculated those for three typical scenarios of ion beams delivery techniques: - active energy variation (i.e. from the accelerator) - with an additional periodic PMMA element (ripple filter) in the beam line to slightly broaden the very sharp Bragg peak - passive energy variation using thick absorbers. The resulting data are provided on the internet and can seamlessly be used by routines of the libamtrack program library - which is an open source project dedicated to clinical ion beam physics and prediction of detector response and cell survival (http://libamtrack.dkfz.de). The new data sets are intended to complement the capabilities of libamtrack. They are nevertheless provided in the spc format established by successful TRiP98 ion treatment planning system to assure wider compatibility. We will present the basic features of the data set as well as an assessment of accuracy with present data used. We expect this tool to facilitate research on ion beams and for the future opening the possibility of expanding to other ions and target materials. Abbildung 3: Ansprechvermögen als Funktion der quadratischen Feldgröße. Fig.1: Example data set for an actively delivered beam (with 3 mm ripple filter) of 12C with 270 MeV/u initial energy. Three fluence spectra differential in energy and particle type are shown and related to the depth-dose curve (80 steps). 106 P08.03 Benefit of two-dimensional silicon-based detectors for ion beam therapy 1 2 2 1 3 M. Martisikova , J. Telsemeyer , B. Hartmann , L. Huber , S. Brons , C. 4 4 1 1,2 Granja , J. Jakubek , B. Hesse , O. Jäkel ; 1 German Cancer Research Center, Heidelberg, Germany, 2 3 Universitaetsklinikum Heidelberg, Heidelberg, Germany, Heidelberg 4 Ion Beam Therapy Center, Heidelberg, Germany, Institute of Experimental and Applied Physics, Czech Technical Univesity in Prague, Prague, Czech Republic. Within the Heavy Ion Project group at the DKFZ in Heidelberg we investigate the potential of various detectors to improve ion beam therapy. These studies involve both amorphous and crystalline siliconbased detectors, which provide high spatial and time resolution as well as online readout. Experiments are performed at the Heidelberg Ion Beam Therapy Center (HIT), equipped with a synchrotron and a beam scanning system. The amorphous silicon flat-panel detector RID 256L (Perkin Elmer, Wiesbaden) was designed for medical imaging in photon beams. We investigate the capabilities of this detector to image ion fields itself and objects using ion beam radiography. In cooperation with the CTU in Prague we employ the pixel detector Timepix developed by the Medipix Collaboration. It is a state-of-the-art crystalline silicon detector with high sensitivity and an enhanced signalto-noise ratio. Its high spatial resolution (55 um pixel pitch) allows operation as active nuclear emulsion, registering single ions online. We investigate its ability of spectroscopy for ions created by nuclear fragmentation processes of the primary beam. Measurements of beam profiles and homogeneity of scanned ion fields are required for daily QA procedures. Currently radiographic films are used at HIT for this purpose. We have shown that after applying corrections for dark image and response homogeneity, the flat-panel detector provides reliable measurements of this kind. Implementation of a flat-panel detector in daily routine QA measurements is currently ongoing at HIT. We have also shown that this detector can be used for 2D absolute fluence measurements in the plateau region of the Bragg curve. It is feasible for both, proton and carbon ion patient plans, using calibration for the applied ion type. This method provides 150-times higher density of measured points than the currently employed ionization chamber array, resulting in a high benefit for strongly inhomogeneous dose distributions. Since it does not require water phantom, it can be conveniently used with a gantry. The flat-panel detector shows also a high potential for ion beam radiography. It is feasible to image metal seeds implanted in soft tissue, which is promising not only for patient positioning before the beam application, but also to monitor intrafractional movement of the target. Given by the steepness of the Bragg-curve, ion beams were shown previously to provide radiographies with high soft tissue contrast. In our group, online images with high soft tissue contrast and low noise were obtained using the flat-panel detector. An unambiguous separation of soft tissues represented by tissue equivalents of 1cm thickness was achieved. The Timepix-detector was shown to be able to register single ions in and around proton and carbon ion fields. Using the energy calibration of each pixel, it was found to provide accurate measurements of particle energy loss in silicon in the plateau region. The size of the pixel-cluster activated by a single particle shows strong dependence on the particle type and is thus the second promising parameter to separate ions, even within phantoms and for real patient fields. This project is carried out in frame of the Medipix Collaboration. P08.04 Measurement of radiation quality and mean LET using fibercoupled Al2O3:C detectors 1 2 1 3 S. Greilich , C. E. Andersen , F. A. Klein , O. Jäkel ; 1 German Cancer Research Center (DKFZ), Division of Medical Physics 2 in Radiation Oncology, Heidelberg, Germany, Technical University of Denmark, Risø National Laboratory for Sustainable Energy, Radiation 3 Research Division, Roskilde, Denmark, University Hospital of Heidelberg, Department of Radiation Oncology and Radiation Therapy, Heidelberg, Germany. Luminescence-based radiation dosimeters, such as LiF, CaF2 or Al2O3:C, are widely used in medical radiation dosimetry. But their use in connection with clinical proton and ion beams is anything but straightforward. Here, ionization density effects militate against a welldefined dose-response relation. On the other hand, this also means that luminescent dosimeters feature significant additional information on the irradiation process. Accordingly, we are investigating their ability to assess radiation quality in ion beams, especially with respect to LET. In this connection, recently developed thin-layer fibers with sensitive volumes of approx. 100 µm can help to resolve the steep gradients found in ion treatment fields. Our study analyses approx. 400 measurements (from Cs-137, kV and MV X-ray, proton and Carbon beams) for correlations between beam quality, dose, and dose-rate on the one hand and prompt radioluminescence (RL) and optically stimulated luminescence (OSL) on the other. We find a clear dependence of the RL- and OSL-related parameters on mean LET and absorbed dose. By contrast, we find no correlation with the dose rate. Using suitable calibration, this can provide a relatively inexpensive method for monitoring beam characteristics. It also casts an additional slant on the ongoing discussion of the benefits of LEToptimized therapy with a verification tool for treatment plans. P08.05 Dosimetric Characterization of Scanned Ion Beam Treatment Fields 1 1 1 1 1 K. Henkner , B. Ackermann , S. Brons , N. Chaudhri , S. Ecker , M. 1 1 1 1 1 1,2 Ellerbrock , P. Heeg , O. Nairz , J. Naumann , M. Winter , O. Jäkel ; 1 Heidelberg Ion Beam Therapy Center, Heidelberg, Germany, 2 Department of Radiation Oncology, Heidelberg, Germany. Introduction: The first clinically operating ion beam facility for scanned proton and carbon ion beams was built in Heidelberg and is treating patients since November 2009. The beam application system and treatment planning system (TPS) is based on the experience acquired during the pilot project at the Helmholtzzentrum für Schwerionenforschung (GSI) in Darmstadt. At GSI a beam line and a TPS for patient treatment with carbon ions was designed and successfully applied for over 10 years. Together with Siemens Health Care AG, a commercially certified medical product for ion beam therapy was developed. Material and Methods: As a part of the commissioning at HIT, the medical physics team verifies the accuracy of the calculated dose with the TPS by measuring absolute doses in a water phantom. The measured values are later on compared to the calculated values regarding the dose values, field size, lateral and distal penumbra and range of the ion fields. For the dose calculations we assigned a target region by contouring cubes in a water phantom CT data set centered at 50, 125 and 200mm depth, with side length of 30 and 60mm in the TPS. The cubes were placed symmetrically around the isocenter. One proton and carbon ion field optimized to a physical dose of 1Gy was applied to the target volume. The physical pencil beam settings were 6mm FWHM for carbon ions and 10mm or 8mm for protons. For carbon ions a mini-ridge filter was used. After calculating the treatment plan, the dose was recalculated on a verification setup including 24 pinpoint chambers at different positions in a water phantom. These dose values were compared to the measurement which was performed with the same setup as used for the calculation. Hence, our measurement system is included in the TPS allowing absolute dose plan verification. Furthermore, we calculated and measured treatment fields of different TPS software versions. Results and Discussion: The difference between measurement and calculation for our standard plan (60mm length at 125mm depth) is less than 2% in the high dose region for protons and carbon ions. The difference between measurement and calculation in the lateral penumbra and the position of the lateral 90% dose value is less than 1.5mm and 2.5mm for carbon ions and protons, respectively. For the range the difference is less than 0.5mm. The measurement, beam application and the setup uncertainty are estimated to 3% in dose and 0.5mm in position. For special cube configurations, e.g. small fields, we observed a difference in the dose distribution of the two treatment planning versions installed so far, as well as for the two ion species. This is due to different physical beam models. However, the treatment planning software is still under development and a new version will be installed at HIT in summer this year and will further reduce the observed deviations between measurements and calculations. Dr. Olaf Nairz now at EBG MedAustron, Wiener Neustadt, Austria P08.06 Strahlentherapieplanung für Ionen: Verbesserung der Reichweitenbestimmung mit Hilfe des Dual Energy CT 1 1 1 1,2 N. Hünemohr , S. Greilich , C. Gillmann , O. Jäkel ; 1 Deutsches Krebsforschungszentrum, Abteilung Medizinische Physik in 2 der Strahlentherapie, Heidelberg, Germany, Universitätsklinikum Heidelberg, Abteilung Radioonkologie und Strahlentherapie, Heidelberg, Germany. In der Therapieplanung für Ionenstrahlen werden derzeit Röntgen-CT107 Daten zur Berechnung der Reichweite der Ionen im Gewebe verwendet. Hierfür wird eine Kalibrationstabelle im Planungssystem hinterlegt, welche die CT-Zahlen in Ionenreichweiten übersetzt („Hounsfield LookUp Table”). Die Abweichungen bei der Korrelation von CT-Zahlen (Photonenabsorptionskoeffizient) zu Ionenreichweiten betragen ungefähr 1-3 % und können zu erheblichen Unsicherheiten in der Dosisberechnung führen. Durch neuartige Dual-Energy CT-Geräte können simultan zwei CTZahlen für zwei verschiedene Photonenspektren bestimmt werden, über die direkt die Elektronendichte und effektive Ladungszahl Zeff extrahiert werden können. Wir stellen unsere Untersuchungen vor, inwieweit diese beiden Gewebeparameter die Reichweitenbestimmung für Ionen und somit die Dosisplanung verbessern können. Hierzu wurde mit Hilfe von Gewebephantomen (Gammex RMI) und weiteren Materialien im Siemens Somatom Definition Flash Scanner des DKFZ bei Röhrenspannungen von 80 kVp und 140 kVp (+ Zinnfilter) eine neue Kalibrationstabelle erstellt. Diese korreliert die Elektronendichte zu der Ionenreichweite und ist - im Gegensatz zur bisherigen bi-linearen Beziehung zwischen CT-Zahl und Reichweite linear. Sie weist außerdem erheblich kleinere Abweichungen zu den gemessenen Werten der Reichweite (max. 1 % statt 8 %) auf. In einer Therapieplanungsstudie mit Phantommaterialien, in der drei idealisierte Szenarien (Kopf, Prostata, PMMA Phantom) betrachtet wurden, konnten diese verringerten Abweichungen in eine signifikante Verbesserung der Zielvolumen-Abdeckung übersetzt werden. Um die mögliche Verbesserung im Patienten beurteilen zu können, wurden die 12 relativen Reichweiten von Kohlenstoffionen ( C) in einem Schweinekopf gemessen und mit den Vorhersagen aus einer herkömmlichen CT- und der neuartigen DECT-Kalibrationstabelle verglichen. Hierfür konnten 25 verschiedene Strahlwege durch das Gewebe mit Hilfe einer variablen Wassersäule am Heidelberger Ionenstrahl-Therapiezentrum vermessen werden. Im Einklang mit den geringeren Abweichungen der neuen Kalibration zeigt sich, dass sich mit Hilfe des DECT die Ionenreichweiten um ca. 3 % (absolut) besser bestimmen lassen. Als Ausblick wird die Möglichkeit diskutiert, den zweiten extrahierten Parameter (die effektive Ladungszahl) für eine weitere Verbesserung Reichweitenbestimmung mit Hilfe des DECT zu nutzen. P08.07 On the feasibility of macro Monte Carlo for protons M. K. Fix, D. Frei, W. Volken, E. J. Born, P. Manser; Division of Medical Radiation Physics, Inselspital - University of Bern, Bern, Switzerland. Introduction: In the case of electron beams, the macro Monte Carlo (MC) method is a well-established method enabling accurate and efficient dose calculations in clinical routine [1,2]. In principle this method should also lead to an efficiency gain for MC proton dose calculation. This work is a feasibility study for a new macro MC technique for proton beams. Method and Materials: Analogous to the electron macro MC, the approach for the proton macro MC (pMC) is a local to global MC method. For this purpose, the local simulations using the MC code Geant4 have been carried out for mono-energetic protons ranging from 10 to 250 MeV impinging perpendicularly on water slabs of thicknesses varying between 1 and 10 mm. In these simulations multiple scattering, elastic interactions and ionizations have been taken into account for the scoring. Although also inelastic hadron interactions have been simulated, they have not been used for the scoring except for the number of occurrences, since in the present work this interaction type is not yet considered. During the local simulation the information such as the lateral displacement, the energy loss and the direction distributions for the protons has been scored in histograms. These histograms have been converted into probability density functions (PDFs) preserving existing correlations between the lateral displacement and the direction of the protons. The pMC method consists of stepwise transporting protons by selecting appropriate slab thicknesses and by means of sampling from corresponding PDFs. The sampled energy loss is deposited along the path between the entrance and exit positions of the proton for the current step. For validation purposes, dose distributions for protons of different mono-energetic proton pencil beams impinging on a water phantom have been calculated using pMC and Geant4 with a dose 3 grid resolution of 2x2x1 mm . The resulting integral depth dose curves and dose profiles have been compared. Results: The calculated integral depth dose curves agree better than 1% or 1 mm for all pencil beams considered. The agreement between the dose profiles at several depths in water is within 1% or 1 mm for all energies and depths. The pMC dose calculations are about a factor of 200 faster than the corresponding Geant4 calculations. Conclusion: The results of the dose comparisons demonstrate the very accurate and efficient calculation of dose distributions for protons in water using the newly developed macro MC method. In future, pMC 108 will be extended to include patient materials and the inelastic particle transport in order to allow patient dose calculations for proton beams. This work was supported by Varian Medical Systems. References [1] H. Neuenschwander and E.J. Born, “A macro Monte Carlo method for electron beam dose calculations,” Phys Med Biol 37, 107-25 (1992). [2] M.K. Fix, D. Frei, W. Volken, H. Neuenschwander, E.J. Born, P. Manser, ”Monte Carlo dose calculation improvements for low energy electron beams using eMC,” Phys. Med. Biol. 55, 4577-88 (2010). P08.08 Accounting for inter-fractional organ motion with use of CBCT in spot-scanning proton radiation therapy for prostate cancer 1,2 1 1 J. G. Gora , M. Stock , D. Georg ; Division of Medical Radiation Physics, Department of Radiotherapy, 2 Medical University Vienna, Vienna, Austria, EBG MedAustron GmbH, Wiener Neustadt, Austria. 1 Introduction: Anatomic variations in the pelvic area can affect the delivered dose distribution in scanned proton beam therapy. The purpose of this planning study was to investigate the most robust margin strategy to account for inter-fractional motion in prostate cancer. Material & Methods: Nine prostate cancer patients were arbitrarily selected. For each, one planning CT and 7 weekly CBCTs were acquired. CBCTs were registered to the planning CT and prostate, rectum, rectal wall, bladder and bladder wall were delineated on each data set. All structures defined on the CBCT were mapped on the planning CT. The following planning target volume (PTV) approaches were investigated: a) PTV10mm - extension of clinical target volume delineated on planning CT (called CTVct) by 10mm uniform margin, b) PTVmod- CTVct extended by 5mm in LR, AP, 8mm in IS direction and c) PTVITV - created by summing contours of the CTVct and CTVs delineated on five CBCTs acquired during the first week, plus a margin of 3mm in LR, IS and 5mm in AP direction. For each PTV approach proton plans were created on the planning CT using a spot-scanning technique based on 2 lateral fields utilizing the treatment planning system XiO (ELEKTA). The prescribed dose for the PTV was 78Gy. The plan was accepted when 95% of the prescribed dose was delivered to 95% of the PTV. Dose constraints for bladder and rectum were based on in-house IMRT prostate IMRT protocol. The dosimetric impact of organ motion on targets and OARs were assessed via DVH analysis using structures variations extracted from CT and CBCT information (Fig. 1). Results: DVHs of PTVs and CTVct revealed that for all 3 approaches changes in the dose to 2% of the volume (D2) and the median dose (Dmedian) were not substantial (largest difference is 41cGy), slightly bigger difference was observed in D98 where PTVITV, PTVmod and PTV10mm get 72.1Gy, 70.8Gy and 71.4Gy, respectively. In terms of coverage, PTVITV was superior, the volume receiving 98% (V98%) of the dose was 7% higher than for PTVmod and PTV10mm. Also the PTVITV approach seemed to be more robust to organ motion, V98% for the CTV derived from weekly CBCTs information was 99.2%±0.9%, while for PTVmod plans and the PTV10mm plans V98% for CTV was 95.4%±4.3%. and 98.8%±1.3%. The rectal wall sparing for the PTV10mm method was the worst, the V40% was on average more than 10% higher compared to PTVmod and PTVITV plans and 7.5% higher for the V70% comparing to the PTVmod plan. Sparing the bladder wall was best for PTVmod plan, both V40% and V70% were lower compared to other methods. Conclusion: The ITV approach was superior in terms of coverage and rectal wall sparing compared to other approaches, although PTVmod method was best in terms of both bladder and rectal wall sparing. However this approach might be not sufficient to account for organ motion. Margins in the PTV10mm method were large enough to consider organ motion but it comes with the cost of higher doses to OARs. dosimetric consequences of the delivery of a treatment field with two different beam weight distributions to a moving target. Furthermore, we propose an alternative objective for beam weight optimization that could make treatment plans more robust against motion effects. A treatment field with two different beam weight distributions as seen in figure 1 was considered for the treatment of a moving target in the liver. Both beam weight distributions achieve a comparable, homogeneous dose in the target in the static case. In the following we name the left beam weight distribution the “gradient”-case and the right distribution the “smooth”-case.'[GRAFIK1]' First consequences of a single spot displacement were investigated for both cases. In the “gradient”-case there exist a few spot positions where a displacement would result in severe dose errors. For the remaining spot positions a displacement would have negligible consequences. In the “smooth”-case exist in total more spot positions where a displacement could lead to significant dose errors. These errors would, however, be smaller than in the “gradient”-case. Secondly, consequences on the timing of delivery for iso-layered rescanning (quasi constant spot dose per visit) were investigated for both beam weight distribution cases. Iso-layered rescanning aims to break down any regularity and repetition in the delivery in order to avoid interplay effects. This is fulfilled in the “smooth”-case. In this case, in each re-scan a fraction of spot acquires its total dose and thus will not to be revisited in the next re-scan. Consequently, the number of spot positions visited per re-scan varies for each re-scan, avoiding regularity in the spot-delivery-time-structure. In the “gradient”-case however the iso-layered re-scanning approach does not overcome the regularity in the spot-delivery-time-structure. Here a high fraction of spot positions will only be visited once (all the low weighted spots receive their total dose during the first scan) and all the remaining (high weighted) spot positions will experience a scaled rescanning, which is sensitive to interplay effects. These two examples show that different beam weight distributions can have a significant effect on the robustness of scanned proton plans delivered to moving targets. As a possible alternative objective to targetdose-conformity, beam-weight-homogeneity should be investigated and considered for 4D treatment plan optimization in scanned particle therapy. P08.09 Beam weight optimization in treatment planning for moving targets - prospects and challenges of this additional degree of freedom in scanned particle therapy 1 2 1,3 A. Knopf , S. Zenklusen , A. Lomax ; 1 2 Paul Scherrer Institut, Villigen, Switzerland, National Institute of Radiological Sciences Research Center for Charged Particle Therapy, 3 Chiba, Japan, ETH, Zurich, Switzerland. Actively scanned particle therapy may deliver highly conformal and homogeneous dose distributions to geometrically complex, static targets while sparing adjacent critical structures. However, when moving targets are treated with actively scanned particle beams, target dose conformity, as well as target dose homogeneity, is compromised. One way to reduce motion effects is optimized 4D treatment planning. Parameters that should be considered to be optimized include for example the number of fields per plan and the field directions. In scanned particle therapy, the beam weight distribution offers an additional degree of freedom to be optimized. For static targets, the objective for the beam weight optimization is target dose conformity. We question if this is still the optimal choice of objective for moving targets. In this work, we discuss Figure 1: Dose distribution (upper row) and beam weight distributions (lower row) for the “gradient”-(left) and the “smooth”-case (right), respectively. P08.10 Auswirkung von metallischen Positionierungsmarkern und Lagerungshilfen auf die Dosisverteilung in der Protonentherapie von Augentumoren J. Heufelder, R. Stark, D. Cordini, A. Weber; Charité - Universitätsmedizin Berlin, Berlinprotonen am HZB, Berlin, Germany. 109 Einleitung: In der Protonentherapie von Augentumoren werden für die Verifikation der korrekten Lagerung des Auges knöpfförmige Markierungsplättchen (Clips) aus Tantal mit einem Durchmesser von 2,5mm und einer Dicke von 0,3mm verwendet. Mit Lidhaltern aus Federstahl wird versucht, die Augenlider aus dem Bestrahlungsfeld herauszuziehen. Planerisch und lagerungstechnisch besteht die Möglichkeit, dass Tantalclips oder Lidhalter ganz oder teilweise in das Bestrahlungsfeld ragen können. Wir untersuchten den Einfluss von Tantalclips und Lidhaltern auf die Dosisverteilung. Material und Methode: Es wurden Phantome mit speziellen Einpassungen für Clips und Lidhalter angefertigt, die es ermöglichen, zweidimensionale Dosisverteilungen mit einem hochauflösendem Szintillatorfolien/CCD-Kamera-System in beliebiger Tiefe zu messen. Als Phantome standen zur Verfügung: Ein Plexiglasphantom mit 5,3 mm Dicke, in dem fünf Tantalclips unter verschiedenen Winkeln implantiert wurden, eine Plexiglasplatte mit fünf Federstahlstiften (Lidhaltermaterial) unterschiedlicher Länge, einer liegend und vier herausstehend, und ein Augenlidmodell aus tierischem Gewebe mit eingesetztem Lidhalter. Bei allen Messungen wurde der Abstand von Blende zu Phantom konstant gehalten. Ergebnisse: Im Clipschatten ist die Dosis auf im Mittel 80% reduziert. Steht der Clip parallel zur Einstrahlrichtung, fällt die Dosis hinter dem Clip sogar auf bis zu 50% ab. An den Kanten der Clips und in den Löchern wurde eine Erhöhung der Dosis auf bis zu 115% bzw. 130% gemessen. Der Effekt ist abhängig von der Ausrichtung der Clips im Protonenfeld und der Messtiefe. Direkt hinter dem Lidhalterdraht wird die Dosis auf 85% reduziert. In der Tiefe verbreitert sich dieser Dosisschatten, und die minimale Dosis beträgt 90%. Im Bereich der Krümmung der Lidhalter beträgt die Dosis hinter dem Lidhalter 65% (oberflächennah) und 80% (in der Tiefe). In der direkten Umgebung der Lidhalter erhöht sich die Dosis auf ca. 105%. Schlussfolgerungen: Durch die deutlich höhere Dichte und Kernladungszahl der Tantalclips und der Lidhalter gegenüber Gewebe werden die Protonen stärker gestreut und deren Reichweite lokal reduziert. Dies führt zu einer Überhöhung der Dosis in unmittelbarer Umgebung der Clips und Lidhalter sowie zu einer signifikanten Reduktion der Dosis in ihrem Schatten. Durch geschicktes Aufnähen der Clips und der Wahl einer geeigneten Einstrahlrichtung in das Auge können die Clips so positioniert werden, dass sie bei der Bestrahlung die Dosisverteilung im klinischen Zielvolumen nicht beeinflussen. Die Lidhalter sollen so gesetzt werden, dass die Dosisverteilung im Planungszielvolumen davon nicht betroffen ist. P08.11 Die Robustheit von stark modulierten Schwerionenfeldern gegenüber Strahlprofilschwankungen 1 1 1 2 D. Kellner , U. Weber , M. Witt , K. Zink ; 1 Partikel-Therapie-Zentrum Marburg, Marburg, Germany, 2 Universitätsklinikum Gießen und Marburg, Klinik für Strahlentherapie und Radioonkologie, Marburg, Germany. Eine konforme Strahlentherapie mit dem am Partikel-Therapie-Zentrum Marburg eingesetzten Raster-Scan-Verfahren setzt einen hohen Qualitätsstandard voraus. Durch die komplexe und zugleich empfindliche Strahlführung des Beschleunigers entstehen Abweichungen zwischen den geplanten und den tatsächlichen lateralen Strahlprofilen. Ziel der Arbeit ist es, den Einfluss diese für das Bestrahlungsplanungssystem unsichtbare Profilschwankungen zu quantifizieren und in einen klinischen Zusammenhang zu stellen. Aktuelle Filmmessungen am PTZ Marburg zeigen, dass Abweichungen der Strahlprofile sowohl in deren Form, als auch in deren Breite auftreten. Die Abweichungen der Strahlbreite liegen im Bereich von ± 10 % in Luft im Isozentrum und werden über die gut bekannten Wechselwirkungen (nahezu ideal gaußförmig) mit Materie teilweise gedämpft, ehe sie therapierelevante Tiefen erreichen. Abweichungen der Strahlform treten insbesondere bei den ionenoptisch verbreiterten Strahlprofilen (größte Fokusstufe) auf. Die schiefen Strahlprofile lassen sich gut über eine Doppel-Gauß-Funktion mit separatem Zentrum und Gewicht parametrisieren. Durch die hohe Anzahl an Strahlpositionen wird bei der Dosisoptimierung ein enorm hoher Freiheitsgrad erreicht. Um die Dosisgradienten so steil wie möglich an die Kontur des Zielvolumens anzupassen, werden bei der Optimierung (als mathematisch) beste Lösung die Teilchenfluenzen insbesondere an den Rändern stark moduliert. Dieser Effekt verstärkt den Einfluss der abweichenden Strahlprofile und erhöht zugleich die Bestrahlungszeiten, da drastische Fluenzschwankungen innerhalb einer Iso-Energie-Schicht die Intensitätsstufe einschränken. Zur Auswertung wird eine eigens für diese Arbeit konzipierte Optimierung eingesetzt, in der optimierte Teilchenbelegungen iteriert werden, die zu idealen Dosisverteilungen (Minimaldosis: > 99,9 % / Maximaldosis: < 100,1 %) führen. Auf Grundlage dieser Teilchenbelegungen werden 110 Dosisnachberechnungen mit abweichenden Strahlformen und -breiten separat durchgeführt. Die Ergebnisse zeigen, dass die Strahlprofiländerungen insbesondere bei stark modulierten Plänen einen signifikanten Einfluss auf die resultierenden Dosisverteilungen haben können. Zu erwarten sind starke Modulationen bei einem großen Überlapp der einzelnen Strahlpositionen (großes Verhältnis von Strahlbreite zum Abstand der Strahlpositionen), bei komplex geformten Zielvolumina, bei starken DichteInhomogenitäten und bei der hochgradig flexiblen IMPT-Optimierung. Des Weiteren wird gezeigt, dass bei der Bestrahlungsplanung eine Regulierung der Homogenität zwingend erforderlich ist, da sonst die üblichen Iterationsverfahren mit ihrem mathematischen Optimum eine aus klinischer Sicht kontraproduktive Fluenzverteilung erzielen, weil diese Pläne unrobust gegenüber Strahlprofilschwankungen sind. Die mit einer Regulierung erhaltenen Teilchenbelegungen entsprechen nicht mehr dem mathematischen Optimum, bieten jedoch eine deutliche höhere Robustheit gegenüber nicht-gaußförmigen Strahlprofilen. Zudem wird ersichtlich, dass homogene Teilchenbelegungen auch robuster gegenüber Reichweitenunsicherheiten und Bewegungsartefakten sind. P08.12 Robustheit gegen die interne Target-Bewegung von Bestrahlungsplänen für fraktionierte Prostata-Bestrahlungen in der Partikeltherapie 1,2 1 1 1,2 S. Gräf , U. Jelen , F. Ammazzalorso , K. Zink , R. Engenhart1 1 Cabillic , A. Wittig ; 1 Philipps-Universität Marburg, Partikel-Therapie-Zentrum Marburg, 2 Marburg, Germany, Technische Hochschule Mittelhessen, Giessen, Germany. Einleitung: Die Partikel-Strahlung zeigt ein charakteristisches Energiedepositionsprofil mit steilen lateralen Kantenabfällen, eindeutigem Maximum am Ende der Reichweite (Bragg-Peak) und über dieses hinaus nahezu keiner Dosisabgabe. Diese Eigenschaften ermöglichen eine sehr präzise Dosisapplikation, dem großen Vorteil der Partikeltherapie für hochkonforme Bestrahlungen und Dosisreduktion. Bei Prostata-Behandlungen stellt die interne Organ-Bewegung ein relevantes Problem dar. Durch die Korrektur der Patientenposition entsteht das Risiko, dass sich die Tiefe des Bragg-Peaks ändert und in einer unerwünschten Veränderung der Dosisverteilung resultiert. Die Partikeltherapie gilt daher als empfindlich gegenüber internen TargetBewegungen, weshalb die Repositionierung des Patienten mit größter Sorgfalt angewandt werden sollten. In vorhergehenden Studien wurden die Auswirkungen definierter Verschiebungen in bestimmte Richtungen auf die Dosisverteilung einzelner Fraktionen analysiert. Der Einfluss der interfraktionellen Prostata-Verschiebung auf die gesamte Behandlung mit einer Vielzahl von fraktionierten Bestrahlungen (ca. 20 bis 30 Sitzungen) wurde in dieser Studie simuliert und die Konsequenzen systematisch untersucht. Ziel war es, Informationen bezüglich notwendiger Saum- und Schwellenwerte für Ablaufprotokolle zu erlangen. Material & Methoden: Die tägliche Prostata-Bewegung wurde für vier Patienten simuliert, indem die CTV-Kontur in jeder Fraktion versetzt und der ursprüngliche Plan neu berechnet wurde (mit und ohne Repositionierung). Die Werte für die interfraktionelle interne TargetBewegung der Prostata beruhen auf Angaben veröffentlichter Studien. Die Bestrahlungspläne wurden mit aktiver Raster-Scanning-Technik und der Bestrahlungsplanungssoftware TRiP98 (GSI, Darmstadt, Germany) erstellt. Für beide Fälle und für verschiedene CTV-PTV-Säume wurde jeweils der 95%-CI (Coverage-Index) bestimmt. Ergebnisse: Für CTV-Verschiebungen innerhalb des benutzten PTVSaums liegt der 95%-CI in beiden Fällen, mit und ohne Repositionierung, bei über 99,0 %. Wenn die Target-Verschiebung über den PTV-Saum hinausgeht, fällt ohne Repositionierung der 95%-CI ab, begründet durch die steilen Dosisgradienten in der Partikeltherapie. Mit Repositionierung verbessert sich die Target-Abdeckung erheblich. Der Effekt der Verschiebungen in unterschiedliche Richtungen in den Einzelfraktionen minimiert sich in der Summe (über den gesamten Behandlungszeitraum) zu einer akzeptablen Abweichung der kumulierten Dosisapplikation. Fazit: Die Simulation repräsentiert die klinische Situation einer ProstataBehandlung in der Partikeltherapie. Der Effekt der internen TargetBewegung auf die fraktionierte Bestrahlung bezüglich der Dosisveränderung ist ersichtlich. Im Vergleich zu den im Vorhinein untersuchten Auswirkungen auf Einzelfraktionen ist der Effekt auf die komplette Prostata-Bestrahlung wesentlich geringer. Ist die Minimierung systematischer Positionierungsabweichungen gewährleistet, stellen sich die Konsequenzen für die gesamte Dosisapplikation als vertretbar dar. P08.13 Doppelblendensystem zur Penumbrareduzierung an einem 68 MeV Protonenstrahl 1 1 1 2 1 J. Heufelder , J. Müller , R. Stark , B. Karle , A. Weber ; Charité - Universitätsmedizin Berlin, Berlinprotonen am HZB, Berlin, 2 Germany, Charité - Universitätsmedizin Berlin, Klinik für Strahlentherapie, Campus Benjamin Franklin, Berlin, Germany. 1 Einleitung: Ziel der Strahlentherapie ist die Bestrahlung des Tumors bei gleichzeitiger maximaler Schonung des gesunden Gewebes. Bei der Bestrahlung eines diffusen Irismelanoms ist das klinische Zielvolumen in der Regel die gesamte Iris inklusive der Augenvorderkammer. Typischerweise wird das Zielvolumen bei uns mit einer 18mm durchmessenden Kreisblende bestrahlt. Der sich direkt hinter der Iris befindliche torusförmige Ziliarkörper ist bei dieser Therapieform das primäre Risikoorgan, da er neben der Linsenaufhängung auch für die Regulierung des Augeninnendrucks verantwortlich ist. Ein großer Teil der Dosisbelastung im Ziliarkörper entsteht durch den Halbschatten des Protonenfeldes. Eine deutliche Reduzierung des Halbschattens würde zu einer Dosisreduzierung am Ziliarkörper führen. Ein entsprechendes Verfahren, bei dem eine zweite kleinere Blende direkt vor dem Auge den Halbschatten reduziert, wird im Folgenden vorgestellt. Material und Methode: Das untersuchte Doppelblendensystem besteht aus zwei Rundblenden. Die erste Blende befindet sich am Ende des Strahlrohrs, wo gewöhnlich der individuelle Patientenkollimator positioniert ist. Der Abstand der Oberflächen von Kollimator zum Auge des Patienten bzw. zum Phantom beträgt 70 mm. Die verwendete Primärblende ist aus Messing gefertigt, hat eine Dicke von 8mm, einen Durchmesser von 44mm und eine Blendenöffnung von 18mm im Durchmesser. Auf Stiften wird eine zweite Messingblende, 8mm dick und 30mm im Durchmesser mit einer runden Blendenöffnung von 14mm. Sie ist in einem Abstand von 15mm vor der Phantomoberfläche positioniert. Als Phantom wurden Plexiglasplatten unterschiedlicher Dicke verwendet. Hinter dem Phantommaterial wurde die Dosisverteilung mit einem hochauflösendem Szintillatorfolien/CCD-Kamera-System zweidimensional gemessen. Für einen ausgedehnten Bragg-Peak mit 7,0mm Reichweite und 7,0mm Modulation, also den Bestrahlungsparametern zur Bestrahlung eines diffusen Irismelanoms, wurden Querprofile an der Phantomoberfläche und in 3,4mm wasseräquivalenter Tiefe durchgeführt, einmal mit der Primärblende allein, wie bei der Irisbestrahlung als Vergleich, sowie mit der zweiten konzentrischen Blende dicht vor dem Phantom. Aus den Messungen wurde der Halbschatten bestimmt. Ergebnisse: Der Halbschatten (90%-10%) beträgt bei der alleinigen Verwendung des Primärkollimators 3,1mm, beim Einsatz des Doppelstreusystems 0,6mm. Zugleich wird die Homogenität des Strahlenfeldes um 5% verbessert. Eine unsaubere Zentrierung der Blenden zum Protonenstrahl führte bei uns zu einer Verschlechterung der Symmetrie des Feldes um bis zu 3%. Schlussfolgerung: Die Messungen zeigen, dass durch die Verwendung eines Doppelblendensystems der Halbschatten massiv reduziert werden kann. Die Reduktion des Halbschattens ergibt sich aus dem nahezu identischen Abstand vom virtuellen Fokus zur Blende bzw. zur Augenoberfläche. Die sekundäre Blende ließe sich bei der Bestrahlung eines diffusen Iristumors korrekt positionieren. Für den klinischen Einsatz muss die Justierung bzw. Zentrierung der sekundären Blende noch verbessert werden. Eine entsprechend verbesserte Blende ist zurzeit in Arbeit. Strahlcharakteristik neue Methoden der Echtzeit-Monitorierung und Bestimmung der Absolutdosis erforderlich. Im Beitrag wird der aktuelle Stand der Entwicklung der Laser basierten Protonentherapie erläutert, Ergebnisse von systematischen strahlenbiologischen Zellbestrahlungen mit Laser beschleunigten Protonen präsentiert und die dafür benutzte Dosimetrie vorgestellt. Methode: Die Untersuchung der strahlenbiologischen Wirksamkeit Laser beschleunigter Protonen erfolgte am DRACO Lasersystem des HZDR. Die Laserleistung von 150 TW ermöglichte, durch Fokussierung der intensiven Laserlichtpulse auf eine 2 μm dickes Ti-Folientarget, die Beschleunigung von Protonen bis zu einer Energie von 20 MeV bei einer Pulswiederholfrequenz von etwa 0,2 Hz (siehe Abbildung) [1]. Für die Zellbestrahlungen war es notwendig nach dem Folientarget einen Energiefilter, sowie das integrierte Dosimetrieund Zellbestrahlungssystem (IDOCIS) zu entwickeln und einzubauen [2]. Das IDOCIS ermöglichte neben der Positionierung der zur bestrahlenden Zellkultur eine präzise Echtzeit-Monitorierung und Bestimmung der absolut applizierten Dosis. Für die Bestimmung der Absolutdosis wurden radiochromische Filme (RCF) und ein Faraday-Cup eingesetzt. Die Echtzeit-Monitorierung aller Bestrahlungen erfolgte mit einer dedizierten Transmissions-Ionisationskammer, die mit Hilfe der radiochromischen Filme und dem Faraday-Cup kalibriert wurde. Des Weiteren kamen im IDOCIS zur Messung des Energiespektrums Szintillatoren sowie Stapel von radiochromischen Filmen und Festkörperspurdetektoren (CR39) zum Einsatz. Die biologische Wirkung Laser beschleunigter Protonen wurde in vitro für die Tumor-Zelllinie SKX bestimmt, wozu Dosis-Effekt-Kurven für das klonogene Zellüberleben und die residuellen DNA-Doppelstrangbrüche 24 h nach Bestrahlung gemessen wurden. Als Referenz fanden Zellbestrahlungen an einem Tandembeschleuniger mit kontinuierlichem Protonenstrahl statt. Die den Zellen applizierten Strahlendosen lagen im Bereich von 0,3 bis 4 Gy. Ergebnisse: Die Energie der Laser beschleunigten Protonen am Ort der Zellbestrahlung lag im Bereich von 5-15 MeV. Aufgrund der Flugzeitunterschiede wurde eine Pulsdauer von ca. 1 ns erreicht. Die mittlere Pulsdosis betrug 80 mGy und die mittlere Dosisleistung lag bei 0,5 Gy/min. Durch die präzise Dosimetrie und die Echtzeit-Monitorierung konnte, trotz laserbedingter Fluktuation des Teilchenflusses und des Energiespektrums, eine genaue Dosisapplikation auf die zu bestrahlenden Zellkulturen ermöglicht werden. Die gemessenen DosisEffekt-Kurven zeigen keine signifikant veränderte radiobiologische Wirkung auf die Zellen zwischen Laser und konventionell beschleunigten Protonenstrahlen. Schlussfolgerung: Die erfolgreich durchgeführte systematische Zellbestrahlung mit exakter Dosimetrie ist ein wichtiger Schritt auf dem Weg der Entwicklung einer Laser basierten Protonentherapieanlage. Weitergehende Untersuchungen zur radiobiologischen Wirksamkeit müssen am Tiermodell folgen. Für die klinische Anwendung der Laser Beschleuniger ist eine technologische Weiterentwicklung vor allem im Hinblick auf die Erhöhung der Protonenenergie und Stabilität notwendig. Diese Arbeit wurde durch das BMBF gefördert (03ZIK445). Literatur: [1] S.D. Kraft, et al.: New J. Phys. 12 (2010) 085003. [2] C. Richter, et al.: Phys. Med. Biol. 56 (2011) 1529-1543. Bild: Experimentaufbau am Lasersystem DRACO mit Energiefilter und integriertem Dosimetrie- und Zellbestrahlungssystem (IDOCIS). P08.14 Dosimetrie und biologische Wirksamkeit Laser beschleunigter Protonen 1,2 1,2 3 3 M. Schürer , M. Baumann , E. Beyreuther , T. Burris-Mog , Y. 1 1,3 1 3 1 Dammene , W. Enghardt , L. Karsch , S. Kraft , F. Kroll , L. 1 3 3 1 1 Laschinsky , E. Lessmann , J. Metzkes , D. Naumburger , M. Oppelt , 1,3 3 3 3 1,3 C. Richter , U. Schramm , M. Sobiella , K. Zeil , J. Pawelke ; 1 OncoRay - National Center for Radiation Research in Oncology, 2 Technische Universität, Dresden, Germany, Universitätsklinikum Carl 3 Gustav Carus, Dresden, Germany, Helmholtz-Zentrum Dresden Rossendorf (HZDR), Dresden, Germany. Hintergrund: Die neuartige Technologie der Protonenbeschleunigung mit Hochintensitätslasern verspricht kompakte und effiziente Anlagen für die Protonentherapie. Gegenüber einem konventionellen Protonenbeschleuniger hat die Laser beschleunigte Teilchenstrahlung kürzere Pulslängen von wenigen ps und eine wesentlich geringere Pulswiederholfrequenz von einigen Hz. Deswegen muss, um eine gleiche Bestrahlungsdauer zu gewährleisten, die Pulsdosisleistung um 10 höher sein. Diese neuartigen einen Faktor von etwa 10 Strahlparameter könnten zu einer veränderten biologischen Wirkung der Strahlung führen. Darüber hinaus sind durch diese andere P08.15 Test of different pixel detectors for laser-driven accelerated particle beams 1 1 2 2 S. Reinhardt , W. Assmann , C. Granja , F. Krejci ; 1 Fakultät für Physik, Ludwig-Maximilians Universität München, Garching, 2 Germany, Institute of Experimental and Applied Physics, Czech Technical University in Prague, Prag, Czech Republic. One of the main goals of the Munich-Centre for Advanced Photonics (MAP) is the use of laser driven accelerated (LDA) particle beams for radiation therapy. Due to the unique acceleration process LDA particle beams have very 111 special properties. In particular they are created in ultra-short bunches of 9 2 high intensity with typically more than 10 particles/cm /ns, making online characterization of these beams an ambitious task. State of the art in LDA particle detection are especially non-electronic detectors like radiochromic films, imaging plates or nuclear track detectors positioned behind a Thomson spectrometer. They give only offline information about the particle pulse position and intensity as they require minutes to hours to be processed. This calls for a new highly sensitive online device for an application in radiation therapy where quantitative real time monitoring of the beam is an essential prerequisite. Therefore, we are using pixel detectors for real time detection of LDA ion pulses. As each pixel represents a small detector unit in itself, only a small fraction of the whole beam will be detected by it and so problems due to detector saturation might be overcome by this new approach. Due to excellent spatial resolution of pixel detectors additional information about the spatial fluence distribution is obtained. First tests of different types of pixel detectors have been performed at the Munich 14 MV Tandem accelerator in an 8-20 MeV proton beam in dc and pulsed irradiation mode, the latter simulating LDA-like ns ion pulses. Additional tests have been done at therapeutically relevant energies of up to 200 MeV. For detection tests we chose the positionsensitive quantum-counting semiconductor pixel detector Timepix which also provides per-pixel energy- or time-sensitivity. Additionally other types of commercially available pixel detectors are being evaluated such TM as the RadEye 1, a large area (25 x 50 mm²) CMOS image sensor based on a photodiode array in a matrix of 512 x 1024 pixels with 48 µm pixel pitch. All of these devices are able to resolve individual particles of the beam with high spatial and energy-resolution down to the level of µm and tens of keV, respectively. Nevertheless, in case of the commercially available systems which are optimized for optical detection, energy resolution is limited due to the fact that energy loss and energy loss straggling are of the same order of magnitude. Various beam parameters of the accelerator were thus evaluated and verified showing that pixel detectors are promising candidates for monitoring the spatial dose distribution for future application of LDA beams in radiation therapy. The different readout modes of the Timepix detector which is operated with an integrated readout interface allow online visualization of single and time-integrated events. Therefore Timepix offers the greatest potential in analyzing the beam parameters. This work is carried out in the frame of the Medipix Collaboration and the DFG funded cluster of excellence Munich Centre for Advanced Photonics (MAP). P08.16 Optimizing the experimental components required in a laseraccelerated particle cell irradiation 1 2,3 2 3 2 3 N. Humble , K. Allinger , J. Bin , P. Hilz , D. Kiefer , W. Ma , S. 3 1 1 2 1 Reinhardt , T. Schmidt , O. Zlobinskaya , J. Schreiber , J. J. Wilkens ; 1 Dept Radiation Oncology, Klinikum Rechts der Isar der Technischen 2 Universität München, München, Germany, Max-Planck-Institut für 3 Quantenoptik, München, Germany, Ludwig-Maximilians-Universität, München, Germany. Developments in laser-accelerated heavy-ion technologies offer much potential in radiation therapeutic applications. Before these can be realised however, preclinical cell irradiation studies must first be carried out in order to compare the biological effects of laser-accelerated particles against those established characteristics of particles beams already used in the clinic. The nature of laser-accelerated particle production already alludes to difficulties in establishing the necessary conditions for radiation therapy. A non-monoenergetic energy spectrum, insufficient beam energy and a pulsed rather than continuous beam are but some of the issues addressed here. Therefore preliminary in-vitro cell irradiations are carried out with the ATLAS Ti-Sapphire laser at the Max Planck Institute of Quantum Optics using a 1 J beam in 45 fs at 10 Hz. Here we describe the methods employed in order to meet the conditions required for a laser-accelerated proton cell irradiation with beam energies between 5 and 10 MeV. Although the beam is produced over a broad energy spectrum, to an extent, this can be accounted for using two permanent quadrupole magnets. Simulations predict a narrow energy spectrum resulting in the beam energy being collimated to ±100 keV. The quadrupoles have already been tested using a proton beam at a conventional tandem accelerator in Munich and have also demonstrated focusing and an improvement in intensity of nearly an order of magnitude greater than the diverging beam used without the quadrupoles. A dipole magnet later determines the energy of the beam after which the appropriate design of an exit window prior to the cell container is necessary to account for beam production being under vacuum conditions. Once the beam passes through the cell holder, allowing the cells to be in a single layer, perpendicular to the beam axis, radiochromic film is employed as a means of dosimetry directly behind the cells. 112 The films are used here so as to offer absolute dosimetry and spatial information on the beam profile with sub-mm resolution to allow for localisation of the dose distribution and subsequent cell damage. Cell damage is analysed using the gamma-H2AX assay. A foreseeable difficulty in the set-up includes accounting for a low fluence affecting the minimum determinable dose visible upon the radiochromic films. The dose however is delivered in one shot thus minimising uncertainties regarding dose delivery inhomogeneities. Despite the obvious limitations in such an experiment, we present here the physical problems needed to be addressed in a laser-accelerated heavy ion cell irradiation with some possible solutions. These initial experiments are a biological pre-cursor necessary before clinical applications can start to be considered. Supported by DFG Cluster of Excellence: Munich-Centre for Advanced Photonics. P08.17 Radiobiology of Antiprotons - Studying the Potential of Antiprotons for Cancer Therapy 1,2 3 4 5 M. H. Holzscheiter , J. Alsner , N. Bassler , F. Currell , J. N. 5 5 3 2 Kavanaugh , G. Schettino , B. Singers Sørensen , S. Sellner , T. 2 2 Straße , S. Tegami ; 1 Department of Physics & Astronomy, University of New Mexico, 2 Albuquerque, United States, Max Planck Institut für Kernphysik, 3 Heidelberg, Germany, University Hospital Aarhus, Aarhus, Denmark, 4 Department of Physics and Astronomy, University of Aarhus, Aarhus, 5 Denmark, Centre for Cancer Research and Cell Biology, Queen’s University, Belfast, United Kingdom. The use of heavy charged particles for therapeutic purposes is expected to provide a significant improvement of the therapeutic window compared to standard x-ray therapy. This is due to the improved energy deposition profile, exhibiting a well-defined peak (Bragg peak) at a depth in the target controllable by the initial energy of the particles. In addition, ions heavier than protons exhibit an increased biological efficiency compared to x-rays. Compared to protons and heavier ions, antiprotons deposit additional energy at the end of their range due to the annihilation events. This energy is deposited partially due to low energy fragments and recoil ions, which results in an expected additional enhancement of the relative biological efficiency (RBE) in the Bragg peak. The relative magnitude of the energy deposition in the Bragg peak of antiprotons compared to protons of the same penetration depth was measured to be a factor of two by Sullivan at LEAR/CERN in 1985, but no study of the biological effects had been conducted prior to the AD-4/ACE experiment start-up at CERN a few years ago. Here we use 126 MeV antiprotons extracted from the AD in pulses of 3 x 107 particles with 500 ns width and 90 second spacing to irradiate biological cell samples. Using V79 Chinese Hamster cells embedded in gelatin we have measured clonogenic cell survival vs. depth for antiprotons and compared them to results obtained with protons and carbon ions. Monte Carlo calculations using FLUKA were benchmarked against measurements using ionization chambers and Alanine pellets. Shot-to-shot beam profile monitoring with a silicon pixel detector enables us to establish a physical dose profile along the beam axis, which can be used to extract a value for the RBE of antiprotons. Using these results we can generate comparative dose plans for protons, antiprotons, and carbon ions that can be used to identify possible scenarios where antiprotons could provide a clinical advantage. In separate experiments we have studied DNA damage and formation of micronuclei in human cells outside the primary radiation field to assess possible effects of the low background radiation due to the medium- and high-energy secondary products from antiproton annihilation events. Furthermore we have demonstrated the feasibility of real-time imaging of the stopping distribution of antiprotons in the target through observation of the pions and gammas created during annihilation. We will present the experimental set-up, the current status of the measurements, and future plans of this project. Poster 09: Dosimetrie und Qualitätssicherung in der Strahlentherapie P09.01 Korrektion des Volumeneffektes von Ionisationskammern in der Photonendosimetrie 1 2 2 2 D. Harder , H. Looe , T. N. Stelljes , B. Poppe ; 1 2 Georg August Universität, Göttingen, Germany, Pius-Hospital und Carl von Ossietzky Universität, Oldenburg, Germany. In der modernen Strahlentherapie werden so kleine Feldgrößen verwendet, dass der "Volumeneffekt" einer Ionisationskammer, die bauartbedingte gewichtete Mittelung über die vorliegende örtliche Dosisverteilung aufgrund des endlichen Messvolumens der Kammer, oft nicht mehr vernachlässigt werden kann. In einem Beitrag zu dieser Tagung [1] wurde der Volumeneffekt als Faltung der wahren örtlichen Dosisverteilung mit einer ortsabhängigen, gaußförmigen Ansprechfunktion der Ionisationskammer beschrieben. Als Korrektion kommen numerische Entfaltungsverfahren in Frage. Im folgenden wird gezeigt, wie auch einzelne Messwerte, z.B. in Feldmitte gemessene Outputfaktoren, korrigiert werden können. Zur Ableitung eines Korrektionsfators kV für den Volumeneffekt einer Ionisationskammer stellt man das mit einem punktförmigen Detektor (Index p) erhaltene Messwertprofil Mp(x) durch ein Polynom 6. Grades dar, wobei die Glockenform (a1 = 0, a3 = 0, a5 = 0) berücksichtigt ist: 4 6 Mp(x) = a0 + a2 x² + a4 x + a6 x (1) Dann beträgt das mit der Ansprechfunktion der wirklichen Ionisationskammer, einer normierten eindimensionalen Gaußverteilung mit der Standardabweichung σ, an der Stelle x berechnete gewichtete Mittel (Index m): 4 6 2 4 Mm(x) = Mp(x) + (a2 σ² + 3 a4 σ + 15 a6 σ ) + (6 a4 σ + 45 a6 σ ) x² + 15 2 4 a6 σ x (2) Daraus folgt der Korrektionsfaktor für den Volumeneffekt am Punkt x = 0: 4 6 -1 kV = Mp(0)/Mm(0) = [1 + (a2 σ² + 3 a4 σ + 15 a6 σ ) / a0] (3) In einem Maximum von Mm(x) ist stets a2 < 0 und daher kV > 1. Bei der Ableitung von Gl. (2) ist angenommen, dass Gl. (1) für ein Intervall von x gilt, das gleich oder größer als + 3σ ist, so dass die Integration näherungsweise von - ∞ bis + ∞ erstreckt werden darf. Das erreicht man dadurch, dass man aus der Menge der Abtastpunkte eine Untermenge so auswählt, dass die Kurvenanpassung über einen Bereich der Breite + 3σ erfolgt. Bei dieser Formulierung des Korrektionsfaktors kV ist vorausgesetzt, dass der Verlauf des mit einem praktisch punktförmigen Detektor, z.B. einer Si-Diode, messbaren, wahren Profils Mp(x) bekannt ist. Eine Formulierung des Korrektionsfaktors kV für den Fall, dass nur der Verlauf der durch den Volumeneffekt gestörten Funktion Mm(x) bekannt ist, erhält man durch Anpassung eines Polynoms 6. Grades an Mm(x): Mm(x) 4 6 = b0 + b2 x² + b4 x + b6 x (4) Mittels Gleichsetzen von Gl. (4) und (2) und Koeffizientenvergleich erhält 4 6 Gl. (3) die Form kV = Mp(0)/Mm(0) = [1 + (b2 σ² - 3 b4 σ + 15 b6 σ ) / (b0 4 6 -1 b2 σ² + 3 b4 σ - 15 b6 σ )] (5) Wie Gl. (3) und (5) zeigen, ist es für ihre praktische Anwendung ausreichend, wenn die Quotienten a2/a0, a4/a0, a6/a0, b2/b0, b4/b0 und b6/b0 bekannt sind. Es reicht daher aus, wenn es sich bei den Messwertprofilen Gl. (1) und (4) um Relativwerte handelt. Diese neue Methode wird in diesem Tagungsbeitrag auch für zwei Dimensionen dargestellt und auf Beispiele angewandt. [1] T Stelljes et al, Beschreibung der Halbschattenverbreiterung durch das endliche Volumen von Ionisationskammern mit Hilfe von Gaußschen Faltungskernen. Dreiländertagung Med. Physik 2011. P09.02 Berechnung des Strahlungsqualitäts-Korrektionsfaktors kQ für Flachkammern in klinischen Elektronenfeldern unter Referenzbedingungen 1,2 Darin bedeutet Dw die Wasser-Energiedosis im Referenzpunkt, Ddet die über das aktive Volumen der Kammer gemittelte Energiedosis des Detektors am Messort. Q bezeichnet die Strahlungsqualität der Elektronenstrahlung die als Halbwertschichtdicke R50 angegeben wird. Gemäß Hohlraumtheorie kann kQ auf das Verhältnis der Stoßbremsvermögen sw,a und die kammerabhängigen Störungsfaktoren p zurückgeführt werden: 1,3 K. Zink , J. Wulff ; Technische Hochschule Mittelhessen, Institut für Medizinische Physik 2 und Strahlenschutz, Giessen, Germany, Universitätsklinikum Gießen3 Marburg, Klinik für Strahlentherapie, Marburg, Germany, Helios-Kliniken Krefeld, Klinik für Strahlentherapie, Krefeld, Germany. 1 Einleitung: Das deutsche Dosimetrieprotokoll DIN 6800-2 empfiehlt für die Referenzdosimetrie in klinischen Elektronenfeldern den Einsatz von kalibrierten Flachkammern. Das gegenüber der Referenzstrahlungsqualität Co-60 veränderte Ansprechvermögen der Ionisationskammern wird durch den Korrektionsfaktor kQ berücksichtigt (kE in der Nomenklatur von DIN), der sich per Definition wie folgt ergibt: Darin bezeichnet pwall den Wandstörungsfaktor und pcav den Fluenzstörungsfaktor. Typischerweise wird der Korrektionsfaktor kQ in den von der Bauart der Kammer unabhängigen Teil k’Q (Verhältnis der Stoßbremsvermögen sw,a) sowie den von der Bauart der Kammer abhängigen Teil k‘‘Q (Verhältnis der Störungsfaktoren p) aufgeteilt. Gemäß DIN 6800-2 gilt für den Wandstörungsfaktor pwall in klinischen Elektronenfeldern pwall = 1, das gleiche gilt für den Fluenzstörungsfaktor pcav wenn es sich um eine Flachkammer mit ausreichender Guardringbreite handelt. Für diesen Kammertyp resultiert damit ein Korrektionsfaktor k‘‘Q, der von der Elektronenenergie unabhängig ist: Bei nicht ausreichender Guardringbreite (z.B. Markuskammer) ist zusätzlich der von der Elektronenenergie abhängige Störungsfaktor (pcav)Q zu berücksichtigen, der das Hereinstreuen von Elektronen in das aktive Kammervolumen insbesondere bei niedrigen Elektronenenergie korrigiert: Material und Methode: Es wurden die Korrektionsfaktoren kQ und k‘‘Q entsprechend Gleichung (1) und (2) sowie die Störungsfaktoren pwall und pcav für vier Typen von Flachkammern (Roos, Advanced Markus, Markus und NACP Kammer) mit Hilfe des Monte Carlo Codes EGSnrc [2] für den gesamten Bereich klinischer Elektronenenergien berechnet (5 - 21 MeV). Die Kammergeometrien wurden entsprechend der Herstellerangaben (Fa. PTW) bzw. für die NACP Kammer nach Literaturangaben erstellt. Die Simulationen erfolgten jeweils unter den in DIN 6800-2 angegebenen Referenzbedingungen in einem 3 Wasserphantom der Größe 30x30x30 cm . In vorhergehenden Simulationen ist der Einfluss geringfügiger Variationen der Kammergeometrie, wie sie möglicherweise durch den Produktionsprozess verursacht werden könnten, untersucht worden. Abbildung 1: Bauartabhängiger Korrektionsfaktor k‘‘Q gemäß Gleichung (2) als Funktion des Strahlungsqualitätsindex R50 klinischer Elektronenstrahlung unter Referenzbedingungen für vier Typen von Flachkammern. Die durchgezogenen und gestrichelten Linien geben den Korrektionsfaktor nach DIN 6800-2 und IAEA TRS-398 wieder. Für die NACP Kammer sind zwei unterschiedliche Kammergeometrien simuliert worden, die sich im Wesentlichen durch die Dicke des Eintrittsfensters unterscheiden (NACP-IAEA, NACP-Chin [3, 4]). Ergebnisse und Diskussion: Wesentliches Ergebnis der vorliegenden Studie sind die in Abbildung 1 wieder gegebenen bauartabhängigen Korrektionsfaktoren k‘‘Q für die vier untersuchten Flachkammertypen. Für die Kammern mit ausreichend breitem Guardring (Roos, Advanced Markus, NACP) ergibt sich im Gegensatz zu DIN 6800-2 eine signifikante Abhängigkeit des Korrektionsfaktors mit der Elektronenenergie. Die Abweichungen gegenüber den in DIN 6800-2 angegebenen Korrektionsfaktoren betragen zwischen 0.8 und 1.5%. Dagegen zeigt die Markuskammer einen nahezu von der Die Elektronenenergie unabhängigen Korrektionsfaktor k‘‘Q. Abweichungen gegenüber den nach DIN empfohlenen Werten beträgt 113 für diese Kammer bis zu rund 3%. Zur weiteren Klärung des gezeigten Anspechvermögens sind die Störungsfaktoren pwall und pcav der Kammern berechnet worden, die in dem Beitrag diskutiert werden. P09.04 Bestimmung des Ansprechvermögens von Alanin in MVXBestrahlungsfeldern - Ein Vergleich zwischen FLUKA und EGSnrc P. von Voigts-Rhetz, M. Kunz, K. Zink; Instituts für Medizinische Physik und Strahlenschutz, Gießen, Germany. P09.03 Dosimetrie von Photonen-Strahlenfeldern im Subzentimeterbereich 1 2 2 K. Dörner , B. Poppe , H. Haak ; 2 Abt. Strahlentherapie AKH Celle, Celle, Germany, Carl-von-Ossietzky Universität, Oldenburg, Germany. 1 Einleitung: Ziel dieser Arbeit ist es, für die Strahlentherapie von Zielvolumen mit Abmessungen von unter einem Kubikzentimeter, Kollimatoren herzustellen und dosimetrisch zu vermessen. Besonderes Augenmerk wird dabei auf das Ortsauflösungsvermögen der Detektoren gelenkt. Material und Methoden: Für den Linearbeschleuniger "PRIMUS" der Firma Siemens werden aus Blei-Legierung verschiedene Kollimatoren gegossen und für die Verwendung im Satellitenträger-Einschub montiert. Aus dem gleichen Material wird für das Brachytherapiegerät "µSelectron" der Firma Theranostik / Nukletron ein Zylinder mit zentralen, sternförmig auf einen Zielpunkt ausgerichteten Bohrungen gefertigt. Die so erzeugten Strahlenfelder werden mit Hilfe verschiedener Messmethoden erfasst und ausgewertet: Untersucht werden luftgefüllte Ionisationskammern verschiedener Abmessungen, Dioden, eine flüssigkeitsgefüllte Ionisationskammer, Röntgenfilme, Gafchromik-Filme und ein selbst hergestelltes MRDosimetriegel Zur Überprüfung der Tauglichkeit der Detektoren für diese Messaufgabe werden Kantenprofile im Strahlenfeld gefahren: Die Kante einer Wolframplatte mit den Abmessungen 10 cm x 10 cm x 1 cm wird mit Hilfe vom Lichtvisier auf der Satellitenträgerplatte entlang der FeldHauptachsen ausgerichtet. Bei einem Fokus-Oberflächenabstand von 100 cm werden im Wasserphantom in verschiedenen Tiefen Querprofile der Dosisverteilung eines 20 cm x 20 cm Strahlenfeldes mit den Detektoren aufgenommen. In analoger Weise werden Filme und MRGelproben mit der Stufen-Dosisverteilung an der Kante belichtet. Die gewonnenen Kurven der Kantenstreufunktion werden differenziert und die so entstandenen Linienstreufunktionen werden ausgewertet: Es werden Gauss- und Lorenzkurven angepasst. Zur Erstellung von Bestrahlungsplanungstabellen werden Tiefendosiskurven und Querprofile für Kollimatoren mit den HalbwertsFeldbreiten von 2 mm bis 20 mm aufgenommen. Für die MR-Gel-Dosimetrie wird Gel in Probenfläschchen bestrahlt und gleichzeitig mit Referenzproben ausgewertet. Diese Vergleichsproben sind zeitnah homogen mit bekannten Dosen von 0,00 Gy, 1,00 Gy, 2,00 Gy und 4,00 Gy bestrahlte Fläschchen mit dem gleichen Gel aus derselben Produktions-Charge. Durch die gleichzeitige MR-Auswertung können Einflüsse auf das Ergebnis durch unterschiedliche Produktions-, Lagerungs-, Bestrahlungs- oder Auslesebedingungen vermieden werden. Ergbnis sind Bilder im DICOM-Format zu drei unterschiedlichen Repetitionszeiten (ca. 70 msec, 140 msec und 280 msec). Damit stehen für jeden Bildpunkt Intensitätswerte zu drei Zeitpunkten fest. Durch diese Werte wird mit einem selbst geschriebenen Programm für jeden Bildpunkt eine Exponentialfunktion gefittet. Die Werte der Exponenten jedes Bildpunktes werden verglichen mit den Werten in den Probefläschchen mit bekannter Dosis. Die Relation der ExponentenWerte ist ein Maß für die absorbierte Dosis. Ergebnisse: Gezeigt werden Querprofile und Tiefendosiskurven der erzeugten Strahlenfelder, wie sie mit den verschiedenen Detektoren aufgenommen werden. Klar ersichtlich ist eine vom Ortsauflösungsvermögen der Detektoren abhängige Verbreiterung der gemessenen Profile. Die aus den Kantenprofilen ermittelten Kurvenparameter der Linienstreufunktion, können als Maß für das Ortsauflösungsvermögen der Detektoren angesehen werden. Gezeigt werden die ermittelten Halbwertsbreiten der an die Linienstreufunktionen angepassten Glockenkurven im Vergleich zu den geometrischen Abmessungen der Detektoren. Da Gaussfunktionen die Ausläufer der Messkurven nicht perfekt abbilden, werden das System besser beschreibende Lorenzkurven gefittet und deren Parameter ebenfalls dargestellt. Diskussion: Es wird eine mit einfachen Mitteln realisierbare Methode zur Erzeugung von Strahlenbündeln mit Durchmessern im Millimeterbereich vorgestellt. Für die Dosimetrie eignen sich Detektoren mit an die Aufgabe angepassten Auflösungsvermögen, insbesonders die µLION von PTW, Gafchromik und MR-Gel. Zusätzlich zum Ortsauflösungsvermögen spielt die spektrale Empfindlichkeit der Detektoren eine Rolle. 114 Einleitung: Im Rahmen eines Benchmarks werden die Monte Carlo Codes EGSnrc und FLUKA für den Einsatz im Bereich dosimetrischer Fragestellungen untersucht. Hierzu wird das Ansprechvermögen als Funktion der Strahlungsqualität Q für Alanindetektoren mit beiden Monte Carlo Systemen untersucht und mit vorhandenen Daten verglichen. Material und Methoden: Das relative Ansprechvermögen von Alanin bei der Strahlungsqualität Q ist wie folgt definiert: Hierbei beschreibt DAla die Energiedosis im Alanin/Paraffin-Pellet und Dw die Energiedosis im Wasser. Die Indices Q bzw. Co beschreiben die verwendete Strahlungsqualität Q respektive die Strahlungsqualität der Referenzstrahlung Co-60. Die Bestimmung des Ansprechvermögens erfolgte unter den in DIN 6800-2 [4] definierten Bezugsbedingungen für Co-60 bzw. Referenzbedingungen für die Strahlungsqualitäten Q . Die hier verwendeten Strahlungsqualitäten sind in Tabelle 1 als TPR 20/10 angegeben. Die Simulationsgeometrie zur Berechnung von rrel der Alanindetektoren entspricht derjenigen von Anton et. al [3]. Die geometrischen Abmessungen der Alaninpellets sowie deren Zusammensetzung sind in Tabelle 2 angegeben. Spektrum 60Co 6 MV 18 MV Tabelle 1: Verwendete Strahlungsqualitäten Strahlungsqualitätsindex TPR 20/10 0.566 0.660 0.780 Die verwendeten Alaninpellets befinden sich in einer PMMA-Halterung, die eine Wandstärke von 1 mm besitzt. Das geometrische Zentrum der Pellets wird für Co-60 in die Bezugstiefe (5 cm) und für die Strahlungsqualitäten Q in die Referenztiefe (10 cm) im Wasserphantom (30x30x30 cm³) positioniert. Die Feldgröße beträgt bei allen Simulationen 10x10 cm² am Ort des Detektors. Tabelle 2: Spezifikation der verwendeten Alanin/Paraffin-Pellets nach Anton et al. [3] Durchmesser 4.85 mm Dicke 2.85 mm Verhältnis Alanin zu Paraffin 10/11 Alanin zu 1/11 Paraffin Effektive Dichte 1.22 g/cm³ Ergebnisse und Diskussion: Die mittels FLUKA errechneten relativen Ansprechvermögen stimmen im Rahmen der statistischen Unsicherheit (Erweiterungsfaktor k=2) sehr gut mit eigenen EGSnrc Ergebnissen überein. Im Vergleich zu publizierten Ergebnissen von Anton et al. [3] sowie von Zeng et al. [5] ist eine tendenzielle Erhöhung um 0.4-0.5 % zu beobachten. Es muss erwähnt werden, dass die Rechenzeiten von FLUKA diejenigen von EGSnrc ungefähr um Faktor vier übersteigen. Abbildung 1: Relatives Ansprechvermögen als Funktion der Strahlungsqualität angegeben als TPR 20/10. Die Fehlerbalken geben die statistischen Unsicherheiten (1σ). Literaturverzeichnis: [1] A. Ferrari et al. Fluka manual, program version 2008. [2] Dave W.O. Rogers and Iwan Kawrakow. The EGSnrc Code System: Monte Carlo Simulation of Electron and Photon Transport. NRC Report PIRS-701, 2007. [3] Anton et al. Response of the alanine/ESR dosimetry system to MV Xrays relative to (60)Co radiation. Phys. Med. Biol., 53(10):2753-2770, May 2008. [4] DIN 6800-2 Dosismessverfahren nach der Sondenmethode für Photonenund Elektronenstrahlung Teil 2: Dosimetrie hochenergetischer Photonenund Elektronenstrahlung mit Ionisationskammern, 2008. [5] G. G. Zeng et al. An experimental and Monte Carlo investigation of the energy dependence of alanine/EPR dosimetry: I. Clinical x-ray beams. Phys Med Biol, 49(2):257-270, Jan 2004. P09.05 Untersuchung der Energieabhängigkeit des Strahlqualitätskorrektionsfaktors kE von Thermolumineszenz- und Alanindosimetern in primärer Elektronenstrahlung P. von Voigts-Rhetz, K. Zink; Instituts für Medizinische Physik und Strahlenschutz, Gießen, Germany. Einleitung: Für die Thermolumineszenzdosimetrie (TLD) in Elektronenstrahlung wurde in der Vergangenheit eine Energieunabhängigkeit der eingesetzten Dosimeter aus experimentellen Arbeiten abgeleitet [1,2]. Neben diesen experimentellen Untersuchungen wurde auch aus Monte-Carlo Simulationen vergleichbarer Ergebnisse erzielt [3]. So wird auch in der aktuellenDIN Norm 6800-5 [4] ein nahezu konstanter Strahlqualitätskorrektionsfaktor kE als angegeben. Material und Methoden: Der Korrektionsfaktor des Ansprechvermögens kE in Elektronenfeldern für in Co-60 kalibrierte Detektoren ist wie folg definiert: kE=(DW/DTLD)E / (DW/DTLD)Co60 Darin bedeutet DW die Wasserenergiedosis, DTLD die Energiedosis im TLD-Material Lithiumfluorid. E beschreibt die Strahlungsqualität der Elektronenfelder, Co die Bezugsstrahlungsqualität. Im Rahmen der Monte Carlo Simulationen wurden drei TLD 100 Rods (1mm Durchmesser, 6mm Länge), bestehend aus Lithiumfluorid (LiF), in ein 30 x 30 x 30 m³ Wasserphantom eingebettet (siehe Abbildung 1). Die Rods befanden sich dabei in einer Halterung aus Polymethylmethacrylat (PMMA). Abbildung 1 Lage der Lif - Rods (grün) in der PMMA Halterung (rot) Die Monte-Carlo Simulationen wurden mit der Software EGSnrc mit egs_chamber [5] simuliert. Dies ermöglicht eine umfangreiche und flexible Gestaltung des geometrischen Aufbaus. Der Versuchsaufbau entspricht den Vorgaben von DIN 6800-5, d.h. die Bestrahlungsfeldgröße der klinischen Elektronenfelder beträgt 20 x 20 cm², diejenige bei der Bezugsstrahlungsqualität Co-60 10 x 10 cm².DerFokus - Oberflächen - Abstand beträgt in allen Fällen 100 cm. Die für die Referenzbedingungen verwendeten Elektronenspektren stammen von einem simulierten Varian Clinac 2100C Beschleuniger nach Ding et al. [6] und haben nominelle Energien von 6, 9, 12, 15 und 18 MeV. Die verwendeten Referenztiefen zref der Elektronenfelder sind der Tabelle 1 zu entnehmen. Tabelle 1 Strahlenqualität Q mit dazugehörender Referenztiefe zref Energie [MeV] zref [cm] R50 [g/cm²] 6 1,48 2,63 9 2,30 4,00 12 3,01 5,18 15 3,80 6,50 18 4,53 7,72 Die Simulationen für das Co-60 Photonenfeld erfolgten in der Bezugstiefe 5 cm. Ergebnisse und Diskussion: Der berechnete Korrektionsfaktor kE ist gemeinsam mit Literaturdaten in Abbildung 2 wieder gegeben. Es zeigte sich kein signifikanter Einfluss der Elektronenenergie auf das Ansprechvermögen. Im Rahmen der statistischen Unsicherheit stimmen die Ergebnisse sehr gut mit denjenigen von Mobit et al überein und sind im Mittel etwa 2% kleiner als die in DIN 6800-5 angegebenen Werte. Abbildung 2 kE von TLD 100 mit PMMA Halterung in Abhängigkeit der nominellen Elektronenenergie, Fehlerbalken entsprechen ein Sigma Unter identischen Simulationsbedingungen wurden Untersuchungen mittels eines Alanin/Paraffins-Pellets und einer Roos-Kammer durchgeführt. Das in Abbildung 3 wieder gegebene Verhältnis von Alanin zu Lithiumfluoriden stimmt mit den Ergebnissen von Feist [1] überein. Das Verhältnis der PTW - Rooskammer zu den TLD’s lässt auf eine Energieabhängigkeit des Ansprechvermögens der Rooskammer schließen, die in unabhängigen Monte Carlo Untersuchungenbereits von Zink und Wulff gezeigt worden ist [7]. Abbildung 3 Verhältnis des Ansprechvermögens zwischen Alanin/Roos Kammer und TLD's P09.06 Untersuchungen zur Reproduzierbarkeit der Messanzeige von klinischen Dosimetern für Photonen-und Elektronenstrahlung 1 2 3 1 1 R. Gerlach , M. Breithaupt , M. Schöne , S. Ensminger , M. Janich ; 1 Klinik und Poliklinik für Strahlentherapie, Martin-Luther-Universität 2 Halle-Wittenberg, Halle (S.), Germany, Deutsches 3 Krebsforschungszentrum (DKFZ), Heidelberg, Germany, Julius Wolf Institut & Berlin-Brandenburg School for Regenerative Therapies, Charite, Berlin, Germany. Einleitung/Zielstellung: Therapiedosimeter, die zur Bestimmung der Wasserenergiedosis verwendet werden, müssen bestimmte Qualitätskriterien erfüllen, um eine exakte dosimetrische Basis für die Strahlentherapie zu gewährleisten. Ein wesentlicher Qualitätsparameter für derartige Dosimeter stellt die Reproduzierbarkeit der Messanzeige M dar. Ein Therapiedosimeter besteht in der Regel aus der Kammereinheit (Ionisationskammer) und dem Anzeigegerät, welche beide die Messanzeige beeinflussen können. Entsprechend des LMKM [1] kann ein Anzeigegerät für mehrere Ionisationskammern verwendet werden, wenn beide Komponenten erfolgreich „messtechnisch kontrolliert“ (MTK) wurden. Dies bedeutet, dass eine beliebige Kombination aus MTKzertifizierten Anzeigegeräten und Ionisationskammern Messanzeigen liefern sollte, die innerhalb der vom Hersteller angegebenen Messunsicherheiten liegen. In der vorliegenden Arbeit wird für zwei Photonen- und drei Elektronenenergien die Messanzeige von Therapiedosimetern, bestehend aus unterschiedlichen Kombinationen von erfolgreich „messtechnisch kontrollierten“ Anzeigegeräten und Ionisationskammern, bei unterschiedlichen Bestrahlungsbedingungen 115 untersucht und mit der vom Hersteller angegebenen Messunsicherheit verglichen. Zusätzlich wurden die Messungen bei verschiedenen Strahlenfeldgrößen und unterschiedlichen Messtiefen durchgeführt. Methodik: Dosimeter - Die Untersuchungen erfolgten mit drei baugleichen Anzeigegeräten vom Typ UNIDOS, fünf 3 Ionisationskammern (Schlauchkammern, Messvolumen=0,125cm ) vom Typ TM31002 (2x) , M31002 (2x) und TM31010 (1x) für die Photonendosimetrie und drei Roos-Kammern (Flachkammern) vom Typ M34001 für die Elektronendosimetrie der Firma PTW Freiburg®, welche unterschiedlich kombiniert wurden. Die berechneten Mittelwerte, Standard-abweichungen und die relativen Abweichungen vom Mittelwert der Messanzeige resultieren aus jeweils 5 Einzelmessungen für die in Tabelle 1 angegebenen Bestrahlungsbedingungen. Messphantom/geometrische Bedingungen Die Messungen wurden in einem RW3 Platten-Phantom (Firma PTW Freiburg®) unter den in Tabelle 1 angegebene Strahlenfeldbedingungen durchgeführt. Ergebnisse/Diskussion: Alle Messunsicherheiten werden als relative erweiterte Messunsicherheit (rel. e. M.) angegeben. Sie errechnet sich aus dem Produkt der Typ-A-Messunsicherheit (Standardabweichung des Mittelwertes) und dem Erweiterungsfaktor k=2. Aus Voruntersuchungen zur Reproduzierbarkeit der Stabilität der Dosisabgabe der Linearbeschleuniger und des Messaufbaus resultiert eine rel. e. M. von 0,05%. Sie wird im Weiteren bei der Angabe der rel. e. M. vernachlässigt. Abbildung 1 zeigt beispielhaft die relativen Abweichungen der einzelnen für die unterschiedlichen Strahlenfeldgrößen bestimmten Messanzeigewerte ΔM(%) vom Mittelwert der Messanzeige aller 15 Dosimeterkombinationen für eine 15 MV Photonenstrahlung in 5cm RW3 -Tiefe. Für die in Abbildung 1 angegebenen Bestrahlungsbedingungen lässt sich eine rel. e. M. von ca. 0,3% berechnen. Die Auswertung aller Messungen liefert eine maximale rel. e. M. von etwa 0,5% bei der Photonen- und ca. 0,8% bei der Elektronendosimetrie. Die Werte der ermittelten, relativen erweiterten Messunsicherheit für die Messanzeige M sind somit geringer als der in der DIN6800-2 bzw. der vom Hersteller angegebene Wert von ca. 1%. Die Untersuchung aller Dosimeterkombinationen zeigt, dass die relativen Abweichungen des Anzeigewertes vom Mittelwert in keinem Fall ±1,5% überschreiten. Eine Energieabhängigkeit der Dosimeteranzeige konnte weder bei Photonen- noch Elektronenstrahlung nachgewiesen werden. Literatur: [1] Leitfaden zu messtechnischen Kontrollen von Medizinprodukten mit Messfunktion (LMKL) Teil 2 (Stand 30.04.2009) [2] DIN6800-2 (April, 2010) 116 P09.07 The clinical advantages of implementing an iterative deconvolution algorithm and adaptive action levels into the DAVID system 1 2 1 H. K. Looe , D. Harder , B. Poppe ; 1 Pius-Hospital und Carl von Ossietzky Universität, Oldenburg, Germany, 2 Medical Physics and Biophysics, Georg August University, Göttingen, Germany. The DAVID system (PTW-Freiburg, Germany), a multi-wire transmission-type ionization chamber mounted between the MLC and the patient, is the first transmission monitor with spatial resolution used for the independent in-vivo verification of IMRT deliveries. A onedimensional record of the lateral beam profile is permanently shown in the control room and compared with the reference profile stored during plan verification. The signal recorded by each wire is mainly owed to the secondary electrons originating from the front and back plates irradiated by photons that have passed through the leaf pair aperture associated with this wire but it is also subjected to blurring caused by transport of secondary electrons with an origin in other parts of the chamber. In order to correct for this blurring effect, an iterative deconvolution algorithm has been developed in order to obtain the true 1D photon fluence profile (Looe et al 2010). The lateral response function (LSF) of each measurement wire has been pre-acquired by irradiating the DAVID chamber with only the leaf pair associated with this wire opened. The deconvolution of the DAVID signal is performed online during patient irradiation. Figure 1 shows the increase of the error detection efficiency of the DAVID chamber due to this deconvolution. For given percent changes of the leaf opening (abscissa), the percent changes of the deconvolved fluence values (squares) are about twice the percent changes of the original signal values (circles). After the deconvolution, the constant of proportionality between the relative beam opening and the relative change of the deconvolved fluence value is almost equal to unity (full line). Thus the deconvolution of the DAVID signals enhances the error detection efficiency by a factor of two, and this algorithm has been implemented in the latest DAVID-software. Figure 1: The percentage changes of the fluence profiles (squares) and the signal profiles (circles) as a function of the percentage changes in nominal leaf opening for a 10 cm x 10 cm square field (closed symbols) and an IMRT segment (open symbols). In order to activate adaptive action levels for error-prone percent fluence values, the DICOM RT-plan file is imported into the DAVID software. Adaptive action levels are derived based on the opening of each MLC leaf pair and the tolerated absolute leaflet error. In a measurement channel where the corresponding MLC leaf pair opening is small, a given magnitude of leaflet error would induce a large percentage deviation in the fluence value, hence a higher action level can be defined and vice versa. For example, a 2 mm leaflet error will translate into 10% deviation in the fluence value for a 2 cm leaf aperture, but only into 2 % for a 10 cm wide leaf aperture. These leaf aperture dependent adaptive action levels are input to the DAVID-software. Thus, while the implemented iterative deconvolution of the DAVID signals increases the error detection efficiency, the adaptive action levels are focusing on errors that might have a relevant impact on the quality of the actual irradiation in comparison with the plan. P09.08 Qualitätssicherung an Linearbeschleunigern - Einsatz von Flächendetektoren zur Konstanzprüfung C. Heine, T. Koch; Praxis für Strahlentherapie und Radioonkologie, Sozialstiftung Bamberg - MVZ am Bruderwald, Bamberg, Germany. Einleitung: Für die maschinenbezogene Qualitätssicherung an Linearbeschleunigern kommen bei der Umsetzung der beiden bestehenden Normen DIN 6847-5 und DIN E 6875-4 in vielen Prüfpunkten Filme zum Einsatz. Mit Umsetzung des neuen DIN-Entwurfs für die IMRT werden mehr Filme benötigt als bisher. Dies erhöht einerseits die Anzahl benutzter Filme und damit die Verbrauchskosten, andererseits wird ein Mehrfaches an Arbeitszeit für die Belichtung und Auswertung benötigt. Deshalb ist es vorteilhaft die Qualitätssicherungsmaßnahmen, welche bisher auf Filmaufnahmen basierten durch Verfahren mit geeigneten Flächendetektoren zu ersetzen. Material und Methoden: Zur Durchführung standen neben dem bisher verwendeten Gafchromic-Film EBT2, die Electronic Portal Image Devices (EPID) der beiden Elekta-Synergy-Beschleuniger, das PTW7294 Array der Fa. PTW und das Delta der Fa. Scandidos zur Verfügung. Folgende Prüfpunkte wurden untersucht: Nach DIN 6847-5: LichtfeldStrahlenfeld, 4-Quadrantenaufnahme, IZ-Kugel. Nach DIN E 6875-4: Nennfeldgrösse-Strahlfeldgröße bei kleinen Feldern (zentral und ausgelenkt), Picket-Fence-Test, Striped-Image, MLCTransmission Am Beschleuniger wurden Feldsequenzen für alle o.g. Prüfpunkte Punkte angelegt. Für komplexe Feldsequenzen, wie z.B. Picket-Fence und kleine Feldgrössen, mit 5 mm zurückgezogener Back-up-Blende erfolgte das Anlegen der Felder im Bestrahlungsplanungssystem Pinnacle mit anschließendem Transfer an den Beschleuniger. Zunächst wurden alle Prüfpunkte mit EBT2-Filmen gemessen und ausgewertet. Anschließend erfolgten Vergleichsmessungen mit den gleichen Feldanordnungen am EPID und/oder dem PTW729-Array. Der 4 Picket-Fence-Test wurde zusätzlich am Delta durchgeführt. Für den Prüfpunkt Lichtfeld-Strahlenfeld mit dem EPID erfolgte die Markierung des Lichtfeldes mit kleinen Stahlkugeln. Durch eine geeignete Feldanordnung, lässt sich ein Gantrystern auf das PTW729Array belichten und auswerten. Ergebnisse: Lichtfeld-Strahlenfeld und Nennfeldgrösse vs. Strahlfeldgröße bei kleinen Feldern, 4-Quadranten-Aufnahme: Durch die Auflösung des EPID von 0,25 mm lassen sich die Filme hier problemlos ersetzen. Das PTW729 liefert aufgrund der Kammeranordnung im 10 mm Abstand bei kleinen Feldern zunächst schlechtere Ergebnisse. Durch die in der Software integrierte Merge-Funktion lassen sich diese jedoch verbessern, indem man mehrere Messungen im kleineren Abstand durchführt und anschließend zusammenfügt. Die Auswertung des Gantrysterns mit dem PTW729 liefert vergleichbare Ergebnisse wie mit dem Film. Auch für die Prüfpunkte Picket-Fence-Test und Striped-Image lassen sich die Ergebnisse des EPID mit denen des Filmes vergleichen, das PTW729 liefert für den Picket-Fence-Test trotz Merge Funktion schlechtere Ergebnisse. Die Beurteilung eines Striped-Images kann als ausreichend betrachtet werden. Zusammenfassung: Das EPID eignet sich in fast allen Punkten gut als Ersatz für die bisher verwendeten Filme. Die Auflösung ist ausreichend und die Prüfpunkte können in viel kürzerer Zeit durchgeführt und ausgewertet werden. Für den Prüfpunkt IZ-Kugel besteht beim EPID bisher nicht die Möglichkeit einen Gantrystern zu belichten und aus den überlagerten Bildern auf den Stern zurückzurechnen. Des Weiteren unterliegt das EPID bei unterschiedlichen Gantrywinkeln dem Schwerkrafteinfluss. Das PTW729 ist als Beschleunigerunabhängiges System ebenfalls gut geeignet die Filme zu ersetzen. Die Bestimmung der IZ-Kugel ist mit ausreichender Genauigkeit möglich. Es ist jedoch hinsichtlich seiner Auflösung nicht in allen Prüfpunkten als Filmersatz einsetzbar. Der Film als Flächendetektor lässt sich durch die genannten Systeme gut ersetzen. Damit können zum einen die Filmkosten auf ein Minimum reduziert werden und die Prüfpunkte können in viel kürzerer Zeit durchgeführt und ausgewertet werden. P09.09 Können alle Filmtests in der DIN 6847-5 durch ein 2D-Array und EPID ersetzt werden? K. Treitz, R. Bauer, A. Block; Institut für Medizinische Strahlenphysik, Klinikum, Dortmund, Germany. Zielsetzung: Die Eignung eines 2D Arrays für geometrische Kontrollen am Linac im Vergleich zu einem Film zu überprüfen. Alle Konstanzprüfungen nach DIN 6847-5, bei denen Filmaufnahmen ausgewertet werden sollen, durch Messungen mit 2D-Array zu ersetzen. Methodik: a) Die Vorgaben der DIN 6847-5 wurden in ihrer Zielsetzung auf Messungen mit dem 2D-Array MapCheck 2 (Fa. Sunnuclear), der für einige Tests mit dem Hochpräzisionsmesstisch MotionSim (Fa. Sunnuclear) betrieben wurde, umgestellt. Für die Kontrolle Lichtfeld-Strahlfeld wird digital die Feldgröße eingestellt, die Detektorebene in die Isozentrums (IZ)-Ebene gebracht und die Kontrolle der Lichtanzeige auf dem Array nach dem Strahlensatz vorgenommen. b) Auch für die Tests zur numerischen Anzeige der Feldgröße und Anzeige des Strahlenfeldes bzw. Zentralstrahls (8.1.1, 8.1.2, 8.1.3, 9.1, 9.2) wird die Diodenebene in die IZ-Ebene gebracht und die korrigierte Feldgröße 6 cm x 8 cm auf der Array-Oberfläche mit einer Schablone eingestellt. Die Feldgröße wird digital je einmal von größerer und kleinerer Feldgröße kommend digital eingestellt und je eine Exposition vorgenommen. c) Kontrolle des IZ durch die Raumlaser erfolgt über eine zweite Positionierung des 2D-Array. Verschiebung des Fadenkreuzes des 2DArray durch Verschieben des Tisches zur Deckungsgleichheit mit dem Laserfadenkreuz. Feldgrößeneinstellung und Exposition wie unter b). d) Zur Überprüfung der Anzeige des Strahlenfeldes bei ferngesteuerten MLC (8.1.1, 8.1.2) wird die Detektorebene wieder in IZ-Ebene gebracht und digital ein 20 cm x 20 cm Feld eingestellt und exponiert. Vergleich zweier exponierter irregulärer Lamellenfelder mit Bezugsaufnahmen. e) Zum Test der Positioniergenauigkeit bei asymmetrischer Einstellung der Betriebsblenden wird ein 20 cm x 20 cm Feld aus 4 asymmetrischen eingestellten und einzeln exponierten 10 cm x 10 cm Feldern zusammengesetzt. Ergebnis: Verschiebungen des 2D Arrays mit dem Hochpräzisionsmesstisch um 0,1 mm zeigten an den Feldrändern eine signifikante Dosisänderung, so dass zwar nicht die physikalische Ortsauflösung des Films erreicht wird, aber in der praktischen Durchführung die Genauigkeit des Films übertroffen wurde. a) Da die Feldkanten auf einer Detektorzeile liegen, ist die Strahlfeldgröße bei 50% der Dosisausbeute im Zentralstrahl getroffen. b) Der Lichtfeldvergleich wird anhand der Schablone, der Strahlfeldvergleich durch Subtraktion der beiden Expositionen vorgenommen. c) Durch die digitale Anzeige der Tischposition kann eine Abweichung des Lichtfeldfaden- und des Laserkreuzes in mm-Genauigkeit angegeben werden. d) Eine Halbschattenbreitenbestimmung ist mit dem 2D-Array aufgrund beschränkter Ortsauflösung nicht mit hinreichender Genauigkeit zu erreichen, kann aber durch eine Anschlussmessung an das EPID erreicht werden. Bei Feldern, die die aktive Messfläche des MC 2 (32 cm x 26 cm) überstrahlen, muss der SSD verringert werden. e) Die Auswertung geschieht durch die Auslesung der Detektoren der Mittelachse, deren rel. Wert 80 - 100% der Zentraldosis eines Quadranten sein sollte. Bei Abweichungen muss der MLC neu kalibriert werden. Die Bestimmung des Durchmessers (10.1) der IZ-Kugel ist nur mit dem EPID möglich. Schlussfolgerung: Bei den DIN 6847-5 Prüfungen lassen sich Filme durch den 2D-Array MC2 ersetzen, die Auswertung ist genauer und zeitsparender. Für die Tests, die eine hohe Ortsauflösung erfordern, sollte der 2D-Array durch ein EPID ersetzt werden. P09.10 Erste Erfahrungen mit dem radiochromen Film Gafchromic EPT2 1 2 1 S. Tsitsekidis , M. Bamberg , T. W. Kaulich ; 1 Medizinische Physik, Radioonkologische Universitätsklinik, Tübingen, 2 Germany, Radioonkologische Universitätsklinik, Tübingen, Germany. Einleitung: Gafchromic EPT2 Filme sind sogenannte radiochrome Filme, die allein durch Einwirkung ionisierender Strahlung geschwärzt werden. Es wird also kein Entwicklungsprozess wie z.B. bei AgBr-Filmen benötigt. Außerdem können die Filme unverpackt bei normaler Beleuchtung sowohl in Luft als auch in Wasser verwendet werden. In der Klinik für Radioonkologie des Universitätsklinikums Tübingen werden zurzeit fünf Elektronenlinearbeschleuniger, ein Brachytherapiegerät und zwei Bestrahlungsanlagen für extrakorporale Bestrahlungen betrieben. Bisher wurden nur an den Linearbeschleunigern sowohl im Rahmen von Qualitätssicherungsmaßnahmen als auch bei speziellen Fragestellungen bei Patientenbestrahlungen filmdosimetrische Untersuchungen durchgeführt. Dazu wurde der AgBr-Radiografiefilm ED2 (Fa. Kodak) verwendet, für den ein chemischer Entwicklungsprozess erforderlich ist. Die dafür benötigte Entwicklungsmaschine wurde bei Umbaumaßnahmen demontiert, weshalb dringend ein neues Verfahren für filmdosimetrische Untersuchungen benötigt wurde. Material und Methode: Da in der Universitätsklinik für Radioonkologie in Tübingen keine Erfahrungen mit radiochromen Filmen vorlagen, wurden zunächst die Filmeigenschaften untersucht, um das neue Messmittel detailliert kennen zu lernen. 117 Im Einzelnen wurden folgende Eigenschaften untersucht: Absorption und Transmission bei der Auswertung mit einem Durchlichtscanner, Homogenität unterschiedlicher Filmpackungen und Chargennummern, Einfluss der Filmorientierung und der Dosis bei der Auswertung, Einfluss des Auswertezeitpunkts nach Bestrahlung, Einfluss von Raumlicht und Tageslicht über einen längeren Zeitraum, Einfluss der Dosisleistung, Dosis-Schwärzungs-Beziehung bei verschiedenen Strahlungsqualitäten und Dosis-Kalibrierung bei unterschiedlichen Strahlungsqualitäten. Bezüglich der Filmauswertung wurde der Einfluss der Scannerauflösung untersucht und eine Scanner-Konstanzprüfung etabliert. Für die Messungen an Elektronenlinearbeschleunigern (Fa. Elekta) wurde ein Wasserphantom mit einer speziellen Filmhalterung verwendet. Damit wurden Filme mit ultraharter Röntgenstrahlung und hochenergetischer Elektronenstrahlung mit unterschiedlichen Bestrahlungstechniken bestrahlt, anschließend gescannt und ausgewertet. An einer Brachytherapieanlage (GammaMed plus, Fa. Varian) wurde die Dosisverteilung einer 192-Ir-Quelle mit einem Film in einem speziellen Festkörperphantom gemessen. Für die Messungen an einer Anlage für extrakorporale Bestrahlungen (Fa. Gamma-Service Medical) wurden Filme mit speziellen Rahmen in den wassergefüllten Bestrahlungsbehältern fixiert und bestrahlt. Die Ergebnisse wurden mit Alaninmessungen des Herstellers verglichen. Ergebnis: Die Messungen an Elektronenlinearbeschleunigern wurden mit Ionisationskammermessungen sowie teilweise mit Dosisberechnungen eines kommerziellen Bestrahlungsplanungssystems verglichen und zeigten sowohl bei ultraharter Röntgenstrahlung als auch bei hochenergetischer Elektronenstrahlung eine gute Übereinstimmung. Die filmdosimetrischen Messungen an der Brachytherapieanlage wurden mit den Dosisberechnungen eines kommerziellen Bestrahlungsplanungssystems bestätigt. Ein Vergleich der Messungen an einer Anlage für extrakorporale Bestrahlungen ergab signifikante Abweichungen von Alaninmessungen des Herstellers. Der Grund für diese Diskrepanz muss noch geklärt werden. Diskussion: Der untersuchte Gafchromic EPT2 Film überzeugte bei den vorgestellten Untersuchungen durch seine einfache Handhabung und die relativ geringe Messunsicherheit. Somit ist der Gafchromic EPT2 Film nach den bisherigen Erkenntnissen für unsere Klinik ein adäquater Ersatz für den AgBr-Radiografiefilm ED2. Abb. 1: Sternaufnahme nach DIN 6847-5 Außerdem ist es möglich, schnell und einfach klinische Bestrahlungsfelder zu verifizieren. Es wird gezeigt, dass prinzipiell jede Art von Entität bildgebend dargestellt werden kann, Isodosen-Linien und Isodosen-Flächen ausgewertet (siehe Abb. 2) und mit dem Bestrahlungsplan des Planungssystems verglichen werden können. P09.11 Halbleiter-Speicherfolien für Dosimetrie und klinische Anwendungen B. Zeeb; Universitätsklinik für Radioonkologie, Medizinische Physik, Tübingen, Germany. Einleitung: Röntgenfilme für dosimetrische und klinische Anwendungen waren in den vergangenen 115 Jahren fester Bestandteil der Röntgendiagnostik sowie der Strahlentherapie [1]. Erst der flächendeckende Wegfall der Nassentwicklung zwang zu Alternativen. Eine Alternative ist der selbstentwickelnde Radiochromfilm (z.B. ISP GafChromic EBT2) [2], der allerdings für viele klinische Anwendungen nicht einsetzbar ist. Eine weitere Alternative sind Halbleiter2+ Speicherfolien auf Basis von BaFX:Eu (X=Cl, Br, I) [3], die in speziellen Therapiekassetten herkömmliche Röntgenfilme in weiten Bereichen vollwertig ersetzen können. Nach der Belichtung mit geringer Dosis werden die Speicherfolien in weniger als einer Minute mittels Laserscanner und Photomultiplier digital ausgelesen. Material und Methoden: In der vorliegenden Arbeit wird die Speicherfolien-Technik vorgestellt. Insbesondere sollen dosimetrische Messungen mit Hilfe von Halbleiter-Speicherfolien untersucht, mit klassischen und radiochromen Filmen verglichen und Vor- und Nachteile der Speicherfolien aufgezeigt werden. Dafür wird das Speicherfoliensystem Fujifilm Capsula XL-II mit speziellen Kassetten für die Strahlentherapie verwendet. Ergebnisse und Diskussion: Betrachtet werden die intrinsischen Eigenschaften der Halbleiterspeicherfolien, wie Schwärzungskurve, Abhängigkeit von Strahlungsart und Strahlungsqualität, Dosisleistung, usw. Es zeigt sich z.B., dass auch Zehntel Monitoreinheiten ohne weiteres dosimetrisch aufgelöst werden können. Außerdem ist es möglich, schnell und einfach geometrische Untersuchungen in verschiedenen Bereichen der Konstanzprüfungen durchzuführen. Betrachtet wird unter anderem die Sternaufnahme zur Lokalisation des Strahlenisozentrums (siehe Abb. 1), MLC-Prüfung und Quadrantenkontrolle. Für verschiedene Photonen-Energien werden Tiefendosiskurven und Querprofile gemessen, sowie zweidimensionale Dosisverteilungen ausgewertet. Es zeigt sich, dass für diese Aufgaben die Halbleiter-Speicherfolien sehr gut geeignet sind, und dies bei gleichzeitig geringem zeitlichem Aufwand. 118 Abb. 2: Verifikation einer Brust-Bestrahlung. Links: GraustufenDarstellung, Mitte: Isodosen-Linien, Rechts: Isodosen-Flächen Zusammenfassung: Zusammenfassend kommt man zu dem Ergebnis, dass Halbleiter-Speicherfolien für Dosimetrie und klinische Anwendungen im Vergleich zu klassischen Filmen einige Vorteile bieten und in vielen Fällen diese ersetzen bzw. in anderen Bereichen ergänzen können. Literatur: [1] A. G. Haus and J. E. Cullinan, RadioGraphics 9, 1203 (1989) [2] C. Fiandra et al., Med. Phys. 33, 4314 (2006) [3] K. Takahashi, Journal of Luminescence 100, 307 (2002) [4] DIN 6847-5: Medizinische Elektronenbeschleuniger-Anlagen. Teil 5: Konstanzprüfungen von Kennmerkmalen. Januar 1998 P09.12 Vergleichsmessungen des Mini-Wasserphantom „AquaphanTOM“ mit dem „MP3“ Wasserphantom S. Glessmer, T. Maaß, C. Müller, S. Söger, F. Fehlauer; Strahlenzentrum Hamburg, Hamburg, Germany. Fragestellung: Die regelmäßige Absolutdosimetrie unter Referenzbedingungen stellt einen wesentlichen Bestandteil der Arbeit eines Medizinphysikexperten dar. Da der Aufbau und die Ausrichtung großer Wasserphantome meist sehr zeitaufwändig sind, wird häufig auf Plattenphantome aus RW3 zurückgegriffen. Dieses Material hat jedoch den Nachteil, dass es nicht exakt wasseräquivalent ist (Nisbet et al., Radiother. Oncol. 73:79-88, 2004). Mini-Wasserphantome hingegen bieten die Vorteile eines schnellen Aufbaus sowie des Referenzmaterials Wasser. Allerdings tritt bei einigen Modellen die Strahlung nicht vertikal, sondern horizontal durch eine PMMA-Scheibe in das Phantom ein. Ziel dieser Studie ist es, die Eignung eines Prototypen des neuen MiniWasserphantom „AquaphanTOM 1.1 ho“ mit horizontalem Strahleintritt für dosimetrische Messungen nach DIN 6800-2 zu untersuchen. Methodik: In dem Wasserphantom „MP3 Therapy Beam Analyzer“ (PTW) wurden mit einer Roos-Kammer Tiefendosiskurven für 6MV und 10MV Photonen sowie für Elektronenenergien zwischen 4 MeV und 15 MeV aufgenommen. Diese wurden mit Tiefendosiskurven verglichen, die in einem Prototypen des Mini-Wasserphantom „AquaphanTOM 1.1 ho“ (positronic beamservice) unter horizontalem Strahleneintritt gemessen wurden. Zusätzlich wurden im AquaphanTOM absolutdosimetrische Messungen durchgeführt, um einen Korrekturfaktor zur Berücksichtigung der PMMAEintrittsscheibe zu ermitteln. Für Photonen erfolgten die Messungen mit einer Farmer-, für Elektronen mit einer Roos-Kammer. Ergebnisse: Ein Vergleich von mit der Roos-Kammer gemessenen Tiefendosiskurven in den beiden Phantomen zeigte für die gemessenen Photonen-Energien jeweils einen Versatz von ca. 2,5 mm. D.h.auf die Positionsanzeige des AquaphanTOM waren 2,5 mm zu addieren, um einen deckungsgleichen Verlauf der beiden Kurven zu erreichen. Bei den absolutdosimetrischen Messungen mit der Farmer-Kammer gab es keinen Offset. Der hiermit ermittelte Korrekturfaktor für die PMMAScheibe lag in der Größenordnung von 0,8 %. Bei der Auswertung der Elektronen-Tiefendosiskurven hingegen ergab sich kein klares Bild. Für die verschiedenen Energien konnte kein einheitlicher Versatz festgestellt werden, die Werte schwanken ohne erkennbare Systematik jedoch reproduzierbar zwischen 0,7 mm und 2,3 mm. Die resultierenden Kurven waren erneut deckungsgleich. Absolutdosimetrisch lagen die Abweichungen unter 1,5 %. Es bleibt zu klären, inwieweit sich die Inkonsistenzen zwischen den Versätzen der Messungen mit unterschiedlichen Kammern aber auch die bei unterschiedlichen Energien aus der Konstruktion der verschiedenen Kammerhalterungen ableiten lassen. Schlussfolgerung: Der Aufbau des Mini-Wasserphantoms AquaphanTOM ist schnell und akkurat möglich, auch die Positionierung der Kammern ist mittels Spindeltrieb genau durchführbar. Für Photonendosimetrie ist der Einsatz des AquaphanTOM problemlos möglich. Allerdings sind sowohl für Photonen als auch für Elektronen weitere Vergleichsmessungen mit verschiedenen Wasserphantomen anzustreben, um die Thematik der Kammerhalterungen und der uneinheitlichen Versätze zu klären. P09.13 Linac QS mit ImageMagick G. Kohler; Radio-Onkologie, Universitätsspital Basel, CH-4031 Basel, Switzerland. Einleitung: Bei der Qualitätssicherung von Elektronenlinearbeschleunigern werden unter anderen radiografische Filme und Bilder von electronic portal image devices verwendet. Für die Auswertung dieser Filme und Bilder existieren verschiedenste SoftwareLösungen. Die open source Software ImageMagick (IM) ist wenig bekannt, weist jedoch Eigenschaften auf, die für den Einsatz in der Qualitätssicherung sehr interessant sind. In der Grundform wird IM von der Kommandozeile bedient. Dadurch lässt sich stets verfolgen welche Operationen durchgeführt wurden. Exakt dieselben Operationen lassen sich so wiederholt auf weitere Bilder anwenden. Auch eine große Anzahl von Bildern lässt sich schnell und in derselben Weise bearbeiten. Mit Skripten lassen sich Prozesse automatisieren und es existieren verschiedene APIs (Application Programming Interfaces) mit denen sich IM über C++, PHP, Perl oder andere Programmiersprachen anwenden lässt. Durch den freien Quellcode ist IM annähernd für jedes Betriebssystem verfügbar. Kompilierte Versionen finden sich für die meisten Betriebssysteme im Internet zum freien Download. Weiterhin ist IM Bestandteil der meisten großen Linux-Distributionen, und ist auch auf vielen Live-Distributionen enthalten, so lässt sich IM verwenden ohne dass Software installiert werden muss. Durch die breite Verfügbarkeit lassen sich die skript-basierten Lösungen leicht und systemübergreifend mit Kollegen via Text-Dateien austauschen. Folgende Beispiele sollen den Gebrauch von IM in unserer Abteilung zeigen. Beispiele: Beim garden fence Test werden die Anschlüsse von fünf nebeneinander liegenden 4x24cm2 Feldern analysiert. Natürlich lassen sich alle Felder in einem Bild aufnehmen. Es bietet sich jedoch an, die Felder einzeln aufzunehmen, so lassen sich die Bilder in verschiedenen Tests verwenden. Das IM-Kommando zur Addition zweier Bilder lautet: > convert img1.tif img2.tif -compose add -composite summe.tif Bei fünf Bildern wird der Befehl nicht wesentlich komplexer. Mit einer in IM erzeugten Look up Table (LUT) wird das garden fence Bild farblich codiert um die normierten Graustufenwerte deutlicher darzustellen, dieser Schritt wird in IM erneut über ein Einzeilen-Skript realisiert: > convert gardenfence.tif LUT.tif -clut result.tif Die gesamte Prozedur inklusive Beschriftung ist bei uns automatisiert über ein interaktives Skript realisiert. In Figure 1 ist die Prozedur grafisch dargestellt. Die im vorherigen Beispiel verwendeten Bilder werden weiter verwendet, um die Stellung der MLC-Lamellen zu den Backupblenden zu ermitteln. Entsprechende Felder, bei denen die Lamellen zurückgezogen sind werden mit den Standardfeldern verglichen. Der Abstand zwischen Lamellen und Blende wird mittels Linien einer definierten Breite direkt optisch dargestellt (Grafik 2). Zusammenfassung: ImageMagick ist eine vielseitige BildverarbeitungsSoftware-Suite. Die kommandoszeilenbasierte Befehlssteuerung ermöglicht einen genauen Überblick über die durchgeführten Operationen. Die breite Verfügbarkeit ermöglicht es mit einem entsprechenden Satz von Skripten annähernd überall wo irgendein Computer verfügbar ist die gleichen Auswertungen durchzuführen. P09.14 "Beam Matching" Kontrolle im Rahmen der maschinenorientierten QA mit involvierter patientenorientierter IMRT-Planverifikation 1 1 2 1 C. Willomitzer , E. Blank , S. Stapf , M. Krüger ; 1 2 OGD Brandenburg, Brandenburg, Germany, TU Ilmenau, Ilmenau, Germany. Einleitung: Für das innerklinische Patientenmanagement mit mehreren klinischen Linearbeschleunigern (Clinac) ist es wichtig, dass die Maschinen untereinander in ihren dosimetrischen Eigenschaften näherungsweise gleich sind. Dies gewährleistet einerseits einen unterbrechungsfreien Bestrahlungsbetrieb und sorgt für eine Flexibilitätserhöhung der Behandlungslogistik, da auch bei Maschinenausfall oder Wartungsarbeiten, eine physikalisch gleichwertige Weiterbehandlung des Patienten an einer anderen Maschine durchgeführt werden kann. Zur Qualitätssicherung des Gleichlaufs werden die bei der IMRT-Planverifikation berechneten Fluenzbilder (predicted image) mit den gemessenen (portal image) verglichen und somit der Bestrahlungsplan überprüft. Der Gleichlauf der Clinacs wird durch Vergleich mit der am jeweiligen Clinac gemessenen Fluenz eines jeweiligen Planfeldes gegeneinander überprüft. Material und Methode: Ausgehend von einem vollkommissionierten Clinac werden die anderen Maschinen, welche werkseitig schon dosimetrisch angeglichen wurden, durch Feinabstimmung auf die Referenzparameter Dosisprofil, Tiefendosis, Outputfaktoren und Transmissionsfaktoren angepasst und verifiziert. Die PDIP-Software (portal dose image prediction) errechnet aus diesen Beam Daten und den EPID-Eigenschaften das zu erwartende Fluenzbild. Das Programm ist Teil des ECLIPSE-Planungssystems. Es gilt: PDIP1 = Beam data 1,2,3 + EPID1, PDIP2 = Beam Data 1,2,3 + EPID2 (u.s.w.). Im Idealfall von 100% gleichen „Dosisoutputs“ und EPID Konfigurationen der Clinacs sind alle Portalbilder identisch. Das vorgeschlagene Messregime setzt sich wie folgt zusammen: pro Arbeitswoche wird ein zu messender IMRT-Plan in einen Verifikationsplan umgewandelt, berechnet und mit EPID gemessen. (Es ist darauf zu achten, öfter die Planvariante zu wechseln um auch andere Feldkonfigurationen zu prüfen). Patient X wird mit PDIP1 vorhergesagt und an allen 3 Maschinen mittels EPID 1-3 gemessen und verglichen. Eine Woche später dann Patient Y mit PDIP2 an allen EPID 1-3, wieder eine Woche später dann Patient Z mit PDIP3 an allen EPID1-3 usw.. Somit ist eine Verifikation der IMRT-Pläne gewährleistet, bei gleichzeitiger Kontrolle der Maschinen- und EPIDEigenschaften. Zusätzlich werden mit dem unabhängigen DELTA 4 Dosimetriesystem Kontrollmessungen der gleichen Planfelder durchgeführt. Bei der Auswertung erzeugt die Portal Dosimetrie-Software ein DosisDifferenz-Histogramm (DDH, Abb.2). Beide Fluenzen (predicted und portal) werden hier geometrisch exakt übereinander gelegt und für jedes 119 Pixelpaar gleicher Koordinaten im Rahmen der Gamma-Analyse die Abweichung ΔCU bestimmt. Beim Vergleich der Dosis-Differenz-Histogramme der Strahlenfelder untereinander genügt die Angabe von Gamma-Index und Dosisstatistik nicht. Deshalb wurden die Histogramme in die Software ORIGIN importiert, um dort Analysen und Tests durchzuführen. Der Vergleich der Fitkurven wird im ORIGIN „Fit-comparsion-tool“ durchgeführt. Mit dem FTest wird auf Signifikanz (α = 0,05) getestet. Der F-Wert entschiedet, ob die Dosis-Differenz-Histogramme in ihren Varianzen aus einer Grundgesamtheit entstammen, was durch das Match-Procedere angenommen wird. Vergleich: FeldNC1 vs. FeldNC2, FeldNC1 vs. FeldNC3 und FeldNC2 vs. FeldNC3 (N= Feldnummer im Plan, C1,2,3 = Clinac). Ergebnisse und Diskussion: Die Anpassung der Clinacs untereinander wurde mit 0,2% absolutdosimetrischer Unsicherheit und einer Symmetrie unter 2% erfolgreich in reduzierter Einmesszeit von ca. 4 Wochen durchgeführt. Der Umstand von nur einem Beam-Datensatz pro Energie im Planungssystem, welcher als „single standard beam data set“ definiert ist, hat erhebliche administrative Vorteile. Der Vergleich der Dosis-Differenz-Histogramme in ORIGIN kann mittels fester Import/Expot Routine alltagstauglich gestaltet werden, eine wöchentliche Messung mit EPID und Delta 4 ist je nach Erfahrung ausreichend. P09.15 Dosimetrie in starken Magnetfeldern - Vergleich zweier Messsysteme für eine MR-Linac-Kombination 1 1 2 1,3 H. Latzel , S. Greilich , C. E. Andersen , O. Jäkel ; 1 Deutsche Krebsforschungszentrum (DKFZ), Abteilung Medizinische 2 Physik in der Strahlentherapie, Heidelberg, Germany, Radiation Research Department, Risoe National Laboratory, Roskilde, Denmark, 3 Klinik für Radioonkologie und Strahlentherapie, Universitätsklinikum Heidelberg, Heidelberg, Germany. Die Kombination von MR-Bildgebung mit klinischen Linearbeschleunigern verspricht einen großen Fortschritt der intrafraktionellbildgeführten Strahlentherapie (image guided radiotherapy, IGRT) - trotz erheblicher noch zu lösender technischer Fragen. So beeinflusst das starke Magnetfeld eines hybriden MR-Linac-Systems die Dosisverteilung im Körper des Patienten signifikant und muss daher in der Therapieplanung sowie in der Dosimetrie in der Qualitätssicherung und der Therapieplanverifikation berücksichtigt werden. Konventionelle Ionisationskammern, welche den Standard in der Dosimetrie darstellen, können in den starken Magnetfeldern jedoch nicht ohne Weiteres eingesetzt werden. Stattdessen kommen derzeit vor allem Filmdosimeter und TLD mit vergleichsweise hoher Messunsicherheit zum Einsatz. In der vorliegenden Studie wurden die Auswirkungen hoher magnetischer Felder (> 1T) auf dosimetrische Messsysteme untersucht und quantifiziert. Hierzu wurde ein speziell entwickelter Elektromagnet verwendet, mit dem magnetische Flussdichten bis zu 1.5 T für Untersuchungen unabhängig von klinischen MR-Geräten erreicht werden können. Der Magnet ist außerdem noch transportabel, so dass der Einsatz an unterschiedlichen Strahlenquellen wie etwa einem Gammatron, einem Elektronenlinearbeschleuniger oder auch an der Ionentherapieanlage (HIT) der Universitätsklinik möglich ist. Gleichzeitig bietet das System genügend Platz im Magnetfeld, um verschiedene Detektoren systematisch zu vergleichen. Bisher wurden zwei dosimetrische Systeme auf ihr Verhalten in starken Magnetfeldern untersucht: i. eine luftgefüllte Ionisationskammer der Fa. Wellhöfer (Typ IC03), welche zudem bei Messungen ohne Magnetfeld als Referenz für weitere Detektoren dient; ii. ein vollständig optisch-basiertes fasergekoppeltes LumineszenzDosimeter ohne metallische Komponenten. Die folgenden Punkte sollen in der Untersuchung geklärt werden: Eignung und Genauigkeit des Lumineszenzsystems im Vergleich mit der Ionisationskammer, die Möglichkeit der Bestimmung von Korrektionsfaktoren für das jeweilige Messsystem in Abhängigkeit von der magnetischen Flussdichte; spezielle Fragestellungen, die bei der Qualitätssicherung und Planverifikation unter starken Magnetfeldern auftreten können. 120 P09.16 Untersuchungen zur optimalen Feldgrößenanpassung bei doppelt kollimierenden Blendensystemen 1 2 2 2 M. Schaks , M. Janich , R. Gerlach , D. Vordermark ; 1 2 Universität Halle, Halle, Germany, Universitätsklinikum Halle, Halle, Germany. Einleitung: Bei stereotaktischen Bestrahlungstechniken werden häufig sogenannte Mikro-Multileaf-Kollimatoren (μMLC) unter das beschleunigereigene Blendensystem montiert. Diese gestatten bis zu 2 einer nach oben hin begrenzten Feldgröße von etwa 10x10 cm den Einsatz von wesentlich schmaleren Lamellen, üblicherweise 2-3mm Breite im Isozentrum. Mit diesen Kollimatoren ist es möglich, eine deutlich bessere Feldformanpassung an das zu bestrahlende Zielgebiet zu erreichen, als dies mit den breiteren Lamellen des Hauptblendensystems möglich ist. Gleichzeitig befindet sich der angeflanschte Zusatzkollimator näher am Patienten, was zu einer verminderten Penumbra der Dosisquerprofile der Bestrahlungsfelder führt. Derartige μMLC haben im Allgemeinen jedoch eine größere Durchlassstrahlung, was durch ihre konstruktiv geringere LammellenVerzahnungstiefe und Blendendicke begründet ist. Deshalb wird bei der Bestrahlungsplanung die Strahlausblendung nicht nur vom Zusatzkollimator erreicht, sondern entsprechend der projizierten Feldgröße ein „vorgeschaltetes“, nominell etwas größeres Hauptkollimatorfeld errechnet. Da beide Kollimatoren Feldgröße und profil beeinflussen, stellt sich die Frage nach der optimalen Anpassung der Hauptblenden an die Feldform des μMLC. In Abb. 1 sind zwei Feldprofile dargestellt, bei denen der μMLC jeweils eine Feldbreite von 12mm realisiert aber die Hauptblenden entweder weit geöffnet (schwarze Kreuze) oder aber ebenfalls auf 12mm Breite zugefahren sind (rote Punkte). Material/Methoden: Zur Untersuchung der gegenseitigen Beeinflussung der Kollimatoren, wurden Querprofile bei unterschiedlichen, aber festen ® Feldgrößen des angebauten m3-Kollimators der Firma Brainlab gemessen und sukzessive die Blendenstellung des Hauptkollimators ausgehend von 10cm Feldbreite verkleinert. Für diese Messungen kam die Halbleiterkammer 60012 und das Wasserphantom MP3 der Firma ® PTW zum Einsatz. Außerdem wurden die Feldprofile ohne angebauten m3-Kollimator für dieselben Blendenstellungen des Hauptkollimators vermessen. Alle Profilverläufe Φ(x) wurden über Faltungsmethoden numerisch angepasst. Dabei wurde sowohl das einfache als auch das doppeltkollimierende Blendensystem als „black box“ angesehen und mit einem einfachen Gaußschen Faltungskern modelliert (Abb. 2). Der Variationsparameter a zeigt die Feldgröße an und der Parameter σ beeinflusst die Flankensteilheit. Ergebnisse: Um zu bewerten, ab welcher minimalen Feldgröße des Hauptkollimators keine Beeinflussung der Feldform des μMLC’s mehr zu erkennen ist, genügt es nicht, nur die Feldbreiten zu analysieren. Man muss vielmehr darauf achten, ab wann der für das doppeltkollimierende Blendensystem berechnete Parameter σ einen vom Hauptblendensystem unabhängigen Werteverlauf zeigt. Erst dann bestimmt der μMLC allein das Feldprofil. In Abb. 3 sind die Werte für σ des einfachkollimierenden Systems (schwarze Kreuze) zusammen mit den bestimmten σ der doppeltkollimierenden Systeme (farbig) in Anhängigkeit des Feldgröße des Hauptblendensystems aufgetragen. Solange das Hauptblendenfeld beim doppeltkollimierenden System deutlich kleiner als das m3-Feld ist, bestimmt es allein Feldgröße und form. Sind die Feldgrößen beider Kollimatoren ähnlich groß, zeigt sich ein für jede der dargestellten Feldgrößen des μMLC’s nahezu gleichbreiter Übergangsbereich zwischen den σ-Werten des einfachund doppeltkollimierenden Systems. Hinter diesem Übergangsbereich werden die σ-Werte vom μMLC dominiert. Der Minimalwert von σ markiert die optimale Feldgröße des Hauptblendensystems. Bei dieser Konfiguration bestimmt der μMLC allein das Feldprofil und seine Durchlassstrahlung wird bestmöglich abgeschirmt. Eine genaue Analyse zeigt, dass das Hauptblendenpaar an jeder Seite 4mm größer sein muss, um dieses Optimum zu erreichen. Abb. 1 (a) Abb. 2 (b) Abb. 3 Abb. 1: (a) Intraoperative Bestrahlung eines Mammakarzinoms. (b) Der Elektronentubus wird an den Situs angedockt. Dabei wird die Haut um den Tubus gelegt. P09.17 Messung der Streustrahlung am Tubus eines mobilen Elektronenlinearbeschleunigers für die IORT mit radiochromen Filmen C. Sanne, D. Schölzel, P. Pereira do Vale, I. Simiantonakis; Heinrich-Heine-Universität Düsseldorf, Universitätsklinikum, Klinik für Strahlentherapie, Düsseldorf, Germany. Einleitung: Am Universitätsklinikum Düsseldorf erhalten Mammakarzinom-Patientinnen im Rahmen einer Studie anstelle der konventionellen Boostbestrahlung eine intraoperative Radiotherapie (IORT) als vorgezogenen Boost. Die Bestrahlung erfolgt im direktenAnschluss an die chirurgische Entfernung des Tumors. Hierfür wird ein dedizierter Elektronenlinearbeschleuniger eingesetzt, der mit verschiedenen Elektronenenergien und geraden bzw. gewinkelten Elektronentuben für verschiedene Feldgrößen ausgestattet ist. Die Kenntnis der Streustrahlung entlang dieser Tuben ist von zentraler Bedeutung, insbesondere die Kontaktdosis am unteren äußeren Rand der Tuben, da dieser von Haut umschlossen ist (siehe Abb. 1). Ziel der vorliegenden Arbeit ist die Bestimmung der relativen Dosis der Streustrahlung entlang der Tuben. Material und Methoden: Das Streuverhalten wurde exemplarisch für die klinisch am häufigsten verwendeten Tuben (aus Polymethylmethacrylat PMMA (Perspex®), Durchmesser 4 und 6 cm) untersucht. Die Streustrahlung entlang der Tuben des mobilen Elektronenlinearbeschleunigers für die IORT (Novac7, New Radiant Technology, Aprilia/Italien) wurde mit Hilfe von radiochromen Filmen vom Typ Gafchromic EBT2 (ISP, Wayne, New Jersey/USA), über die Länge der Tuben (Neigungswinkel 0°, 22,5° und 45°, FOA = 80 cm) und speziell am unteren Rand, ermittelt. Die zuvor an einem konventionellen Linearbeschleuniger kalibrierten radiochromen Filme wurden außen, längs der Tubusoberfläche bzw. um den unteren Rand herum angebracht. Als Rückstreumaterial wurde ein 1 cm dicker Bolus, welcher die Haut simulieren sollte, verwendet (siehe Abb. 2). 121 (a) (b) Abb. 2: Versuchsaufbau der Streumessungen: (a) Radiochrome Filmstreifen und Boli entlang eines geraden Tubus (Durchmesser 6 cm). (b) Vier radiochrome Filmstreifen (in inplane bzw. crossplane Richtung) und Bolus am Tubusende für einen gewinkelten Tubus (Durchmesser 6 cm, 22,5°-Neigung). Zur Bestimmung der Referenzdosis wurde ein weiterer radiochromer Film in einem RW3-Plattenphantom im Dosismaximum des Strahlenfeldes platziert und mit einer Dosis von 5 Gy bei Elektronenenergien von 3 und 9 MeV bestrahlt. Die Filmauswertung erfolgte mit Hilfe eines kommerziellen Flachbettscanners (V750 Pro, 122 Epson, Nagano/Japan) und der Dosimetriesoftware OmniPro-I’mRT (IBA-Dosimetry, Schwarzenbruck/Deutschland). Ergebnisse: Ausgehend von der Strahlungsquelle steigt die Streustrahlung zunächst an und fällt im weiteren Verlauf entlang der Tuben annähernd exponentiell ab (siehe Abb. 3). Am unteren Ende der Tuben beträgt die Dosis der Streustrahlung höchstens 5% der Maximaldosis bei der niedrigsten Energie (3 MeV). Für die höchste verfügbare Energie von 9 MeV beträgt die Streustrahlung 7% der Maximaldosis („worst case“). Die Messungen am unteren Tubusrand zeigen für die geraden Tuben eine homogene Streustrahlung entlang des Tubusrandes. Bei den schrägen Tuben (22,5°- und 45°-Neigung) zeigt sich, dass die Streustrahlung trotz des Winkels ebenfalls homogen über den Rand verteilt ist. Abb. 3: Dosisverlauf für den geraden Tubus (Durchmesser 6 cm) bei einer Energie von 3 MeV. Die Lücke im Graphen zwischen 25 und 32 cm wird durch den 5 cm langen Verbindungsflansch verursacht, da in diesem Bereich die Streuung nicht gemessen werden konnte (siehe auch Abb. 2a). P09.18 Präzisionsmessungen durch Sternschüsse 1 1 1 1 2 M. Hoevels , H. Treuer , S. Hunsche , K. Luyken , W. Baus ; 1 Universität zu Köln, Klinik für Stereotaxie und Funktionelle 2 Neurochirurgie, Köln, Germany, Universität zu Köln, Klinik für Strahlentherapie, Köln, Germany. Die Linac-basierte Radiochirurgie stellt höchste Anforderungen an die Genauigkeit der Applikation der Strahlung, die es bei der sowohl bei der Justierung des Systems wie auch bei der regelmäßigen Konstanzprüfung zu erfüllen gilt. Die hier demonstrierten Auswertungen durch Sternschüsse stellen eine Methode mit hoher Präzision dar, die zudem einfach durchzuführen ist und quantitative Aussagen liefert. Zur Auswertung dienen eingescannte Filme, die über die Lasermarkierungen einem raumfesten Koordinatensystem zugeordnet werden können. Auf diese Weise können verschiedene Messungen in Beziehung gesetzt werden. Sie liefern nicht nur eine Aussage über die Qualität des Isozentrums und der Justierung des Gesamtsystems, sondern auch eine quantitative Aussage über die notwendigen Korrekturen im Submillimeterbereich. Sie sind daher sowohl für den Setup wie auch spätere Konstanzprüfungen und Qualitätskontrolle geeignet. Für die Betrachtung kombinieren wir die Auswertungen von Sternschüssen in verschiedenen Ebenen, insbesondere denen der Gantryrotation, der Tischrotation sowie der des Strahler-kopfes, als auch Sternschüsse in verschiedenen Stellungen der Gantry. Die so gewonnenen Resultate erlauben Aussagen zu O - Güte des Isozentrums in drei Raumrichtungen O - Justage des stereotaktischen Kollimatorhalters O - Lage der Tisch-, Kopf- und Gantry-Drehachse, relativ zum Laser O - Quantitative Hinweise zur Laserjustage O - Vermessung des Gantry Sag Wir demonstrieren sowohl die technischen Hintergründe als auch Langzeitergebnisse. 123 P09.19 QA Maßnahmen zur Implementierung stereotaktischer Einzeitbestrahlungen in Graz Abbildung 2: Darstellung der Einstrahlrichtungen der sieben dynamischen Bögen T. Hüpf, P. Winkler, R. Flitsch, A. Oechs, K. Kapp; LKH Universitätsklinikum Graz, Universitätsklinik für Strahlentherapie Radioonkologie, Graz, Austria. 1. Einleitung: Wir standen vor der Herausforderung, in kurzer Zeit den Varian Linearbeschleuniger NovalisTx in den klinischen Betrieb zu implementieren, um die komplexen Behandlungen durchführen zu können, für die lange Zeit das Grazer Gamma-Knife Methode der Wahl war. Die Spezifika dieses Beschleunigers sind neben dem highdefinition-MLC und einer hohen mechanischen Genauigkeit der Gantry insbesondere das unabhängige Positionierungssystem ExacTrac (ET) der Firma Brainlab und die speziell für stereotaktische Radiochirurgie vorgesehene 6 MV Photonenenergie mit 1000 MU/min. 2. QA Konzept: a) Geometrisch: Durch das Zusammentreffen von kleinen Zielvolumina im craniellen 3 Bereich (< 1 cm ) einerseits und VMAT Techniken mit viel mechanischer Bewegung (dynamische Bögen bei verschiedenen Tischwinkeln) andererseits erreichen die Anforderungen an die Genauigkeit bereits das Limit des technisch Möglichen. So beträgt beispielsweise der von Anwendern nicht beeinflussbare Gantrysag zwischen 0° und 180° etwa 0,7 mm. Wir prüfen vor jeder Einzeitbestrahlung diese mechanische Isozentrumsgenauigkeit sowie die Übereinstimmung zwischen Strahlisozentrum und ET-Isozentrum mittels eines selbst entwickelten Verfahrens, das aus MV-Portfilmaufnahmen automatisch translatorische Verschiebewerte ausgibt. Die Isozentrumsübereinstimmung wird auch täglich anhand eines eigens dafür adaptierten ET-Isozentrumsphantoms erfasst (siehe Abbildung 1). Abbildung 1: ET Isozentrumsphantom mit Bohrungen für MV Positionskontrolle Verschreibung: 24 Gy auf die Randisodose in sechs Fraktionen Maximum: 32 Gy). Durch die Dosierung auf eine niedrige Isodose (bei Linearbeschleunigern 70 - 80% des Maximums) ist ein starker Dosisabfall hin zum gesunden Gewebe möglich (siehe Abbildung 3). Abbildung 3: Isodosendarstellung b) Dosimetrisch Zur patientenbezogenen dosimetrischen Kontrolle dient ein 20 x 20 cm Würfelphantom aus horizontalen Plexiglasplatten. Damit wird die geplante Dosisverteilung in mehreren Ebenen mit einer Messung mit absolutdosimetrisch kalibrierten Filmen verifiziert. 3. Ergebnisse: Eine Untersuchung an einem Schädelskelett zeigt, dass unter Zuhilfenahme der ET-Positionierung eine Markerkugel mit hoher Präzision (< 1,0 mm) getroffen werden kann. Die statistische Standardabweichung der täglichen Schwankung zwischen ETIsozentrum und Strahlisozentrum ist kleiner als 0,3 mm. Bis April 2011 wurde von ca. 30 Bestrahlungsplänen der Vergleich zwischen Filmmessung und geplanter Dosisverteilung ausgewertet. Das 3 mm 3% Gamma-Kriterium ergibt durchschnittlich 3,9% Abweichungen (die Hälfte liegt unter 1,5%). 4. Fallbeispiel: Am Beispiel eines Patienten / einer Patientin lässt sich der vollzogene Technologiesprung am leichtesten festmachen. Für eine Gehirnmetastase nahe am Chiasma wurde ein Plan mit sieben dynamischen Bögen erstellt (siehe Abbildung 2). 124 Die Filmauswertung dieser Verifikation am Phantom ergab im GammaKriterium 2,8%. Fixierung im stereotaktischen Maskensystem und Positionierung mithilfe von ET unterstützen die reproduzierbare Lagerung. 5. Zusammenfassung: Nur durch Flexibilität und Engagement aller beteiligten Berufsgruppen war es möglich, dass derartige Fälle in kurzer Zeit in die Routine integriert werden konnten. Die technischen QA Anforderungen hinsichtlich besonderer Genauigkeit sind in diesem Zusammenhang nur ein kleiner Teil des Gesamtprozesses. Poster 10: IMRT Bestrahlungsplanung, Verifikation und klinische Erfahrung P10.01 Volumetric Modulated Arc Therapy (VMAT) im Vergleich mit Stepand-Shoot IMRT und 3D konformer Strahlentherapie (3D-CRT) zur Behandlung von HNO-Tumoren 1,2 1,2 1 1 V. M. Barrois , L. Vogelgesang , D. Wolff , S. Bosold , L. 1 1 1 1,2 Tsogtbaatar , J. Sparenberg , R. Engenhart-Cabillic , K. Zink ; 1 Universitätsklinikum Gießen und Marburg, Gießen, Germany, 2 Technische Hochschule Mittelhessen, Gießen, Germany. Einleitung: Die Volumetric Modulated Arc Therapy (VMAT) ist eine neue Form der intensitätsmodulierten Strahlentherapie, und eröffnet das Potential, diese mit hoher Effizienz durchzuführen. Diese Arbeit vergleicht VMAT mit etablierten Verfahren wie MLC basierte IMRT und der klassischen 3D-CRT-Bestrahlungstechnik. Material und Methoden: Basierend auf CT-Datensätzen von neun Patienten mit Kopf-Hals-Tumoren wurden jeweils zwei VMATBestrahlungspläne mit einer (VMAT1x) und zwei Rotationen (VMAT2x), zwei IMRT-Bestrahlungspläne mit sieben (IMRT-7F) und neun (IMRT9F) Einstrahlrichtungen sowie ein 3D-CRT-Bestrahlungsplan (12 Felder) berechnet und hinsichtlich Planqualität und Behandlungseffizienz untersucht. Maßgabe für die modulierten Verfahren war bei einer Verschreibungsdosis von 50,4Gy eine mittlere Dosis von 22Gy für die kontralaterale Parotis, sowie für alle Verfahren eine maximale Rückenmarksdosis von 40Gy nicht zu überschreiten. Konformitätsindex (CI) und Homogenitätsindex (HI) sowie mediane oder maximale Dosis der Risikoorgane und die Dosis, die 95% des Zielvolumens umschließt (D95) waren Grundlagen für den Planvergleich. Des Weiteren wurden die Volumina des Normalgewebes für 70%, 50% und 30% bezogen auf die Verschreibungsdosis zur weiteren Bewertung der Planqualität hinzugezogen. Die Behandlungseffizienz wurde anhand der Anzahl der Monitoreinheiten (MU) und der Bestrahlungszeit beurteilt. Ergebnisse: Für VMAT2x/VMAT1x/IMRT-9F/IMRT-7F/3D-CRT betrug der gemittelte HI 0,08/0,10/0,08/0,08/0,12 und der gemittelte CI 1,19/1,21/1,16/1,17/1,39. Bei der verschriebenen Dosis von 50,4Gy für alle Patienten erhielt das Myelon im Mittel eine Maximaldosis von 35,9/37,0/36,4/36,9/37,1Gy. Die mittlere Dosis für die kontralaterale Parotis betrug 20,8/21,9/20,7/20,8/43,4Gy. Die D95 für VMAT2x/VMAT1x/IMRT-9F/IMRT-7F/3D-CRT betrug 48,1/47,6/48,3/48,2/46,9Gy. Die Volumina des Normalgewebes für mehr als 70% der verschriebenen Dosis (35,3Gy) umfassten 1175/1237/1398/1286/1371cm³, für mehr als 50% (25,2Gy) 2581/2546/2781/2697/2725cm³, für mehr als 30% (15,12Gy) 4178/4107/4075/4288/4032cm³. Die Monitoreinheiten betrugen im Mittel 550,4/403,3/437,4/438,5/533,2. Die Bestrahlungen dauerten im Mittel 2,9/1,4/9,4/6,9/7,5min. Schlussfolgerung: Für die untersuchten Bestrahlungstechniken VMAT2x/VMAT1x/IMRT-9F/IMRT-7F/3D-CRT war die Homogenität und die Zielvolumenabdeckung hinsichtlich der verschriebenen Dosis nahezu identisch. Die Grenzdosis für das Myelon konnte mit allen Bestrahlungstechniken ähnlich gut eingehalten werden. Bezüglich der Schonung der kontralateralen Parotis ergab sich erwartungsgemäß für die modulierten Bestrahlungstechniken eine wesentlich bessere Planqualität. Die D95 war für alle untersuchten Verfahren nahezu gleich. Hinsichtlich der Bestrahlungszeiten T zeigt sich mit T<3min für 2 Rotationen und T<2min für 1 Rotation ein Vorteil für VMAT gegenüber 710min für Step-and-Shoot IMRT und etwa 7-8min für die 3D-CRT. P10.02 Vergleich sequentielle versus integrierte Boostbestrahlung mit VMAT bei HNO-Tumoren H. Blank, H. Alheit, J. Distler; Strahlentherapie Distler, Bautzen, Germany. Zielstellung: Bei der kurativen Strahlentherapie von HNO-Tumoren wird ein abgestuftes Zielvolumenkonzept verfolgt, welches zum Ziel hat, verschiedene Subvolumina mit steigender Dosis in Abhängigkeit vom angenommenen Rezidivrisiko zu bestrahlen. Bei konventioneller Bestrahlungstechnik, wie auch bei sequentieller IMRT-Bestrahlung der einzelnen Boost-Subvolumina kommt es infolge der Überlagerung der Strahleintrittspfade mit denen der vorhergehenden Serie regelmäßig zu ungewollten Dosisdepositionen in Subvolumina, die bereits die verschriebene Dosis erhalten haben. Die integrierte Boostbestrahlung hat zumindest potentiell die Möglichkeit, diese Überschneidungsareale zu minimieren. Methode: Mit einer Planungsstudie an 10 Patienten mit HNO-Tumoren wird untersucht, inwieweit eine Dosisüberhöhung im adjuvanten Zielvolumen (Pharynx und beide Halsseiten, 50.4 Gy in 28 Fraktionen) durch die Boostbestrahlung der LK-Region mit erhöhtem Risiko (5,4 Gy in 3 Fraktionen) bei sequentieller Bestrahlung durch einen integrierten Boost (28 * 1,8 Gy adjuvant/ 28*2Gy LK mit erhöhten Rezidivrisiko) vermindert werden kann. Als Bestrahlungsmethode wird für beide Szenarien eine VMAT-Bestrahlung an einem ELEKTA-Beschleuniger Synergy mit dem Planungssystem Monaco geplant. Ein weiterer Boost auf die Primärtumorregion und befallene LK bis 66 Gy (operierte Patienten oder 70 Gy primäre Bestrahlung) wird hierbei nicht berücksichtigt. Die Planung erfolgt auf ein CT mit 3mm Schichtseparation, in welchem das adjuvante PTV, das BoostPTV für 55,8 Gy und als Risikoorgan das Rückenmark eingezeichnet wurden. Zusätzlich wurde ein ventrales (Mundhöhle) und ein dorsales Volumen (Nacken), welches geschont werden soll definiert. Auf Dosiskonstraints für die Parotiden wurde hier verzichtet, da die Parotisschonung nicht Ziel der Untersuchung ist. Für alle PTV wird ein Oberflächenabstand von 5 mm eingehalten, um Aufbaueffekte auszuschließen. Die Auswertung erfolgt an Hand von DVH-Kriterien für die einzelnen Subvolumina (Dmin; Dmax; Dmean; Dmedian) sowie für das adjuvante Volumen ohne Einschluss des Boostvolumens (dieses wird für diesen Zweck mit einem 5mm Margin umgeben). Ergebnisse: Die Untersuchungen ergaben bei Anwendung eines integrierten Boostes eine mittlere Einsparung beim adjuvanten Bestrahlungsvolumen von 1-1,5Gy. Damit sind im Vergleich zum sequentiell durchgeführten Boost und volumenbereinigt Einsparungen bis 40% möglich. Darüber hinaus wurde eine Reduktion des Dosismaximums um ca. 3,5Gy und damit eine zunehmende Homogenisierung der Zielvolumenauslastung erreicht. Eine signifikante Verbesserung durch Anwendung von Fraktionierungsschemata mit größeren Differenzen zwischen den Einzeldosen konnte nicht nachgewiesen werden. In diesem Zusammenhang muss natürlich auch eine kritische Auseinandersetzung mit den damit einhergehenden strahlenbiologischen Konsequenzen erfolgen, die aber nicht Gegenstand dieser Arbeit sein kann. Schlussfolgerung: Mit der Planung eines integrierten Boostes gelingt es besser, Hot-Spots im adjuvanten Zielvolumen zu vermeiden. Darüber hinaus eröffnet die Planung mit integriertem Boost für die ersten beiden Teilserien, die Möglichkeit, für den anschließend noch zu planenden Boost auf die Tumorregion/befallene Lymphknoten die Pläne in Monaco 125 zu addieren und somit eine Gesamtdosiverteilung zu dokumentieren. Die wäre bei 3 Einzelplänen in der gegenwärtigen Version nicht möglich. P10.03 VMAT-Techniken zur Schonung der Submandibulardrüsen bei Patienten mit Kopf-Hals Tumoren V. Prokic, P. Stegmaier, M. Henke; Klinik für Strahlenheilkunde, Universitätsklinikum Freiburg, Freiburg, Germany. Hintergrund: Die Strahlentherapie ist eine der wichtigsten Optionen zur Behandlung von Kopf-Hals-Tumoren. Eine häufige und langfristige Nebenwirkung ist die Xerostomie. Sie beeinflusst die Lebensqualität und kann zu erheblichen Folgekomplikationen führen. Eine Reduktion der Dosisbelastung der Speicheldrüsen (Glandula parotidea) kann die Xerostomie vermindern. Die Schonung der Parotiden mit der gleichzeitigen Dosiskonformität im Tumor, wird durch den Einsatz der verschiedenen IMRT Techniken erreicht. Vereinzelte Publikationen belegen darüber hinaus, dass die zusätzliche Schonung der Submandibulardrüsen auch zu einer Verminderung der Xerostomie führen kann. Ziel dieser Planungsstudie war es, zusätzlich zur Parotidenschonung, die Submandibulardrüsen zu entlasten. Die Planung erfolgte in VMAT Technik. Methodik: Es wurden retrospektiv sieben Patienten mit Kopf-HalsTumoren für die Planung ausgewählt. Bei ihnen war eine einseitige Schonung der Submandibulardrüsen möglich, ohne das Rezidivrisiko zu erhöhen. Die geplante Dosis betrug 70 Gy. Die Bestrahlungsplanung erfolgte mittels Eclipse (Fa. Varian, Palo Alto, USA). Als Risikoorgane wurden beide Parotiden, Rückenmark und Mundhöhle eingezeichnet. Die VMAT Pläne wurden mit zwei Bögen gerechnet. Für die Optimierung wurden die Bestrahlungspläne hinsichtlich der Zielvolumenabdeckung (Dmin, Dmax) und der Schonung von Risikoorganen beurteilt. Ergebnisse und Diskussion: Für alle untersuchten Patienten konnte in VMAT Technik eine gute Zielvolumenabdeckung und Schonung der Risikoorgane erreicht werden. Die Dosisbelastung der Submandibulardrüsen konnte auf eine mittlere Dosis von weniger als 39 Gy gesenkt werden. Bisher publizierte Daten zur Speichelflussrate weisen auf einen Schwellenwert zur Verminderung einer Xerostomie in diesem Dosisbereich hin. Alle Pläne zeigten hohe Homogenität und Konformalität. Schlussfolgerung: Mit VMAT Technik war es für Patienten mit KopfHals-Tumoren möglich hochkonformale Bestrahlungspläne mit guter Schonung der Parotiden und der Submandibulardrüsen zu erzielen. Ob diese Schonung der Submandibulardrüsen zu einer klinisch relevanten Verminderung der Xerostomie führt, ist einer klinischen Studie vorbehalten. P10.04 Ein subjektiver Vergleich verschiedener IMRT-Pläne bei HNO-Fällen S. Kampfer, C. Winkler, S. Astner, M. N. Duma, P. Kneschaurek, H. Geinitz; TU München, Klinikum rechts der Isar, Klinik und Poliklinik für Strahlentherapie und Radiologische Onkologie, München, Germany. Einleitung: Die Zahl der mit Intensitätsmodulierter Strahlentherapie (IMRT) behandelten Patienten steigt stetig an. IMRT-Behandlungen werden inzwischen immer häufiger als Standardbehandlungsmethode bei bestimmten Tumorarten angesehen, unter anderem bei komplex geformten Planungsvolumina wie sie oftmals im Kopf-Hals-Bereich zu finden sind. Kontinuierliche Weiterentwicklungen von Linearbeschleunigern und Planungssystemen ergeben ein breites Spektrum an Möglichkeiten. Ziel dieser Arbeit ist es IMRT-Pläne verschiedener in unserer Klinik vorhandenen Systeme subjektiv zu vergleichen. Material und Methoden: Ausgewertet wurden 10 postoperative HNOPatienten, die in unserer Klinik einen IMRT-Plan des Planungsystems Oncentra MasterPlan (OTP, Theranostic, Solingen) erhalten hatten und damit an einem Siemens Oncor (1 cm Leaves) bestrahlt wurden. Retrospektive wurden jeweils ein Tomotherapie-Plan (TomoTherapy, Madison) sowie zwei Pläne (je einer mit fünf und sieben Feldern [5F bzw. 7F]) für einen Varian Trilogy mithilfe der Software Eclipse (Varian, Paolo Alto, USA) gerechnet. Oberstes Ziel bei der Planung (Dosierung auf den Median) war das Planungsvolumen gut abzudecken, untergeordnet sollte die Risikoorganschonung erfolgen. Die subjektive Auswertung der jeweils vier berechneten Pläne pro Patient wurde von drei Fachärzten der Klinik verblindet vorgenommen. Hierfür wurden die Pläne in die Software Prosoma 3.1 der Firma MedCom (Darmstadt) eingelesen und dort verglichen. Zusätzlich wurden der Homogenitäts-Index (HI), der Konformitäts-Index (CI), die mittlere Dosis der Parotiden, sowie das Dosismaximum im Myelon erfasst. 126 Ergebnisse: Alle Pläne waren aus klinischer Sicht zur Behandlung von Patienten akzeptierbar. Die Auswertung der Fachärzte ergab eine Präferenz bei 5 Patienten für den Tomotherapie-Plan und bei 5 Patienten für einen der beiden Eclipse-Pläne (zweimal für 5F, dreimal für 7F). In 6 Fällen war das Ergebnis einstimmig, in 4 Fällen mit 2 der 3 Stimmen. Beim Vergleich der Pläne hinsichtlich des HI lieferte in 7 Fällen die Tomotherapie, in 3 Fällen Eclipse das beste Ergebnis. In Bezug auf den CI schnitten die Tomotherapie sowie Eclipse gleich ab. In 5 der 6 einstimmig ausgewählten Pläne war der HI im Vergleich der beste unter den Vergleichsplänen, in zwei Fällen der CI. Nur in einem Fall hatten sich die Fachärzte mit zwei Stimmen für einen Plan entschieden, der weder bezüglich HI, noch CI den Vergleich anführte. Im Mittel hatte die Tomotherapie die niedrigsten Maxima für das Myelon, die Eclipse 7F-Pläne dagegen die besten Werte für den Mittelwert der Parotiden. Diskussion: Die subjektive Auswahl der Bestrahlungspläne ergab zwar in Summe keinen Vorteil eines bestimmten Systems, im Einzelfall (4 einstimmige Entscheidungen für Tomotherapie, 2 für Eclipse) können jedoch wesentliche Unterschiede auftreten. Diese gilt es in weiteren Arbeiten aufzuzeigen. Die ausgewerteten objektiven Kriterien bescheinigen den TomotherapiePlänen eine etwas größere Homogenität. In Bezug auf die Konformität sowie die Risikoorganschonung ist das Ergebnis nicht eindeutig. P10.05 Ein neuer Typ von Dose-Volume-Objectives bei der VMAT-Planung von Patienten mit Prostatakarzinom: Surrounding Dose Fall-Off M. Treutwein, M. Hipp, O. Kölbl, B. Dobler; Uniklinik Regensburg, Klinik und Poliklinik für Strahlentherapie, Regensburg, Germany. Einführung: Das Ziel dieser Planungsstudie ist es, Eignung, Eigenheiten und Besonderheiten eines neuen Typs von Dose-VolumeObjectives (DVO), des sogenannten Surrounding Dose Fall-Off (SDFO), bei der Planung von Patienten mit Prostatakarzinom mit der VMATTechnik zu ermitteln. Dieser Typ erlaubt eine direkte Beeinflussung des Dosisgradienten in der Umgebung des Planungszielvolumens (PTV). Dieses neue DVO wird im von der Fa. RaySearch Laboratories AB, Stockholm, SE entwickelten Optimizer-Modul des Planungssystems Oncentra®, Version 4.0 der Fa. Nucletron BV, Veenendaal, NL angeboten. Diese Pläne (Set1) werden mit der bisherigen bei uns üblichen Planungsstandardtechnik verglichen (Set2). Material und Methoden: In diese Planungsstudie wurden sechs Patienten mit lokalisiertem Prostatakarzinom eingeschlossen. Das PTV, das Rektum, die Harnblase und beide Femurköpfe wurden als Regions of Interest (ROI) markiert; ebenso zusätzlich das dorsale Rektum und als Hilfsstruktur für die bisherige Standardtechnik die Außenkontur abzüglich des PTV mit umschließendem Margin mit 5mm (AK-PTV5mm) also praktisch das Normalgewebe. Die VMAT-Optimierung wurde als simultan integrierter Boost in 33 Fraktionen angesetzt, mit für beide Plansets identischen DVO in Tabelle 1. ROI DVO Dors. Femurköpfe Rektum Min. Min. Max. DosisDosis- Max. DosisDosis Dosis Dosis Volumen Volumen Dosis Volumen 59,4 71,0 74,2 50 70 50 50 PTV CTV CTV Harnblase Rektum Dosis /Gy Prozentsatz des 100 100 100 Volumens Gewichtung 3000 3000 3000 Tabelle 1 50 20 100 50 1000 1000 1000 300 Set 1 erhielt zusätzlich die SDFO-Objectives: von 59 Gy ab PTVOberfläche auf 1cm Abstand auf 29,5 Gy abfallen und von 59 Gy ab PTV-Oberfläche auf 6cm Abstand auf 6 Gy abfallen, beides mit einer Gewichtung von 100. Im Set2 wurden auf (AK-PTV5mm) folgende 2 DVO gesetzt: Dosis /Gy Prozentsatz des Volumens Gewichtung Tabelle 2 56 100 3000 45,0 5 3000 Die Geräteparameter eines Beschleunigers vom Typ SynergyS der Fa. Elekta wurden wie folgt festgelegt: Single Arc Rotation von 182°-178°, Collimator 45°. Die Ergebnisdaten für beide Sets wurden über die sechs Patienten gemittelt. Außerdem wurde die Homogenität H der Dosis im CTV nach folgender Formel bestimmt: H = (D5-D95)/DAV [1] und die Monitoreinheiten (MU) ermittelt. Ergebnisse: Die Ergebnisse sind in Tabelle 3 in Gy, bzw. als Zahlenwert zusammengefasst. HCTV PTV minD MU Femurk.Median Harnbl.Median Set 5,6% 58,3 577 1 Set 5,5% 59,6 540 2 Tabelle 3 Dorsales RektummaxD RektumD20 22,7 42,1 51,1 56,3 24,9 42,1 49,6 56,5 Abbildung 1 zeigt die Dosis-Volumen-Histogramme für beide Pläne eines Patienten. Die gestrichelten Kurven repräsentieren den bisherigen Standard, die durchgezogenen den Plan mit SDFO. Diskussion und Schlussfolgerung: Die Homogenität im CTV ist praktisch gleich. Die Dosiswerte für beide Sets ähnlich, die DVO werden größtenteils eingehalten. Lediglich die MU scheinen mit dem neuen DVO etwas höher auszufallen, größere Versuchsreihen wurden mit dem SDFO allerdings auch noch nicht durchgeführt. Das neue DVO bietet eine brauchbare und intuitive Hilfe zur Optimierung. Literatur: [1] Georg D, Kroupa B, Georg P et al. Inverse Planning - a Comparative Intersystem and Interpatient Constraint Study. Strahlenther Onkol, 182; 2006, 473[[Unsupported Character - ‐]]480. Disclaimer: Die Arbeit wurde teilweise durch die Fa. Theranostic, Solingen gefördert. Trotz dieser guten Resultate werden wie von der DIN 6875-3 (7) empfohlen alle Patientenpläne von einem unabhängigen Messsystem überprüft. Am KHDF wird dazu das zylindrische Messphantom ArcCHECK mit der entsprechenden Auswertesoftware MapCHECK der Firma SunNuclear verwendet. Auf dem zylindrischen Phantom mit einer Länge und einem Durchmesser von 21 cm sind 1386 Dioden (0,8 x 0,8 mm) spiralförmig angeordnet. Die Detektoren zeigen ein- und austretende Strahlung, Vergleiche können sowohl zwischen zwei Messungen als auch zwischen einem Bestrahlungsplan und einer Messung gezogen werden. Die Detektoren mit größeren Abweichungen werden sofort farblich markiert. Für die Auswertung stehen zwei Analysemodelle zur Verfügung: Distance-to-Agreement- und GammaAnalyse. Ebenso kann zwischen einer absoluten und einer relativen Gegenüberstellung gewählt werden. Für jeden Modus sind beliebige Parameter eintragbar. Im KHDF werden alle Messungen mit den Bestrahlungsplänen anhand der Gamma-Analyse (3%, 3mm) verglichen. Die bisher ausgewerteten Patienten liegen bei einer Passrate zwischen 95% bis 100%. Nur in seltenen Fällen lag die Erfolgsquote zwischen 85% und 95%. Abb. 1 P10.06 Klinische Implementation und Erfahrungen mit VMAT am KH Dresden-Friedrichstadt S. Pensold, H. Tümmler, P. Schilling, K. Merla, B. Theilig; Krankenhaus Dresden-Friedrichstadt, Dresden, Germany. In der Praxis für Strahlentherapie am Krankenhaus DresdenFriedrichstadt kommt seit September 2010 die Volumetric-ModulatedArc-Therapy (VMAT) zum Einsatz. Nach einer weiteren Umbauphase im Januar 2011 sind nun 2 Clinac-Beschleuniger der Firma Varian in der Lage intensitätsmodulierte Rotationsbestrahlungen durchzuführen. Bisher wurden insgesamt 140 Patienten, bzw. ca. 200 Bestrahlungspläne (Stand 30.3.2011) mit dieser Technologie bestrahlt. Vorwiegend kommt das VMAT-Verfahren bei Tumoren im Abdomen-, bzw. Beckenbereich zum Einsatz (Prostata 48,8%, Rektum 24,0%, Becken 9,6%), aber auch HNO-Tumore sind bereits behandelt worden (10,4%). Vor der Inbetriebnahme der VMAT-Technik erfolgte eine umfangreiche Messung zur Stabilität und erreichbaren Genauigkeit. Wir folgten im Wesentlichen den Empfehlungen aus der Veröffentlichung „Commissioning and Quality Assurance of RapidArc™ Radiotherapy Delivery System“ (Ling et al., Int. J. Radiation Oncology Biol. Phys., Vol. 72, No. 2, pp. 575-581, 2008). Hier wurden verschiedene Faktoren während einer VMAT-Bestrahlung überprüft, zum Beispiel die Leafpositionierung für eine Vollration (Gartenzauntest), sowie die Genauigkeit der Regelung der Dosisleistung in Abhängigkeit von Gantryund Leafgeschwindigkeit. Die Auswertung erfolgte anhand von Filmen (Kodak X-OMAT). Die Genauigkeit der Leafpositionierung bei einer Vollrotation lag bei 0,5 mm, die Abweichungen der Homogenität in den beiden anderen Tests (Dosisleistung/ Gantrygeschwindigkeit; Dosisleistung/ Leafgeschwindigkeit) waren jeweils kleiner als die vom Hersteller angegebenen 2 % im Vergleich zu einem offenen Feld. Beispielhaft wird das in folgender Tabelle für den Test der Gantrygeschwindigkeit zur Dosisleistung veranschaulicht. Leafposition -3cm -1cm 0cm 1cm 3cm 5cm 7cm Abweichungen 1,59% -0,11% -0,04% -0,09% -0,67% -0,93% 0,26% Tabelle 1. Auswertung Dose-Rate Gantry-Speed Tests Für Bestrahlungspläne mit niedriger Passrate wird zur Zeit mit Hilfe eines weiteren Verfahrens eine Kontrollmessung durchgeführt. Dazu wird das Flachdetektorsystem „Portal Vision“ der Firma Varian benutzt, welches sich direkt am Beschleuniger befindet. Eine adäquate Auswertung der Messergebnisse steht jedoch noch aus und soll in den nächsten Monaten erfolgen. P10.07 Verifikation der (Rotations) IMRT - ein Systemvergleich 1 1 1 1 1 B. Mitterlechner , F. Merz , P. Kopp , C. Gaisberger , H. Schöller , S. 2 2 1,2 1,2 Huber , M. Mooslechner , F. Sedlmayer , H. Deutschmann ; 1 Universitätsklinik für Radiotherapie und Radio-Onkologie, Salzburg, 2 Austria, Institut für Technologieentwicklung in der Strahlentherapie radART der Paracelsus Medizinischen Privatuniversität, Salzburg, Austria. Einleitung: Mittels komplexer Bestrahlungstechniken wie der intensitätsmodulierte Radiotherapie (IMRT im step & shoot oder sliding window Verfahren) und Rotations-IMRT (IMAT/VMAT/Rapid Arc) können die Homogenität im Zielvolumen verbessert, die Dosisbelastung von umliegendem Normalgewebe reduziert und dadurch die Dosis im zu bestrahlenden Tumorvolumen eskaliert werden. Die Überprüfung der Übereinstimmung von geplanter und abgegebener Dosis ist in diesem 127 Zusammenhang obligat. Methoden: Ziel dieser Arbeit war es, einen Literaturüberblick zu bestehenden Methoden, die Zusatzausrüstung (Messmittel, Phantome) benötigen oder sich einfach des Electronic Portal Imaging Devices (EPID) bedienen, zu verschaffen und diesen kritisch zu reflektieren. Hierfür wurde die Literatur zu den Methoden von PTW Octavius + PTW Seven29, Scandidos Delta4, IBA Dosimetry MatriXX, Theraview Technology TheraViewCL bzw. TheraViewNT/iGT, Sun Nuclear EPIDose/ ArcCheck und Portdose Portal Dosimetry Software der NKI AvL Gruppe sowie unsere eigene Arbeit (Flat Panel Dosimetrie mit open-radART) verglichen. Ergebnisse: Es kann zwischen drei unterschiedlichen Verfahren zur Dosisverifikation unterschieden werden: Den kommerziellen Lösungen, die zusätzliche Hardund Software unabhängig vom Linearbeschleuniger benötigen, den Methoden mit zusätzlicher Hardund Software im Zusammenspiel mit dem EPID sowie den Methoden zur Verifikation mittels EPID mit zusätzlicher Software. Gemäß Literatur sind die Messergebnisse der Methoden von PTW, SUN Nuclear (ArcCheck), ScandiDos, IBA miteinander vergleichbar (Dosismessgenauigkeit innerhalb 3%), die Systeme unterscheiden sich durch die Art der Kalibrierung bzw. durch den Messaufwand, sowie auch durch deren Detektorauflösung. Bei den Messungen mittels EPID sind die dosimetrischen Messgenauigkeiten mittels neuer Korrekturen mit den oben genannten Methoden vergleichbar, jedoch ist das Ergebnis stark von der zugrundeliegenden EPID Qualität (Alterung, Strahlenschäden) abhängig. Zusammenfassung/ Diskussion: Für die dosimetrische Verifikation von Bestrahlungsplänen sind Verfahren in einem Genauigkeitsbereich von rund 3% kommerziell erhältlich. Um den durch das EPID entstehenden Vorteil der integrierten in-vivo Patientendosimetrie (online möglich) ausbauen zu können, müssen Methoden zur Verbesserung der EPID Bildqualität und Korrektur der temperaturabhängigen Artefakte entwickelt werden und in die Produkte der Hersteller einfließen. Andernfalls werden die Messergebnisse durch alternde Detektoren und somit schlechterer Bildqualität verfälscht. P10.08 Linac based radiosurgery and hypofractionated radiotherapy combining dynamic conformal arcs and IMRT fields 1 1 2 1 D. Schmidhalter , M. Malthaner , A. Pica , E. J. Born ; Division of Medical Radiation Physics, Inselspital - University of Bern, 2 Bern, Switzerland, Department of Medical Radiation Oncology, Inselspital - University of Bern, Bern, Switzerland. 1 Introduction: Radiosurgery and hypofractionated radiotherapy are known methods for many different tumors especially in the cranial region. One imported example is the treatment of brain metastases. At the Inselspital in Bern we often use a combination of dynamic conformal arcs (DARCs) and intensity modulated radiation therapy (IMRT) to treat such lesions. The aim of this work was to compare treatment plans combining DARCs and IMRT fields with pure DARC plans. Material and methods: In the DARC only method (DARC method), the treatment plan consists of five DARCs. In the second method (combined method), a combination of three DARCs and 3 to 4 IMRT fields was used. The fields in the combined method were arranged into two different groups: The DARC and the IMRT group. The contribution of the two groups to the total dose can be selected by the user (group weighting factor). Using the combined method, the dose distribution was first calculated for the DARC group. Then the optimization of the IMRT fields was carried out in a second step based on the previously calculated dose distribution. The treatment planning was performed with the RTDose module (version 4.1.2) within the treatment planning software iPlan (Brainlab). The plans were treated with the linear accelerator Novalis TX (Varian, Brainlab) where the patient setup was carried out using the ExacTrac X-ray system in combination with a robotic 6D couch (Brainlab). Results: For the combined method the dose homogeneity inside the PTV is clearly increased in almost all cases compared with the DARC method. An example of a dose volume histogram (DVH) for one case is shown in figure 1. The dose distribution is more conformal to the PTV when using the combined method, especially if the PTV had a convex shape. The treatment plans of both methods can be delivered within about 30 minutes (patient setup included). Discussion: In our clinic the group weighting factor is chosen in such a way, that the maximum dose in the target volume from the DARC group equals approximately the prescribed dose. Using the combined method and aiming in a dose distribution as homogeneous as possible, the fluence maps of the IMRT fields normally result in high values at the edge of the fields because they compensate the underdosage yielded by the DARCs in these regions. These hot beamlets can cause some problems in pretreatment QA measurements (small field dosimetry). Additionally, an accurate patient setup is very important. However, to 128 reduce these problems one can use the option 'hot beamlet reduction' available in the iPlan software. Additionally, the beamlet size should not be chosen too small. Conclusion: In linac based radiosurgery or hypofractionated radiotherapy it is possible to combine DARCs and IMRT fields for treatment. Although the combined method is more crucial in terms of QA compared with the DARC method, the treatment plan quality is improved and has the potential of a better patient care. P10.09 Impact of dose rate variation in RapidArc planning E. Vanetti, G. Nicolini, A. Clivio, A. Fogliata, L. Cozzi; IOSI, Bellinzona, Switzerland. Purpose: An investigation was performed to evaluate the robustness and mutual interplay of two variables concurring to generate modulation patterns of the Varian implementation of Volumetric Modulated Arc Therapy (VMAT), RapidArc. Dose Rate (DR) and Gantry Speed (GS) are free parameters optimized alongside field aperture shape by the RapidArc engine; however they are limited by machine constraints, and mutually compensate in order to deliver the proper MU/° during the gantry rotation. Methods: Four test cases (one geometrical and three clinical (head and neck, prostate, lymphoma)) were selected and RapidArc plans were optimized using maximum allowed dose rates from 100 to 600 MU/min. The maximum gantry speed was fixed to 4.8°/s. The RapidArc Progressive Resolution Optimization Algorithm (PRO) was used in its 8.6 version; it was also known as PRO-II, which was kept without substantial modifications until version 8.9 included. For all maximum dose rates, the same planning objectives (both in terms of dose-volume constraints and priorities) were used, and in no case any interactive adjustment was performed during the optimization phase. Qualitative analysis of DR and GS patterns from these cases was summarized together with quantitative assessment of delivery parameters; in particular, all the so-called dynamic log files generated by the Linac Controllers were analyzed. Pre-treatment quality assurance measurements and scoring of plan quality aimed to determine whether preferable initial conditions might be identified, or the optimization engine might be invariant to those variables and capable of providing adequate plans independently from the limits applied. Results: The results of the study were: i) high dynamic range in MU/deg is achievable across all dose rates by means of gantry speed modulation; ii) there is a robust compensation mechanism between the two variables; iii) from a machine delivery point-of-view, slightly improved accuracy is achieved when lower DRs are applied; however, this does not have practical consequences since measurements and plan evaluation showed a lack of clinically relevant deviation; iv) reduced total treatment time is a major advantage of high DR. Conclusion: A trend towards improved plan quality for clinical cases was observed with high DR but cannot be generalized, due to the limited amount of cases investigated and the consequent limited significance of the observed differences. As a minimum benefit, the reduced total treatment time should be considered as well. P10.10 Verifikationsanalyse von Rapidarc Plänen mit zwei Messgeräten in Bezug auf Sensitivität und Gamma-Index als Akzeptanzkriterium 1,2 1 2 G. Heilemann , B. Poppe , W. Laub ; Carl-von-Ossietzky Universität Oldenburg, Oldenburg, Germany, 2 Oregon Health & Science University, Portland, United States. 1 Einleitung: Ziel der Studie ist die Charakterisierung der Sensitivität zweier Detektorarrays bezüglich kleiner MLC Positionsfehler und Gravitationseffekten. Es wird untersucht inwieweit beide Messgeräte eine ausreichend hohe Sensitivität aufweisen. Eine weiter wichtige Fragestellung ist die Untersuchung, ob sich das weit verbreitete globale Akzeptanzkriterium „Prozentzahl der akzeptierten Kammern nach einer Gamma-Index Analyse 3%/3mm“ für die IMRT Planverifikation als geeignet erweist. Methode: In insgesamt elf klinischen Rapidarc Plänen wurden verschiedene MLC Positionsfehler mittels einer eigens erstellen Software eingeführt, darunter fünf Prostata Fälle (zwei Arcs), drei Head&Neck Fälle mit zwei Arcs sowie drei Head&Neck Fälle mit je drei Arcs. Vier Typen von MLC Manipulationen wurden mit allen Rapidarc Plänen durchgeführt: (1) alle aktiven Lamellen werden für jeden Kontrollpunkt um 0,25mm, 0,50mm und 1.00mm geöffnet, (2) alle aktiven Lamellen werden um 0.10mm, 0.25mm und 0.50mm geschlossen, (3) alle aktiven Lamellen werden um 1mm, 2mm und 3mm in dieselbe Richtung geschoben, um die Wirkung von Gravitationskräften auf den MLC zu simulieren, (4) 25%, 50% und 75% aller aktiven Lamellen werden analog zu (3) um 3mm verschoben. Der Originalplan und die modifizierten Pläne wurden sowohl mit dem Octavius 2DARRAY (PTW-Freiburg) als auch mit dem Delta4 (Scandidos) gemessen und anhand der Gamma-Index-Kriterien 3%/3mm und 2mm/2% verglichen. Darüber hinaus wurden die modifizierten Pläne in Eclipse importiert, um den klinischen Effekt der Modifikationen auf die Dosis im Zielvolumen zu untersuchen. Ergebnisse: Das Standardkriterium für Verifikationsmessungen mit dem Gamma-Index von 3%/3mm reicht nicht aus, um Fehler in der untersuchten Größenordnung zu entdecken. Der Import der modifizierten Pläne hat signifikante Dosisunterschiede im Zielvolumen aufgezeigt, die mit 3%/3mm unerkannt bleiben und Aktzeptanzraten von über 90% erreichen. Schon die mittlere Modifikation mit einem um 0.50mm geöffneten MLC (Typ 1) führt zu einer um 2% erhöhten durchschnittlichen Dosis im Zielvolumen. Die Messungen mit beiden Geräten erreichen mit dem Standardkriterium 3%/3mm Passing-Rates von über 97% und unterscheiden sich somit kaum von dem Originalplan. Die Modifikationen vom Typ 3&4 verändern die maximale und minimale Dosis des Zielvolumens drastisch. So wird die minimale Dosis im Zielvolumen für die größte Gravitationsverschiebung von 3mm um 6%15% gesenkt und die maximale Dosis, die das Zielvolumen abbekommt um 3%-9% erhöht. Diese modifizierten Pläne erreichen mit 3%/3mm Passing-Rates zwischen 91% und 97% und würden so bei der Verifikation unerkannt bleiben. Für die Messungen wird daher das strengere Kriterium 2%/2mm benutzt, damit diese klinisch relevanten Fehler auch tatsächlich in den Verifikationsmessungen detektiert werden können. Bei den untersuchten Fällen fällt die Passing-Rate unter den definierten Grenzwert von 90% aller Detektoren für die jeweils größte simulierte Modifikation, während die kleinste Modifikation aller vier Fehlertypen in den meisten Fällen kaum Unterschiede zu der Verifikationsmessung des Originalplans aufweist. Diskussion: Beide Geräte sind in der Lage MLC Positionsfehler in der untersuchten Größenordnung mit einem Gamma-Index-Kriterium von 2%/2mm zu erkennen. Das Standardkriterium von 3%/3mm reicht für die verwendeten RapidArc Pläne nicht aus, um kleine, aber klinisch signifikante Fehler zu detektieren. Darüber hinaus zeigt die Studie, dass der Prozentsatz der akzeptierten Kammern nicht als alleiniges Kriterium bei der Verifikationsanalyse ausreicht, sondern auch eine lokale Analyse der Abweichungen erforderlich sein kann. P10.11 Untersuchung von MLC-Parametern für die dynamische IMRT M. Bähr, F. Wetzel; Städtisches Klinikum Braunschweig, Braunschweig, Germany. Ziel: Für die Berechnung der Dosisverteilung bei dynamischer IMRT (sliding window) benötigt das Planungssystem Eclipse der Fa. Varian die energieabhängigen Parameter Leaf Transmission und dosimetric leaf gap. Beide Parameter wurden in Abhängigkeit von Energie, Feldgröße, Messtiefe und Gantrywinkel bestimmt. Material und Methode: Die Messungen wurden an einem Clinac DHX (Fa. Varian) für die beiden Photonenenergien 6 MV und 10 MV in einem Plexiglasphantom und mit einer 0.3 cm³-Stielkammer (23332) der Fa. PTW durchgeführt. Messort war das Isozentrum. Es wurden die Parameter bei den Feldgrößen 5x5, 10x10 und 15x15 cm² in den äquivalenten Wassertiefen von 6, 10 und 15cm bestimmt. Um den Einfluss der Bewegungsrichtung der Leafs auf den dosimetric leaf gap zu erhalten, wurden die Messungen bei den Gantrywinkeln 0°, 90° und 270° durchgeführt. Die Leaf-Transmission wurde neben dem Zentralstrahl zusätzlich in der Mitte eines jeden Quadranten gemessen. Die Leaf-Transmission errechnet sich aus dem Verhältnis der Dosen aus offenem und durch MLC geschlossenem Feld. Die Bestimmung des dosimetric leaf gap erfolgte nach der Verfahrensanweisung der Fa. Varian, für die die Dosis bei dynamischen Feldern mit unterschiedlich großem Leafspalt gemessen wird. Ergebnisse: Bei beiden Photonenenergien nimmt die Transmission mit der Feldgrösse und der Messtiefe zu. Bei 6/10MV variiert die Transmission vom kleinsten Feld zum größten Feld bei einer Messtiefe von 10cm um 9% und auch bei zunehmender Messtiefe in der jeweiligen Feldgröße nimmt die Transmission zu. Feldgröße (cm²) 5x5 10x10 15x15 6MV 0,0146 0,0152 +/- 0,004 0,0161 +/- 0,004 10MV 0,0167 0,0169 +/- 0,005 0,0182 +/- 0,004 Transmission der Photonenenergien bei einer Messtiefe von 10cm Eine Änderung der Transmission in den jeweiligen Quadranten wurde nicht nachgewiesen. Der dosimetric leaf gap nimmt bei beiden Photonenergien mit zunehmender Feldgrösse und Messtiefe ab, bei 6 MV um ca. 10% und bei 10MV um 5% bei einer Messtiefe von 15cm. Feldgröße (cm²) 5x5 10x10 15x15 6MV 0,198 0,187 0,179 10MV 0,250 0,241 0,239 Dosimetric leaf gap der Photonenenergien bei einer Messtiefe von 15cm Bei der Untersuchung des Einflusses der Bewegungsrichtung der Leafs zeigt sich keine signifikante Abhängigkeit bei den verschiedenen Gantrywinkel. Schlussfolgerungen: Eine Zunahme der Transmission bei zunehmender Feldgröße kann damit erklärt werden, das zum einen das offene Feld grösser ist und die Kammer somit mehr Dosis detektiert und zum anderen ist die Interleafstrahlung bei geschlossenen MLC größer da die Blenden bei zunehmender Feldgröße weiter aufgefahren werden. Der dosimetric leaf gap dagegen nimmt mit zunehmender Feldgrösse und Messtiefe ab. Für die Konfiguration des Planungssystems haben wir uns für die Werte bei FG 10x10cm² in der Tiefe von 10cm entschieden, weil nach Durchsicht von 50 IMRT-Planungen diese dem Durchschnitt der tatsächlichen Strahlgeometrien am ehesten entsprechen. Die Überprüfung der Dosisberechnung mittels Portal-Dosimetrie verlief bisher zufriedenstellend. Transmission Dosimetric Leaf gap 6MV 0,0152 0,188 10MV 0,0169 0,239 Werte für das Planungssystem P10.12 Validierung des rechnerischen und messwertgestützten Planverifikationssystems COMPASS anhand von volumenmodulierten Rotationsbestrahlungsplänen im Kopf-Bereich R. Hielscher, D. M. Wagner; Universitätsmedizin Göttingen, Strahlentherapie und Radioonkologie, Göttingen, Germany. Einleitung: Bei der volumenmodulierten Rotationsbestrahlung (engl. VMAT) werden durch optimaler Modellierung der dynamischen Multileafkollimatoren (MLC) Feldformen und Dosisleistung optimiert, um das vorgegebene Zielvolumen optimal zu erfassen und gleichzeitig umliegende Organe und Gewebe optimal zu schonen. Zur Gewährleistung der Genauigkeit wird jeder dynamische Bestrahlungsplan vor der ersten Bestrahlung patientenbezogen verifiziert. Mit Hilfe des COMPASS Systems (IBA Dosimetry, Schwarzenbruck, Deutschland) kann die Dosisverteilung rechnerisch und messwertgestützt dreidimensional rekonstruiert und mit dem Planungssystem verglichen werden. Das benötigte Beammodell im COMPASS System wird zuvor an den verwendeten Linearbeschleuniger angepasst. Ziel dieser Arbeit ist es, VMAT Bestrahlungspläne im KopfBereich durch ein unabhängiges Verifikationssystem zu überprüfen. Methode: Das COMPASS System besteht aus einem Flächendetektor (MatriXX-Evolution), montiert mittels Gantryhalter (SSD = 100 cm) direkt am Kollimatorkopf des Beschleunigers, einem Winkelsensor, sowie einem Softwareprogramm für Auswertung und Visualisierung der 129 erhobenen Ergebnisse. Nach der Optimierung und Berechnung der Dosisverteilung eines VMAT Bestrahlungsplans mittels Eclipse (Varian Medical Systems, Helsinki, Finnland) wurde der komplette Patientendatensatz exportiert und im COMPASS System importiert. Mittels des kommissionierten Beammodells in COMPASS wurde die Dosisverteilung von zehn VMAT Bestrahlungsplänen im Kopf-Bereich gemessen und rekonstruiert sowie berechnet. Zur Bestrahlung des Glioblastoms wird eine Gesamtdosis (GD) von 60 Gy mit einer Einzeldosis (ED) von 2 Gy verschrieben. Ein anderes Therapiekonzept im Kopf-Bereich sieht eine GD von 30 Gy (ED 2,5 Gy) auf das gesamte Gehirn mit einem integrierten Boost auf die Metastasenregion von GD 45 Gy (ED 3,75 Gy) vor. Zur Auswertung wurde das Dosis-VolumenHistogramm (DVH) mit den Grenzen 99% und 95% der Dosis im PTV, 100% der Dosis im CTV sowie 100% der Dosis im gesamten Gehirn, nicht mehr als 45 Gy im Rückenmark, nicht mehr als 6 Gy in den Linsen, nicht mehr als 54 Gy im Hirnstamm, Chiasma und Nervi Optici herangezogen. Ergebnisse: Der Vergleich der DVH von COMPASS berechneten sowie gemessenen VMAT Bestrahlungsplänen im Kopf-Bereich mit dem Bestrahlungsplans aus Eclipse zeigt gute Übereinstimmungen im PTV und den Risikoorganen (OAR). Die statistische Auswertung der Ergebnisse liefert Abweichungen unter 3%, wobei die gemessenen VMAT-Pläne im COMPASS geringere Abweichungen besitzen als die berechneten VMAT-Pläne im COMPASS. Des Weiteren ermöglicht die statistische Auswertung einen schnellen Überblick über etwaige Tendenzen der Dosisentwicklung im Zielvolumen und eine deutliche Warnung falls die gewählten Grenzwerte der OAR überschritten werden. Schlussfolgerung: Diese Arbeit zeigt die klinische Validierung des dreidimensional gestützten Verifikationssystems COMPASS für VMAT Bestrahlungspläne im Kopf-Bereich und einer übersichtlichen Darstellung der Ergebnisse für VMAT BestrahlungsplanQualitätskontrolle. Es konnte gezeigt werden, dass aus 2D Fluenzmessungen von VMAT Bestrahlungsplänen im Kopf-Bereich mit einem gültigen Beammodell und den entsprechenden Patientendaten die gemessene Dosisverteilung dreidimensional rekonstruiert werden konnte. P10.13 Klinische Implementierung des rechnerischen und messwertgestützten 3D Planverifikationssystems COMPASS für Rotationsbestrahlungspläne R. Hielscher, D. M. Wagner; Universitätsmedizin Göttingen, Strahlentherapie und Radioonkologie, Göttingen, Germany. Einleitung: Bei der volumenmodulierten Rotationsbestrahlung (engl. VMAT) werden durch optimaler Modulierung der dynamischen Multileafkollimatoren (MLC) Feldformen und Dosisleistung optimiert, um das vorgegebene Zielvolumen optimal zu erfassen und gleichzeitig umliegende Organe und Gewebe optimal zu schonen. Zur Gewährleistung der Genauigkeit wird jeder dynamische Bestrahlungsplan vor der ersten Bestrahlung patientenbezogen verifiziert. Mit Hilfe des COMPASS Systems (IBA Dosimetry, Schwarzenbruck, Deutschland) kann die Dosisverteilung rechnerisch und messwertgestützt dreidimensional rekonstruiert und mit dem Planungssystem verglichen werden. Ziel dieser Einführung ist es, das benötige Beammodell an die Beamdaten des verwendeten Linearbeschleunigers anzupassen, um die dynamischen Bestrahlungs-pläne durch ein unabhängiges Verifikationssystem überprüfen zu können. Material und Methoden: Das COMPASS System besteht aus einem Softwareprogramm und einer Hardwarekomponente. Der zweidimensionale Flächendetektor MatriXX-Evolution wird mittels Gantryhalter (SSD = 100 cm) direkt am Kollimatorkopf montiert. Der an die Gantry montierte Winkelsensor ermittelt nach Kalibrierung die Winkelposition und ist mit der MatriXX verbunden. Das Softwaresystem dient zur Visualisierung und Auswertung der erhobenen Messergebnisse. Zur Konfiguration des COMPASS Systems wurden für die Photonenenergie 6 MV Tiefendosiskurven, Querprofile und Outputfaktoren von nur mit MLC kollimierten quadratischen Feldern von 1x1 bis 40x40 cm² im Wasserphantom mittels Halbleiterdetektor aufgezeichnet. Mit Hilfe der COMPASS Software wurde aus den Messdaten das entsprechende Beammodell des verwendeten Linearbeschleunigers 2300 C/D (Varian Medical Systems, CA, USA) erzeugt. Quadratische Felder von 1x1 bis 30x30 cm², die nur mit Blenden begrenzt oder nur mit MLC begrenzt wurden, wurden mit der MatriXX aufgenommen und zur Optimierung des Beammodells herangezogen. Ergebnisse: Der erhobenen Photonenenergiedaten wurden erfolgreich in das COMPASS System importiert und im Anschluss das maschinenbezogene Beammodell errechnet. Die Überprüfung der Absolutdosimetrie erfolgte über einfache Bestrahlungspläne mit statischen, offenen Feldern unterschiedlicher Größe und Kollimierung. Die errechneten sowie gemessenen Ergebnisse lieferten einen 130 Dosisunterschied von weniger als 2% Abweichung. Dynamische Bestrahlungsfelder mit Sliding-Window Technik und unterschiedlicher Gap-Spanne zeigten gute Übereinstimmungen mit dem TPS. Schlussfolgerung: Die Maschinenparameter und aufgenommenen Energiedaten sind ausreichend für die Berechnung der Dosisverteilung mit dem verwendeten collapsed-cone Algorithmus. Nach erfolgreicher klinischer Kommissionierung (repräsentativer Patientenkollektiv sowie Fehlererkennung von manipulierten Plänen) besteht die Möglichkeit, entweder über Berechnung und/oder Messung mit Rekonstruktion der Dosisverteilung patientenbezogene Planverifkationen mit dem COMPASS System durchzuführen. P10.15 Two methods to improve IMRT QA with the Octavius system W. Seelentag, H. Schiefer, F. Herberth; Klinik für Radio-Onkologie, Kantonsspital St.Gallen, St.Gallen, Switzerland. Introduction: The Octavius verification system (PTW Freiburg, Germany) consists of a 2-D detector array (Seven29), positioned in a hexagonal phantom. A curved cavity in the lower half of the phantom used at the linac is supposed to correct for the increased absorption in the detector base plate. The correction works only imperfectly, however, for oblique beams, and cannot be adapted to individual detector properties. Two methods to improve this are presented. Material and methods: The "matrix method" is based on correction matrices representing the ratio of the calculated to the measured dose distribution of the Seven29 detectors, when a large single field covering the entire detector is applied. These matrices were determined at 36 angles between 0 and 180°, with varying angle resolution, depending on structural changes. For stationary fields at intermediate angles the corrections are interpolated. This method cannot be applied to arc fields. For the “m-Octavius method” correction factors for the central region were averaged from the matrix measurements over 10° intervals. These factors were converted to equivalent bolus thicknesses, and this bolus added to the phantom scans in the planning system. Whilst some degradation of the accuracy has to be expected, the resulting method can also be applied for arc therapies. For both methods the "linac phantom" is no longer needed. 10 IMRT plans with 5 to 7 static fields have been calculated for 6MV photon beams (Elekta Synergy) with Varian Eclipse (Version 8.6, AAA algorithm). The Gamma evaluation (3mm distance to agreement, 3% dose difference, suppress doses < 10% of maximum dose) has been performed with Verisoft (PTW, version 4.1). It has been assumed that a higher percentage of the area fulfilling the Gamma criterion for any given measurement implies a more reliable verification method. The original Octavius verification method (“PTW method” = CT phantom used for calculation and Linac phantom for measurement) is compared with the correction methods presented above. Results: When the local dose criterion is applied, the Gamma criterion (averaged over the 10 plans) is fulfilled by 87.3% ± 4.1% (PTW), 94.8% ± 3.2% (matrix) and 93.5% ± 3.7% (m-Octavius). The corresponding values for the global criterion are: 97.0% ± 2.1%, 99.6 %± 0.2% and 99.1% ± 0.6%. When the matrix correction method is taken as a gold standard, the deviations between calculation and measurement as determined by the PTW verification method are caused by more than the half by measurement errors of the Seven29 array. The values of the matrix and the m-Octavius method differ by less than 1%. Discussion: When compared to the PTW verification, both verification methods presented here reduce the number of erroneously detected deviations between calculation and measurement by some 50 %, which is considered an important improvement. For both methods, the Linac phantom is no longer needed. Due to the similarity of the angular sensitivity dependency, the m-Octavius method can be implemented easily with arbitrary detectors. P10.16 IMRT-QA mit dem Octavius II-System (Fa. PTW) - ein Erfahrungsbericht 1 1 1 1 U. Heinrichs , C. Bornemann , M. Caffaro , N. Escobar Corral , A. 1 2 1 Schmachtenberg , H. Wirtz , M. J. Eble ; 1 Klinik für Strahlentherapie, Universitätsklinikum Aachen, Aachen, 2 Germany, Gemeinschaftspraxis für Strahlentherapie, Singen, Germany. Die Tumortherapie mittels Intensitätsmodulierter Radiotherapie (IMRT) ist eine innovative Behandlungstechnik, die sowohl die Feldbegrenzung als auch die Dosis innerhalb der Feldfläche individuell moduliert. In der Klinik für Strahlentherapie des Universitätsklinikums Aachen werden seit 2010 jährlich etwa 500 von insgesamt ca. 1500 Patienten mit dieser Technik behandelt. Dabei entfallen ca. 35% auf urologische, ca. 21% auf Kopf-Hals-, ca. 13% auf Lungen-, ca. 10% auf Verdauungstrakt-, ca. 5% auf ZNS sowie ca. 4% auf gynäkologische Tumore. Planung und Bestrahlung werden mit dem Programm Pinnacle Version 8.0 m (Fa. Philips) und zwei Linearbeschleunigern der Fa. Elekta (Precise und SLiPlus) realisiert. Nach DIN 6875-3 (03-2008) ist für diese Art der Strahlentherapie eine patientenbezogene Qualitätssicherung vorgeschrieben. Ein großer Nachteil bei dieser Vorgabe ist allerdings, dass definitive Aussagen zum einzusetzenden Equipment sowie zur optimalen Wahl der verschiedenen Prüfparameter von der Planung über die Bestrahlung bis hin zur Auswertung in der Norm fehlen. Hinweise zur Nutzung der angebotenen Prüfeinrichtungen, zur Auswertung der Messungen und zur Bewertung der Ergebnisse, letztendlich zur Beurteilung der Bestrahlungspläne, sind in Begleitdokumenten und in der zugänglichen Literatur, wenn überhaupt, nur zeitaufwendig zu finden. Für eine zügige einheitliche Einführung einer IMRT-Qualitätssicherung und eine internationale Vergleichbarkeit der Ergebnisse sind diese Voraussetzungen wenig zufriedenstellend. Insellösungen einzelner Einrichtungen sind daher keine Seltenheit. Vergleiche der Ergebnisse unterschiedlicher Vorgehensweisen sind aufgrund individueller Parameterwahl in der langen Kette von Vorbereitung bis Auswertung der Qualitätssicherung nur sehr eingeschränkt möglich. Mit dem Ziel, zukünftigen IMRT-Anwendern die Einführung der Qualitätssicherung zu erleichtern, ist aus der Implementierung des Prüfverfahrens in Aachen zusammen mit der Firma PTW ein Leitfaden entstanden. Dieser basiert auf der Kombination von Pinnacle als Planungssoftware und den PTW-Komponenten 2D-Array729 und dem Phantom Octavius sowie der Mess- und Auswerte-Software Verisoft. Dargestellt werden die einzelnen Schritte beginnend mit dem PlanungsCT des Phantoms, über die Planung in und den Export aus Pinnacle bis hin zur Auswertung und zum Vergleich der gemessenen mit der berechneten Fluenzverteilung. Hierzu sind folgende Punkte kritisch zu betrachten: inwieweit wird das Ergebnis der Qualitätssicherung beeinflusst durch die Einstellungen am CT bei der Aufnahme des Phantoms, durch die Vorgabe von Optimierungsparametern bei der IMRT-Bestrahlungsplanung, die Eigenschaften der verwendeten Geräte und die Einstellungen der Auswertesoftware? Wie aussagekräftig ist ein in einem homogenen Phantom erzieltes Ergebnis für Dosisverteilungen im Patienten, die mit Hilfsstrukturen geringer Dichte, z.B. im Randbereich von Luftkavitäten, bei der Bestrahlungsplanung erstellt werden? Eine besondere Betrachtung erfahren der oft zur Beurteilung herangezogene Gammaindex und die damit verbundenen Werte für die Dosis- und Abstandstoleranz. Besonders interessant sind dabei die feinen Unterschiede der Verwendung eines lokalen oder globalen Dosisbezugs bzw. einer theoretischen zwei- oder dreidimensionalen Dosisverteilung hinsichtlich des Abstandes. Diese Arbeit möchte mit ihren Ergebnissen zur Beantwortung der Frage, wann ein Plan als sicher bestrahlbar gilt, beitragen und die internationale Diskussion unterstützen, inwieweit eine IMRT-Qualitätssicherung in Zukunft vereinfacht und standardisiert werden kann. P10.17 Einsatzmöglichkeiten des 2D-array seven29 mit dem Oktavius Phantom der 2. Generation in der Qualitätssicherung der helikalen IMRT 1 2 2 1 2 R. Fouassi , T. Müdder , F. Schoroth , K. Zink , S. Garbe ; Technische Hochschule Mittelhessen / Institut für Medizinische Physik 2 und Strahlenschutz, Giessen, Germany, Radiologische Universitätsklinik, Bonn, Germany. 1 Zielsetzung: In der patientenbezogenen Qualitätssicherung (PQA) kommt es während der helikalen IMRT am Tomotherapy Hi-Art II Systems bei der Dosisverifikation des Bestrahlungsplan in Anwesenheit großer Dichteinhomogenitäten häufig zu Abweichung. Im Rahmen dieser Untersuchung werden diese Abweichungen durch Messungen in Anwesenheit von verschiedene Inhomogenitäten bzw. Dichten betrachtet. Hierzu kommt das 2D-array seven29 mit dem neuen Oktavius-Phantom der 2. Generation (PTW, Freiburg) zum Einsatz. Material und Methoden: Für die helikale IMRT kommt in der PQA routinemäßig das 2D-array seven29 mit Oktavius-Phantom zum Einsatz. Um die Eignung des Oktavius-Phantoms der 2. Generation in Bezug auf die PQA zu untersuchen, werden am Tomotherapy Hi-ART II System wird es mit zwei weiteren dosimetrischen Messmethoden verglichen; Ionisationskammermessungen mit (Exradin A1SL, Standard Imaging) und Filmdosimetrie (Kodak, EDR2). Ebenfalls wird das OktaviusPhantom der 1. Generation als Vergleich hinzugezogen. Das Oktavius-Phantom der 2. Generation ist ein achteckiges wasseräquivalentes Festkörperphantom mit zwei Einschubvorrichtungen, ein Einschub zur Aufnahme des Ionisationskammerarrays, die Ionisationskammervorrichtungen und eine Kassette für Filme, der andere Einschub für z.B. die Aufnahme von Inhomogenitäten. Das Oktavius-Phantom der 2. Generation besteht aus 2 Phantomenteilen und wird über einen Verschlußmechanismus verbunden. Für die PQA-Messungen wird das 2D-Array in das Oktavius-Phantom eingeschoben. Das Phantom mit dem 2D-Array wird auf der Patientenliege positioniert und mit Hilfe des Laserpositionierungssystems auf die wünschte Position hin ausgerichtet. Nach der Bestrahlung werden mit Verisoft (Vers 4.0, PTW-Freiburg) die Messdaten mit vorher berechneten Dosiswerten aus dem Bestrahlungsplanungssystem über eine Gamma-Analyse verglichen. Bei den Messungen mit der Ionisationskammer wird das Elektrometer Unidos (PTW, Freiburg) verwendet. Es wurde an 4 Stellen einer heterogenen Standarddosisverteilung mit den Ionisationskammern gemessen. Für die Filmmessung erfolgt zuerst eine Filmkalibration, dabei der Film mit zwischen Dosiswerten von 0.25 bis 2.72 Gy in 11 Schritten bestrahlt. Der kalibrierte Film wird zusammen mit den bestrahlten Filmen mit einen Scanner (Epson 11000) gescannt. Die Auswertung geschieht mit der Tomotherapy Analysis-Software in Form von Dosisprofilen und einer Gamma-Analyse. Die verwendeten Inhomogenitäten für den zweiten Einschub waren Plexiglas, Gewebe, Lunge und Knochen. Ergebnisse: Die Auswertung der Messungen mit dem 2D-array im Lungenbereich zeigte eine geringe Verbesserung <2% zu den Messungen mit dem Phantom der 1.Generation. Die geringsten Abweichungen bei den Messungen mit Inhomogenitäten gab es bei der Anordnung (Gewebe, Lunge und Knochen). Dort lagen Verbesserungen lagen zwischen bei ca. 0.5 % sonst bei ca. 3% im Vergleich zu den Messungen mit dem Oktavius-Phantom der 1.Generation. Die Abweichungen an den vier Messpunkten zwischen den gemessenen und berechneten Messwerten bei den Ionisationskammermessungen betrugen bis zu 6%, da eine genaue Ortsbestimmung innerhalb der IMRT-Dosisverteilung sich als schwierig erwies. Die Messungen mit dem Film zeigten eine Abweichung von etwa 10% im Hochdosisbereich. Schlussfolgerung: Zusammenfassend lässt sich sagen, dass der Einsatzmöglichkeit des 2D-array seven29 mit dem Oktavius- Phantom der 2. Generation in der PQA der helikalen IMRT geeignet ist. Mittels der durchgeführten Messungen zeigte sich eine Verbesserung hinsichtlich der Messung mit dem 2D-array. Bei der Verifikation von Bestrahlungsplänen im Lungen- und Kopfhalsbereich (große Kavitäten) treten immer noch Dosisverifikation mit Abweichungen über 5% auf. Die Ursache für diese Abweichungen ist Gegenstand laufender Untersuchungen. P10.18 Filmless pre-treatment verification on Helical Tomotherapy C. Heine, T. Hauschild, S. Pönitz, T. Koch; Praxis für Strahlentherapie und Radioonkologie, Sozialstiftung Bamberg - MVZ am Bruderwald, Bamberg, Germany. Introduction: Advanced techniques in radiotherapy like intensitymodulated radiotherapy (IMRT) with Helical Tomotherapy have the potential to improve the conformity of dose distribution of the target while sparing organ of risks from higher radiation doses. Because of German requirements of the regulatory agencies it is mandatory to measure a plan before the first treatment. For this reason it was necessary to establish a method to get faster results in comparison to a film based DQA in two-dimensional (2D) plane. This demands for pre-treatment verification measurements a fast, precise and stable method to verify the three-dimensional (3D) dose distribution. Material and Methods: In April 2009 we realised the first steps with the 4 Delta from Scandidos and in July 2010 with the ArcCHECK from Sun 4 Nuclear. Since June 2009 we use for our DQA measurements the Delta and since September 2010 the ArcCHECK in clinical practice. We implanted both systems on the TomoThearpy™ HiArt™ unit for our typical DQA measurements from treatment plans. These are typical diseases like prostate cancer, head and neck tumours, multiple bone metastases, breast cancer and additional stereotactic body radiation therapy (SBRT). Till today we have realized over 600 DQA 4 measurements on the Tomotherapy unit (over 450 with the Delta and over 150 with the ArcCHECK). Results and Discussion: For establishing a QA-Plan for these systems, there is no difference in time than for any other system. Planning and transfer needs a short time. 4 The accomplishment of the DQA with the Delta and the ArcCHECK on the Tomotherapy unit is easy and fast performed. After the measurements the results are directly available. In all cases it is possible to achieve accurate results of more than 95 % measurement points in the 3mm/3% gamma-criterion (Gamma-Index). In order to avoid larger deviation, it is recommendable to realize a measurement of the daily output constancy of the Tomotherapy unit before. 131 Conclusion: The filmless 3D-dosimetric verification from treatment 4 plans on TomoTherapy™ HiArt™ it easily performed with Delta and ArcCHECK. It is possible to get accurate DQA measurements and results in a short time. P10.19 Flattening filter-free beams for extreme hypofractionated radiotherapy of localized prostate cancer 1 1 1 1 1 S. Lang , G. Studer , K. Zaugg , S. Klöck , U. M. Lütolf , D. R. 1,2 Zwahlen ; 1 2 University Hospital Zürich, Zürich, Switzerland, Kantonsspital Graubünden, Chur, Switzerland. Background: We tested the ability to approximate the dose of 38Gy in 4 fractions and distribution of flattening filter-free (FFF) photon beams for prostate cancer with TrueBeam® linear accelerator stereotactic body radiotherapy (SBRT) plans. First observations of FFF SBRT planning study are reported. Material and methods: Treatment planning study was performed on CT scans of 7 patients with localized carcinoma of prostate using 10MV FFF photon beams (X10FFF) of TrueBeam® linear accelerator (Varian Medical Systems). Planning target volume (PTV) included the prostate and base of seminal vesicles defined by MRI and CT imaging, plus a 2mm volume expansion in all directions, except posterior, where the prostate abutted the rectum and expansion was reduced to zero. Urethra and rectum were identified on MRI and CT imaging and delineated on CT where PTV was present only. Volumetric intensity modulated arc therapy (VMAT) plans were prepared in Eclipse treatment planning system (PRO 8.9, AAA 8.9). The prescribed dose (PD) was 4 x 9.5Gy = 38Gy. PTV coverage was 95% of PD, allowing maximum dose of 200% of PD. Maximum dose (Dmax) for organs at risk (OAR) including rectum and rectal mucosa was 100% and 75%, for urethra and bladder 120% of PD, respectively. Two 360° arcs with maximum dose rate of 2400 monitor units (MU)/min were used. Plans were normalized to Dmax. Number of MU, treatment delivery time, dose parameter for PTV coverage and dose to OAR were recorded. Results: Prescription isodose was 74.8-81.0%. PTV coverage, urethra, rectum and bladder statistics are shown below: PTV V100 (%) PTV D90 (Gy) Urethra Dmax (Gy) D10 Urethra (Gy) D50 Urethra (Gy) Rectum Rectal mucosa Dmax (Gy) Rectal mucosa D1 (Gy) Rectal mucosa D10 (Gy) Rectal mucosa D25 (Gy) Bladder Bladder Dmax (Gy) 132 On average 3677MU ± 542 were used and maximum dose rate was 1462 - 2400MU/min. Average dose rate was 1961MU/min ±468. Treatment delivery time for all patients was 2min. Conclusion Non-invasive FFF SBRT is feasible and dose constraints for PTV coverage and OAR are met. Homogeneous target coverage is achieved while sparing urethra and rectum. FFF SBRT for localized prostate cancer allows fast and safe delivery of extreme hypofractionated RT and minimizing impact of organ motion. Mean ± 1 Standard Deviation 97.72 ± 0.16 39.15 ± 0.13 41.42 ± 1.07 40.47 ± 0.81 39.71 ± 0.78 9.04 ± 1.50 28.95 ± 1.07 27.47 ± 0.98 21.99 ± 1.15 14.77 ± 2.31 3.34 ± 1.51 35.92 ± 2.39 P10.20 Early clinical experience with hypofractionated volumetric arc radiotherapy of lung tumors using flattening filter free (FFF) beams at maximum dose rate 1 1 1,2 1 1 1 S. Lang , S. Graydon , J. Hrbacek , A. Tini , F. Cavelaars , C. Winter , 1 1 1 1 S. Klöck , G. Studer , U. M. Lütolf , O. Riesterer ; 1 2 University Hospital Zürich, Zürich, Switzerland, Paul Scherrer Institute, Center for Proton Therapy, Villingen, Switzerland. Background: We recently reported on the commissioning of a novel flattening filter-free (FFF) linear accelerator (Hrbacek et al IJROBP). FFF technology is thought to improve hypofractionated radiotherapy due to shortening of treatment time and lowering of unwanted dose outside the treatment volume. However concern exists with regard to potential toxicity of using unprecedented high doses per pulse. Here we report on the first clinical experience using FFF beams at maximum dose rate for hypofractionated radiotherapy of lung tumors at the University Hospital Zurich. Material and Methods: Patients were subjected to volumetric arc radiotherapy using 6 MV FFF beams and allowing the maximum dose rate of 1400 MU/min at the TrueBeam LINAC (Varian Medical Systems, Palo Alto, CA, USA). Patients were immobilized in a Vac bag (CIVCO) and tumour delineation was performed on 4D CTs by definition of an internal target volume. Plans were optimized (Eclipse TPS, PRO 8.9) to produce dose distributions that meet the criteria defined by RTOG 0915 protocol . Treatment and beam-on times were recorded and patient/target shifts were assessed by pre- and post-treatment Cone Beam CT (CBCT) imaging. Results: 8 Patients with lung tumours (primary (2), recurrent (1) metastatic (5) were treated with doses of 5-10 Gy in 3-10 fractions and using 1-3 arcs. In 1 patient a tumour was treated in the remaining lung after pneumonectomy. Altogether 11 lung PTVs were irradiated. The PTV size ranged from 5.9 cc to 64.0 cc. The average dose rate per patient used by the optimizer and given during 1-3 arcs ranged from 905 MU/min to 1389 MU/min. The average beam-on times was 1.7 min (+/0.5 min) and ranged from 1.1 min to 2.2 min, mean overall treatment times including patient set-up and CBCT was 18.6 min (+/- 5.8 min). The average vector of the patient and target shifts during treatment were 1.2 mm (+/-0.7 mm) and 1.5 mm (+/- 1.1 mm). At a medium follow up of 4 months (1-7) no unexpected early toxicity occurred. Conclusion: Our early clinical experience indicates that the use of 6FFF beams at maximum dose rate is efficient, results in stable patient positioning during treatment and so far no unexpected acute toxicity has been observed. AUTORENINDEX A Abdelhamid, R.: P04.06, P06.08 Abdollahi, A.: 12.1 Abolmaali, N.: P04.02 Ackermann, B.: P08.05 Ahmed, G.: 22.4 Aiginger, J.: P02.05, P04.04 Akhtaruzzaman, M.: 27.4 Akselrod, M.: 12.1 Albers, D.: 06.1 Albrich, D.: 16.4 Alex, A.: 17.4, 18.4 Alheit, H.: P10.02 Allinger, K.: P08.16 Alsner, J.: P08.17 Ammazzalorso, F.: P08.12 Amsüss, S.: 26.08 Andersen, C. E.: P08.04, P09.15 André, L.: 09.10 Andreas, M.: P01.04 Andreeff, M.: 05.7, P04.03 Antweiler, G.: 24.2 Appelt, D.: 18.5 Ardjo Pawiro, S.: P02.06 Arndt, S.: 07.4 Aschendorff, A.: 07.4 Assmann, W.: P03.04, P08.15 Astner, S.: P10.04 Azhari, H. A.: 27.4 B Bacher, K.: P05.01 Bachert, P.: 23.4, 24.2 Bader, M.: P03.04 Bähr, M.: P10.11 Balzer, B.: 25.3 Bamberg, M.: 06.6, P09.10 Bankstahl, J. P.: 14.4 Bankstahl, M.: 14.4 Bardiès, M.: P05.01 Barrois, V. M.: 16.6, P10.01 Barth, M.: 19.4 Bassler, N.: 08.6, P08.02, P08.17 Batra, M.: 20.1 Bauer, J.: 12.4 Bauer, R.: P09.09 Bauman, G.: 24.6 Baumann, M.: 11.4, P08.14 Baumann, U.: 07.5 Baus, W.: P09.18 Beck, R.: 07.4 Becker, J.: 03.3 Becker, S.: 09.4, P02.02, P03.01 Behe, M.: 14.3 Bender, B.: 20.1 Berberat, J.: 24.5 Berg, A.: 20.7, 24.7, P01.02 Berg, D.: 23.3 Berger, M.: 24.2 Berger, S.: 24.7 Bergmann, H.: 03.6, 13.7, 22.6, P02.06 Besserer, J.: 02.5, P04.08 Beyreuther, E.: P08.14 Bhatia, A.: 02.7, 03.4 Bheim, K.: A.10 Bienert-Zeit, A.: P02.01 Bin, J.: P08.16 Binder, S.: 18.3, P03.06 Birkfellner, W.: 03.5, 03.6, 04.4, 21.3, P02.06, P06.02, P06.02 Bitz, A. K.: 19.3 Blaickner, M.: 08.6, 22.3 Blank, E.: P09.14 Blank, H.: 02.6, P10.02 Bloch, C.: 03.6 Block, A.: 05.5, 09.8, P04.06, P06.08, P09.09 Block, K. T.: 24.6 Böck, H.: 08.6 Boesch, C.: 23.2 Böhm, C.: P04.01 Böhme, H.-J.: P04.02 Bonesi, M.: 18.1, 18.2 Borgosano, F.: 24.2 Borlak, J.: P04.01 Born, E. J.: 16.5, P08.07, P10.08 Bornemann, C.: P07.04, P10.16 Borowski, M.: 05.4, 05.5, 15.4 Bosold, S.: P10.01 Botas, P.: P08.02 Böttcher, I.: 18.3 Boubela, R. N.: P01.01, P01.03, P03.03 Boxheimer, L.: 24.5 Breithaupt, M.: P09.06 Brendel, B.: 20.1 Brettner-Messler, R.: 13.6 Brix, G.: P04.05, P05.02 Bröer, J. H.: P05.01 Brons, S.: 11.5, P08.03, P08.05 Bruggmoser, G.: 08.1 Brunner, C. C.: 04.2 Brünner, H.: 17.3 Brunner, S. E.: 22.4 Buchhalt, G.: 13.6 Buchholz, J.: A.08 Büermann, L.: 15.4 Buljubasich, L.: 23.5 Burris-Mog, T.: P08.14 Bussmann, M.: 11.4 Buzug, T. M.: 09.4, 21.4, 22.5, P02.02, P03.01 Duma, M. N.: P06.03, P10.04 Dunst, J.: 06.7 C Caffaro, M.: P10.16 Calle, C.: 06.4 Catic, J.: A.08 Cavelaars, F.: P10.20 Charwat, V.: 26.05 Chaudhri, N.: P08.05 Chofor, N.: 08.3 Church, C. J.: 07.3 Claußnitzer, J.: 05.7 Clivio, A.: 16.1, P07.01, P07.02, P10.09 Combs, S.: 12.4 Cordini, D.: P08.10 Cowan, T.: 11.4 Cozzi, L.: 06.4, 16.1, P07.01, P07.02, P10.09 Cremers, F.: 02.2, 06.1 Currell, F.: P08.17 Czarnecki, D.: 09.7, 16.6 D Dammene, Y.: P08.14 Danner, S. M.: 26.04 Danova, D.: P04.07 Danzebrink, H.-U.: 15.4 Datzmann, G.: 12.7 Dau, T.: A.08 Davulcu, I.: 20.6 Debus, J.: 09.5, 09.9, 12.1, 12.3, 12.4 Dechent, J. F.: 23.5 Denysenkov, V.: 23.6 Dersch, U.: 11.4 Deutschmann, H.: 02.3, 02.4, 03.7, 04.6, 04.7, P10.07 Dieckmann, K.: 01.3 Diehl, S. J.: 09.3 Dillier, N.: A.04 Dinkel, J.: 24.6 Diogo, I.: 15.7 Distler, J.: P10.02 Ditto, M.: 13.6 Dobler, B.: P06.06, P10.05 Dobrozemsky, G.: 13.7, 22.6 Domke, T.: 12.7 Dörner, K.-J.: P09.03 Dreindl, R.: 08.8 Drexler, W.: 17.4, 18.3, 18.4 Dudczak, R.: 22.6 133 E Eberlein, U.: P05.01 Eble, M. J.: P07.04, P10.16 Ecker, S.: P08.05 Egli, P.: P05.03 El Khayati, N.: P07.03 Ellerbrock, M.: 12.3, P08.05 Ematinger, J.: 02.4 Engelhard, R.: 18.3 Engenhart-Cabillic, R.: 11.3, P08.12, P10.01 Enghardt, W.: 04.4, 11.4, 11.6, 12.5, P04.02, P08.14 Ensminger, S.: P09.06 Eppig, T.: P05.08 Erb, M.: 20.1 Erbeck, I.: 25.5 Ertl, P.: 26.05 Escobar Corral, N.: P07.04, P10.16 Esmaeelpour, M.: 18.3 F Fabri, D.: 03.5 Farrag, A.: P04.06, P06.08 Fässler, C.: P05.03 Fastl, H.: 07.5 Fauler, A.: 22.1 Fechtig, D.: P02.05 Fedrigo, M.: 03.3 Fehlauer, F.: 16.2, P09.12 Feix, T.: 26.02 Feldmann, J.: 05.4 Feltes, M.: P05.05 Fiebich, M.: 15.6, 15.7, P04.07 Fiederle, M.: 22.1 Fiedler, F.: 04.4, 11.4, 11.6, 12.5 Figl, M.: 03.4, 03.6, 13.7, P02.06 Filzmoser, P.: P01.01, P01.03, P03.03 Fix, M. K.: 04.3, 16.5, 16.7, 22.2, P08.07 Flitsch, R.: 01.4, P09.19 Fogliata, A.: 16.1, P07.01, P07.02, P10.09 Fotina, I.: 01.6 Fouassi, R.: P10.17 Fränzel, W.: P03.05 Frauchiger, D.: 16.7 Frei, D.: 04.3, 16.5, 16.7, P08.07 Frenzel, T.: 02.2, 06.1 Freudenberg, R.: 05.7 Fridrich, L.: 13.6 Friedrich, J.: 24.1, 24.3 Friedrich, M.-E.: P03.03 Furtado, H.: 03.6 G Gaisberger, C.: 02.3, P10.07 Garbe, S.: P10.17 Gast, K.: 24.3 Geinitz, H.: P10.04 Gendrin, C.: 03.6, P02.06 Georg, D.: 01.3, 01.6, 01.7, 03.5, 03.6, 04.4, 08.8, 11.6, 12.5, 12.6, 16.4, 22.6, P02.06, P06.02, P06.05, P08.08 Georg, P.: P06.02 Gerald, M.: P02.03 Gerlach, R.: P03.05, P07.05, P09.06, P09.16 Gerz, K.: 23.6 Geworski, L.: P05.04 Geyer, P.: 02.6 Gföhler, M.: 26.06 Gillmann, C.: 12.3, P08.06 Glatting, G.: 13.4, P04.03 Glessmer, S.: 16.2, P09.12 Glittenberg, C.: 17.4 Goebbels, J.: 15.4 Göke, B.: P03.04 Goldner, G.: P06.02, P06.05 Goldschmied, G.: 13.6 Gora, J. G.: P08.08 Göschl, R.: 13.6 Götting, N.: 06.7 Götzinger, E.: 18.1, 18.2 Goupell, M.: 10.6 134 Graafen, D.: 24.4 Gräf, S.: P08.12 Granegger, M.: 26.03 Granja, C.: P08.03, P08.15 Graydon, S.: P10.20 Greifeneder, G.: 13.6 Greilich, S.: 12.1, 12.3, P08.02, P08.04, P08.06, P09.15 Griebel, J.: P04.05, P05.02 Grimm, R.: 24.6 Gröger, A.: 23.3 Grohmann, C.: 02.2, 06.1 Groß, V.: 25.3 Gruber, L.: 22.4 Grübling, P.: 11.3 Grüner, F.: 25.6 Grunewald, C.: 08.6 Gruy, B.: 13.6 Gueldner, M.: 24.3 Güldner, C.: 15.6, 15.7 Gutberlet, M.: 20.5 H Haak, H.: P09.03 Haase, R.: P04.02 Haberer, T.: 12.4 Habl, G.: 09.5 Hahn, C. M.: P05.02 Hahn, D.: 20.5 Hainisch, R.: 26.06 Hälg, R. A.: 02.5 Hamacher, V.: 10.3 Hamer, J.: 21.4, 24.4 Hampel, G.: 08.6 Hansen, D. C.: P08.02 Harder, D.: 08.3, 08.4, P09.01, P09.07 Hartinger, B.: P01.03 Hartmann, B.: P08.03 Hartmann, G.: 08.7 Hartmann, M.: P04.08 Hauffe, J.: 12.7 Hauschild, T.: 02.1, P10.18 Havlik, E.: 13.6 Heeg, P.: P08.05 Heilemann, G.: P10.10 Heine, C.: 02.1, P09.08, P10.18 Heinrichs, U.: P10.16 Heintzmann, R.: 18.5 Helmbrecht, S.: 04.4, 12.5 Henke, M.: P10.03 Henkel, T.: 09.1 Henkner, K.: P08.05 Henzen, D.: 16.5 Herberth, F.: P10.15 Herfarth, K.: 09.5, 12.4 Hermann, B.: 18.4 Hesse, B.: P08.03 Hesser, J.: 09.3 Hetz, T.: 09.9 Heufelder, J.: P08.10, P08.13 Heverhagen, J. T.: P04.07 Hielscher, R.: 06.3, P10.12, P10.13, P10.14 Hiermayer, B.: A.10 Hillbrand, M.: 12.7 Hilz, P.: P08.16 Hinterreiter, M.: 13.6 Hintze, C.: 24.6 Hipp, M.: P10.05 Hirtl, A.: 13.7, 22.4, 22.6 Hitzenberger, C.: 18.1, 18.2 Hoegele, W.: P06.06 Hoeschen, C.: 03.3, 04.2, 05.3, 13.3, 15.5, 25.6 Hoevels, M.: P09.18 Hofer, B.: 17.4, 18.3, 18.4 Hoffmann, P.: 26.09 Hoffmann, R.: 02.7, 03.4 Hoffmann, W.: P05.06 Hofinger, J.: P06.07 Hofstätter, J. G.: 26.10 Hohmann,, V.: A.07 Holzmannhofer, J.: 13.6 Holzscheiter, M. H.: 08.6, P08.17 Homolka, P.: 15.3 Höpfel, D.: 24.2 Hopfgartner, J.: 01.3, 01.6, 11.6, 12.6 Horn, C.: 24.7, P01.02 Hrbacek, J.: 01.5, 06.4, P10.20 Huber, L.: P08.03 Huber, S.: 02.3, 04.6, P10.07 Huber, W.: 05.6 Huf, W.: P01.01, P01.03, P03.03 Humble, N.: P08.16 Hummel, J.: 02.7, 03.4, 15.3 Hummer, A.: 20.3 Hünemohr, N.: P08.06 Hunsche, S.: P09.18 Hüpf, T.: P09.19 Hutzel, H.: 09.6 I Ide, K.: 06.1 Isaak, B.: 16.7 J Jäkel, O.: 09.9, 11.5, 12.1, 12.3, P08.02, P08.03, P08.04, P08.05, P08.06, P09.15 Jakse, G.: 01.4 Jakubek, J.: P08.03 Janich, M.: P07.05, P09.06, P09.16 Jankovec, M.: 22.4 Janzen, T.: 13.3 Jelen, U.: P08.12 Jeub, M.: A.05 Johst, S.: 19.3 Joksch, M.: 26.05 Juras, V.: P01.02 K Kaar, M.: 02.7, 03.4 Kahmann, F.: 09.1 Kalcher, K.: P01.01, P01.03, P03.03 Kaldarar, H.: 15.3 Kampfer, S.: P06.03, P10.04 Kapp, K.: 01.4, P09.19 Kareem, R. H.: P05.05 Karger, C. P.: 09.5, 12.3 Karle, B.: P08.13 Karpuk, S.: 24.3 Karsch, L.: P08.14 Kasch, K.-. U.: 09.1 Kasper, S.: 20.3, P01.01, P01.03, P03.03 Kaulich, T. W.: 06.6, P09.10 Kavanaugh, J. N.: P08.17 Kellner, D.: P08.11 Kendall, C.: 17.4 Kerber, S.: A.09 Khalifa, A.: P04.06, P06.08 Kiefer, D.: P08.16 Kienast, R.: 26.11 Kiessling, F.: P04.05 Kimmig, B.: 06.7 Kinkel, M.: 10.2, A.03 Klaushofer, K.: 26.10 Klein, F. A.: P08.04 Kleine, M.: 21.4 Kletting, P.: 13.4, P04.03 Klingebiel, M.: P08.01 Klöck, S.: 01.5, 06.4, 09.10, P10.19, P10.20 Klösch, B.: 26.05 Klose, U.: 20.1, 23.3 Klüter, S.: 06.2 Knäusl, B.: 01.3, 13.7, 22.6 Kneisel, V.: 06.7 Kneisz, L.: 26.07 Kneschaurek, P.: P06.03, P10.04 Knoll, P.: 22.4 Knopf, A.-C.: P08.09 Koch, T.: 02.1, P09.08, P10.18 Koehler, U.: 25.3 Koelbl, O.: P06.06 Kohler, G.: P09.13 Kolb, R.: 23.3 Kölbl, O.: P10.05 Kollmann, C.: 04.5 Kollmeier, B.: 10.1 König, F.: 13.6, P04.04 Konrad, T.: 01.4 Kopp, P.: 02.3, P10.07 Köstler, H.: 20.5 Kotzerke, J.: 05.7, P04.03 Kraff, O.: 19.3 Kraft, S.: P08.14 Kragl, G.: 01.7, 16.4 Kranzl, A.: 26.06 Kraus, C.: 20.3 Kreienfeld, H.: 05.4, 15.4 Kreitner, K.-F.: 20.6 Krejci, F.: P08.15 Krieger, T.: 09.6 Kriegl, R.: P01.04 Krogbeumker, B.: P02.01 Kröger, S.: 07.4 Kroll, F.: P08.14 Krüger, M.: P09.14 Krummenacker, J.: 23.6 Krumrey, M.: 15.4 Kuess, P.: 04.4, 12.5 Kuhlmann, H.: P02.05 Kuntner, C.: 14.4, 21.3 Kunz, M.: P08.01, P09.04 L Laback, B.: 07.1, 10.6, A.02 Lachmund, J.: P05.06 Ladd, M. E.: 19.3 Ladd, S.: 19.3 Lämmler, C.: 06.5 Lampret, A.: 02.7 Lang, S.: 01.5, 06.4, P10.19, P10.20 Lange, F.: P07.05 Langenbucher, A.: 17.3, P05.08 Langer, O.: 14.4, 21.3 Lanzenberger, R.: 20.3 Lanzolla, I.: P05.03 Laschinsky, L.: P08.14 Lassmann, M.: P05.01 Laszig, R.: 07.4 Latzel, H.: P09.15 Laub, W.: P10.10 Lauenstein, T. C.: 19.3 Layer, T.: 22.3 Lechner, W.: 01.7, P04.04 Leitgeb, R.: 18.2 Leitha, T.: P04.04 Lenz, J.: 09.8 Lessmann, E.: P08.14 Lewe-Schlosser, P.: 06.5 Li, W.: 13.3 Liebmann, M.: P05.05 Lissner, S.: 06.2 Lllmann, H.: A.05 Lodron, G.: 01.4 Loeschel, R.: P06.06 Lomax, A.: P08.09 Looe, H.: 08.4, P06.04, P09.01, P09.07 Lösch, R.: P06.01 Lotze, S.: P07.04 Luebke, J.: 22.1 Luepke, M.: 05.4 Lüllau, T.: P05.05 Lüpke, M.: P04.01 Luster, M.: 13.4 Lütgendorf-Caucig, C.: 01.3 Lütolf, U. M.: P10.19, P10.20 Lutters, G.: 24.5 Luyken, K.: P09.18 M Ma, W.: P08.16 Maaß, T.: 16.2, P09.12 Maderwald, S.: 19.3 Magalhaes, E.: 01.7 Mainka, C.: 09.9 Mair, A.: 10.4 Mair, K.: P05.07 Majdak, P.: 07.1, 10.6, A.02 Malthaner, M.: P10.08 Mancuso, P.: 06.4 Mang, A.: 09.4, P02.02, P03.01 Manser, P.: 04.3, 16.5, 16.7, 22.2, P08.07 Markelj, P.: P02.06 Martisikova, M.: P08.03 Marton, J.: 22.4 Matthias, B.: P02.03 Matthias, K.: P04.06 Matz, G.: 22.3 Mayer, H.: 01.4 Mayr, W.: 26.09 McCartney, D. A.: 07.3 Melzig, C.: 12.1 Merla, K.: P10.06 Merz, F.: 02.3, P10.07 Metzkes, J.: P08.14 Misslbeck, M.: 16.3 Mitterlechner, B.: 02.3, 04.6, P10.07 Mix, M.: 14.3, 22.1 Modregger, P.: 22.2 Mooslechner, M.: 02.3, 04.6, 04.7, P10.07 Morales, F.: 27.2 Moscato, F.: 25.4, 26.03 Moser, E.: 20.3, 20.4, P01.01, P01.03, P01.04, P03.03 Moser, T.: 09.5 Müdder, T.: P10.17 Muellauer, J.: 14.4, 21.3 Mueller, L. A.: P03.02 Mueller, M.: 21.3 Mueller, M. F.: A.04 Müller, A.: 11.6 Müller, B.: 12.7, 25.6 Müller, C.: P09.12 Müller, J.: P08.13 Münnemann, K.: 23.5 Münzing, W.: 13.5 N Nairz, O.: P08.05 Nassar, H.: P07.03 Nassenstein, K.: 19.3 Naumann, J.: P08.05 Naumburger, D.: P08.14 Nekolla, E. A.: P05.02 Neuenschwander, H.: 16.5 Neuner, M.: 03.7 Neuschaefer-Rube, U.: 15.4 Neuwirth, J.: P03.06 Nicoletti, R.: 13.6 Nicolini, G.: 16.1, P07.01, P07.02, P10.09 Niklas, M.: 12.1 Ningo, A.: 15.6, 15.7 Noel, P.: 15.5, P04.07 Nosske, D.: P05.01 Nounga Kamwa, K.: P02.04 O Oechs, A.: P09.19 Oeh, U.: 13.3 Oehme, L.: 05.7 Ohnesorge, B.: P02.01 Oppelt, M.: P08.14 Orzada, S.: 19.3 Overhoff, H.: 25.5, P02.04, P02.07 P Pahr, D. H.: 26.01 Pail, G.: P01.01, P01.03, P03.03 Palmans, H.: 08.6 Pandy, M. G.: 26.06 Panse, R.: 11.5 Parczyk, M.: 08.5 Parodi, K.: 11.5, 12.4 Paul, K. C.: 27.4 Pawelke, J.: 11.4, P08.14 Pawiro, S. A.: 03.6 Pehamberger, H.: 17.4 Pemmer, B.: 26.10 Pensold, S.: P10.06 Pereira do Vale, P.: P09.17 Pernus, F.: P02.06 Perrin, R.: 11.4 Peter, S.: 22.2 Pethke, W.: 05.5 Pezawas, L.: P01.01, P01.03, P03.03 Pfäfflin, A.: 09.10 Pfenning, P.-N.: P02.02 Pica, A.: P10.08 Pieck, S.: 11.4 Pietrzyk, U.: 14.3 Pircher, M.: 18.1, 18.2 Poelstra, A.: 25.5, P02.04, P02.07 Pok, S.-M.: A.10 Polivka, B.: P05.07 Poljanc, K.: P04.04 Pönitz, S.: 02.1, P10.18 Poppe, B.: 05.4, 08.2, 08.3, 08.4, P05.05, P06.04, P09.01, P09.03, P09.07, P10.10 Považay, B.: 17.4, 18.3, 18.4 Prank, K.: 05.5 Prisner, T. F.: 23.6 Procz, S.: 22.1 Prokesch, H.: 16.4 Prokic, V.: P10.03 Puder, H.: A.06 Puderbach, M.: 24.6 Puxeu Vaque, J.: 06.4 R Rader, T.: 07.5 Radtke, E.: 09.8 Rattay, F.: 26.04 Rausch, I.: 22.6 Ray, J.-Y.: 09.10 Reggiori, G.: 06.4 Reichenbach, J. R.: 20.2 Reinhardt, S.: P08.15, P08.16 Reisinger, A. G.: 26.01 Remonda, L.: 24.5 Renger, B.: 04.2, 15.5 Rentrop, T.: 23.4 Reske, S. N.: 13.4, P04.03 Rhein, B.: 08.7 Richter, A.: 04.1 Richter, C.: P08.14 Riesterer, O.: P10.20 Rinaldi, I.: 11.5 Rivoire, J.: 24.1, 24.3 Rodt, T.: P04.01 Roehrbacher, F.: 14.4 Rogers, S.: 24.5 Rohn, R.: P06.08 Rommerscheid, J.: P05.06 Roschger, A.: 26.10 Roschger, P.: 26.10 Rummeny, E. J.: 15.5 S Salehi Ravesh, M.: 24.6 Sanne, C.: P09.17 Santos, P.: P05.01 Sattel, T. F.: 22.5 Sauberer, M.: 14.4, 21.3 Sauer, O. A.: 04.1, 08.5 Sauerbrey, R.: 11.4 Sauerzapf, S.: 14.3 Saure, D.: 05.5 Schad, L.: 23.1 Schäfer, C.: P03.04 Schäfer, M.: 09.9 Schäfer, R.: 23.3 Schaffarich, M. P.: 13.7 Schaks, M.: P09.16 Scharinger, C.: P01.01, P01.03 Scheidegger, S.: P05.03 Schell, S.: 11.7 Schettino, G.: P08.17 Schiefer, H.: P10.15 Schild, C.: 07.4 Schilling, P.: P10.06 Schima, H.: 25.4, 26.03, P02.05 Schimmel, S.: A.04 Schirra, J.: P03.04 Schlattl, H.: 04.2, 05.3, 25.6 Schlegel, W.: 09.9 Schleich, P. K.: 10.5 135 Schlemmer, H.-P.: 24.6 Schlgel, M.: A.10 Schmachtenberg, A.: P10.16 Schmid, A. I.: P01.04 Schmidhalter, D.: P10.08 Schmidt, R.: 24.4 Schmidt, T.: P08.16 Schmiemann, S.: P02.07 Schmitt, B.: 23.4 Schmitt, R.: 09.6 Schmitz, T.: 08.6 Schnabel, J.: 03.2 Schneider, T.: 09.2 Schneider, U.: 02.5, P04.08 Schnurr, M.: 24.2 Schöller, H.: 02.3, P10.07 Scholtes, M.: 25.3 Scholz, M.: 12.3 Schölzel, D.: P09.17 Schöne, M.: P09.06 Schöpf, V.: P01.01 Schoroth, F.: P10.17 Schramm, U.: 11.4, P08.14 Schreiber, J.: P08.16 Schreiber, L. M.: 20.6, 23.5, 23.6, 24.1, 24.3, 24.4 Schroettner, T.: 14.4 Schubert, K.: 06.2, 09.5 Schüler, E.: P05.02 Schultze, J.: 06.7 Schürer, M.: 17.3, P08.14 Schuster, S. K.: 04.5 Schütz, C.: 08.6 Schütz, T. A.: 09.4, P02.02, P03.01 Scorsetti, M.: 06.4 Sedlmayer, F.: 02.3, 02.4, 03.7, 04.6, 04.7, P10.07 Seeber, B. U.: 07.3, A.09 Seelentag, W.: P10.15 Seifert, H.: 05.4, P02.01, P04.01 Selbach, H.-J.: 09.2 Sellner, S.: P08.17 Semmler, W.: 24.6 Semturs, F.: 15.3 Sereinig, G.: P02.03 Sharpe, P.: 08.6 Siebert, F.-A.: 06.7 Siewert, C.: P02.01 Simiantonakis, I.: P09.17 Simmat, I.: P06.02 Simon, R.: 26.10 Singers Sørensen, B.: P08.17 Sinha, P.: 02.6 Skalsky, C.: 12.7 Sladky, R.: 20.3, 20.4 Sobiella, M.: P08.14 Söger, S.: P09.12 Sohrabi, K.: 25.3 Solle, A.: P05.04 Sommerer, F.: 12.4 Spaan, B.: 09.8 Sparenberg, J.: P10.01 Speck, A.: P05.08 Spiess, H. W.: 23.5 Sroka, R.: P03.04 Sroka-Perez, G.: 09.5 Stäb, D.: 20.5 Stahl, A.: P07.04 Stamm, G.: P04.01 Stampanoni, M.: 22.2 Stanek, J.: 14.4, 21.3 Stapf, S.: P09.14 Stark, R.: P08.10, P08.13 Staszyk, C.: P02.01 Stegmaier, P.: P10.03 Steinberg, F.: P05.06 Steiner, E.: P06.05 Steininger, P.: 02.3, 02.4, 03.7 Steininger, T.: 01.6 Stelljes, T. N.: P09.01 Stelljes, T. S.: 08.4 Stemberger, A.: 05.6, P03.06 Stief, C.: P03.04 136 Stock, M.: 03.6, 08.8, 12.6, P02.06, P06.02, P06.05, P08.08 Stollberger, R.: 19.1 Stone, N.: 17.4 Straße, T.: P08.17 Streli, C.: 26.10 Streller, T.: 01.5 Strumpf, A.: P04.03 Studer, G.: P10.19, P10.20 Suzuki, K.: 22.4 T Tegami, S.: P08.17 Telsemeyer, J.: P08.03 Terekhov, M.: 23.6, 24.1, 24.3 Terribilini, D.: 16.7 Theilig, B.: P10.06 Thomas, L.: P02.03 Tini, A.: P10.20 Tischenko, O.: 03.3, 15.5 Toma, A.: 09.4, P02.02, P03.01 Torzicky, T.: 18.1, 18.2 Treitz, K.: P09.09 Treuer, H.: P09.18 Treutwein, M.: P10.05 Tröst, J.: 20.4 Tröstl, J.: 20.3 Tschakert, A.: 26.09 Tsitsekidis, S.: P09.10 Tsogtbaatar, L.: 06.5, P10.01 Tümmler, H.: P10.06 U Ueltzhöffer, S.: 27.3 Uhl, M.: 09.5 Uhlig, C. H.: P05.05 Ul-Karim, Z.: 26.06 Umutlu, L.: 19.3 Unger, E.: 26.09 Unholtz, D.: 12.4 Uphoff, Y.: P06.04 Uray, M.: 01.4 V Vaegler, S.: 04.1 van de Par, S.: A.01 Vandevoorde, C.: P05.01 Vanetti, E.: 16.1, P07.01, P07.02, P10.09 Vary, P.: A.05 Vockelmann, C.: P04.06 Vogelgesang, L.: 16.6, P10.01 Voigt, J. M.: 15.6, 15.7, P04.07 Volken, W.: 04.3, 16.5, 16.7, P08.07 von Boetticher, H.: 05.4, 27.2, P05.05, P05.06 von Falck, C.: P04.01 von Voigts-Rhetz, P.: P09.04, P09.05 von Wallenberg, E.: 07.2 Vordermark, D.: P07.05, P09.16 Voss, B.: 11.5 W Wachter, S.: P06.07 Wachter-Gerstner, N.: P06.07 Wacker, F.: P04.01 Wagner, A.: P03.04 Wagner, D. M.: 06.3, P10.12, P10.13, P10.14 Waletzko, O.: P06.08 Walter, A.: 17.3 Wanek, T.: 14.4, 21.3 Warwitz, B.: 13.6 Weber, A.: P08.10, P08.13 Weber, C.: 03.6, P02.06 Weber, S.: 20.6, 24.4 Weber, U.: 11.3, P08.11 Weber, W.: 14.3 Weichenberger, H.: 02.4 Weichert, S.: P04.02 Weingast, J.: 17.4 Welzel, T.: 12.4 Wenzl, T.: 12.2 Werner, J. A.: 15.7 Werner, R.: 02.2, 06.1 Wesarg, T.: 07.4 Wetzel, F.: P10.11 Wick, W.: P02.02 Wicker, K.: 18.5 Wilbert, J.: 01.2, 09.6 Wilke, F.: P05.04 Wilkens, J. J.: 11.7, 12.2, P08.16 Willborn, K.: 08.3, P06.04 Willimayer, R.: 21.3 Willomitzer, C.: P09.14 Windischberger, C.: 19.2, 20.3, 20.4, P01.01, P01.03, P03.03 Winkler, C.: P10.04 Winkler, P.: 01.4, P09.19 Winklinger, K.: 02.4 Winter, C.: P10.20 Winter, M.: P08.05 Wirrmann, C.: 25.4 Wirtz, H.: P10.16 Witt, M.: P08.11 Witteler, A.: P04.06 Wittig, A.: P08.12 Wolf, U.: 24.3 Wolff, D.: P10.01 Wolff, U.: 05.8 Wolzt, M.: P01.04 Wösle, M.: 09.3 Wrede, S.: 05.4, 05.5, 15.4 Wulff, J.: 09.7, 15.6, 16.6, P07.03, P09.02 Wust, P.: 09.1 Wyss, J.: 07.2 Z Zakaria, G. A.: 27.4 Zakhnini, A.: 14.3 Zambrano, V.: 03.5 Zankl, M.: 05.3 Zaugg, K.: P10.19 Zeeb, B.: P09.11 Zeil, K.: P08.14 Zeller, M.: 20.5 Zelzer, B.: 17.3, P05.08 Zenklusen, S.: P08.09 Ziegner, M.: 08.6 Zink, K.: 06.5, 09.7, 11.3, 16.6, P07.03, P08.01, P08.11, P08.12, P09.02, P09.04, P09.05, P10.01, P10.17 Zips, D.: P04.02 Zlobinskaya, O.: P08.16 Zotter, S.: 18.1, 18.2 Zulliger, M. A.: 04.3 Zwahlen, D. R.: P10.19 Zwerger, A.: 22.1 Zwick, S.: P04.05 Zygmanski, P.: P06.06 Zysset, P. K.: 26.01