16.740.11.0456

Аннотация

работ по 5-му этапу Государственного контракта № 16.740.11.0456 от 13.05.2011 г.

«Статистические  методы  решения   задач теории переноса излучения»

 

В отчете представлены результаты исследований, выполненных по 5 этапу Государственного контракта № 16.740.11.0456 "Вычислительные алгоритмы и комплексы программ для задач компьютерной томографии" (шифр "2011-1.2.1-113-002")  от 13 мая 2011 по направлению "Проведение научных исследований научными группами под руководством докторов наук в области:- информатика" в рамках мероприятия 1.2.1  "Проведение научных исследований научными группами под руководством докторов наук.", мероприятия 1.2 "Проведение научных исследований научными группами под руководством докторов наук и кандидатов наук", направления 1 "Стимулирование закрепления молодежи в сфере науки, образования и высоких технологий." федеральной целевой программы "Научные и научно-педагогические кадры инновационной России" на 2009-2013 годы.

Предметом исследования на 5 этапа контракта являются проблемы статистического моделирования в теории переноса излучения и компьютерной томографии.

Первый раздел отчета посвящен задачам статистического моделирования в случайно- неоднородных средах. С бурным развитием вычислительной техники число приложений методов Монте-Карло неуклонно возрастает. Одним из наиболее ярких таких приложений является расчет плотности потока излучения в области трехмерного пространства, заполненного рассеивающим и поглощающим веществом. Эта характеристика излучения удовлетворяет интегро-дифференциальному уравнению и, в общем случае, является функцией семи переменных. Несмотря на то, что для стационарного монохроматического процесса излучения количество переменных сокращается до пяти, проблема вычисления решения уравнения или функционалов от него стоит достаточно остро. Основную часть компьютерного времени при нахождении плотности потока излучения в неоднородной среде методом статистических испытаний занимает моделирование длины свободного пробега частиц. В 1968 году был предложен метод максимального сечения, позволяющий проводить вычисления с постоянной длиной свободного пробега. Этот способ позволяет не только значительно сократить время расчетов, но и унифицировать процесс построения траекторий по сравнению методом, использующим физическое сечение, что особенно актуально в среде со сложной внутренней структурой. Однако, если значения коэффициента ослабления сильно варьируются, то постоянная мажоранта сильно превышает сечение ослабления в некоторых областях. В результате количество фиктивных столкновений оказывается очень большим, что снижает эффективность метода максимального сечения. В этом случае для повышения производительности метода максимального сечения выгоднее использовать не постоянную, а кусочно-постоянную мажоранту коэффициента ослабления. К сожалению, при этом опять возрастает сложность вычисления длины свободного пробега и приходится искать компромиссные решения данной проблемы.

Несмотря на многолетнюю историю, метод максимального сечения продолжает привлекать внимание специалистов, как с точки зрения его обоснования, так и с точки зрения его приложений. Причем это касается не только теории переноса излучения, но и теории управления, массового обслуживания и др.. Хорошо известно, что одним из универсальных способов уменьшения дисперсии в задачах суммирования рядов Неймана является использование ветвящихся марковских цепей. В отчете для решения стационарного уравнения переноса излучения предлагается модификация метода максимального сечения с ветвлением траекторий в точках, где требуется определить тип рассеяния частицы. Проводится численное сравнение трудоемкости традиционного и модифицированного методов максимального сечения. Даны рекомендации по их применению. Основной вывод следующий: метод максимального сечения с ветвлением имеет большую трудоемкость, нежели алгоритм максимального сечения без ветвления. Это связано с тем, что время, затрачиваемое на выполнение алгоритма максимального сечения с ветвлением, значительно превосходит время выполнения традиционного метода максимального сечения, а различия в дисперсии оценок не велики.

Второй раздел отчета посвящен исследованию метода решения задачи томографии, основанному на специфике комптоновского рассеяния. Для большинства энергий, характерных для искусственных и природных источников рентгеновского излучения преобладают три основных вида взаимодействия излучения с веществом — фотоэлектрическое поглощение, Релеевское рассеяние и рассеяние по Комптону. И если поглощение хорошо учитывается в рамках классической томографии, то наличие рассеяния до сих пор остается основной проблемой влияющей на качество реконструкции.

Классический метод решения проблемы рассеяния заключается в коллимации исходного и принимаемого сигналов. Использование коллиматоров приводит к уменьшению случайных составляющих в детектируемом сигнале. Однако при этом снижается чувствительность томографа и на порядок увеличивается время накопления необходимого объема информации. Другой подход заключается в применении методов, позволяющих отфильтровывать рассеяние. Как правило,  это различные приближения однократного рассеяния, при применении которых авторам удается свести задачу томографии к восстановлению распределения плотности электронов по семейству интегралов по окружностям.

 Наша идея решения задачи томографии,  заключается в том, что при комптоновском рассеянии энергия фотонов может только уменьшиться. Таким образом, при значении энергии, совпадающем с максимальной энергией источника излучения интенсивность принимаемого сигнала должна описываться простым экспоненциальным законом (все рассеянные фотоны перейдут на более низкие уровни энергии). В отчете данная идея формализуется на основе уравнения переноса излучения. Особое внимание в работе уделяется обсуждению практической применимости предлагаемого метода. Основная проблема здесь состоит в том, что для эффективной работы метода требуются детекторы с идеальным разрешением по энергии. Однако, применяемые в современных томографах сцинтилляционные детекторы, позволяют определять энергию фотона с погрешностью от 2 до 20 процентов, в зависимости от конструкции детектора и энергии измеряемого сигнала. Проводится ряд численных экспериментов, показывающих, как несовершенство детекторов влияет на точность работы метода. Для этих целей, полученная в работе формула реконструкции применяется к данным, полученным с помощью имитационного моделирования работы реального томографа. Для описания сигнала принимаемого сцинтилляционными детекторами применялся метод Монте-Карло. Такой подход позволил имитировать сигнал, который будет наиболее близок к тому, что регистрирует реальный томограф. Более того, применение метода Монте-Карло вносит в итоговый сигнал случайные шумы и ошибки, характерные для реального процесса, что более естественно при тестировании метода решения обратной задачи, чем использование каких-либо модельных шумов. Эксперименты, показали, что предложенный метод реконструкции, имеет пространственное разрешение не хуже, чем применяемые в томографах алгоритмы.

При выполнении 5-го этапа НИР были также проведены патентные исследования с целью анализа накопленных данных в области решения научно-технических задач теории переноса излучения, радиационной защиты, дефектоскопии, неразрушающего контроля изделий, компьютерной томографии. Патентные исследования проведены с 1 мая 2013 г. по 14 июня 2013 г. в полном соответствии с регламентом поиска по патентной и научно-технической  документации. Результаты поиска представлены в Отчете о патентных исследованиях № 35 от 17.06.2013 (ДВФУ), составленному в соответствии с ГОСТ Р 15.011-96.    При выполнении 5 этапа защищена диссертация на соискание степени кандидата технических наук и  опубликовано две статьи в  высоко рейтинговых журналах.

 

Аннотация

работ по 6-му этапу Государственного контракта № 16.740.11.0456 от 13.05.2011 г.

«Статистические  методы  решения   задач теории переноса излучения»

 

      В отчете представлены результаты исследований, выполненных по 6 этапу Государственного контракта № 16.740.11.0456 "Вычислительные алгоритмы и комплексы программ для задач компьютерной томографии" (шифр "2011-1.2.1-113-002")  от 13 мая 2011 по направлению "Проведение научных исследований научными группами под руководством докторов наук в области:- информатика" в рамках мероприятия 1.2.1  "Проведение научных исследований научными группами под руководством докторов наук.", мероприятия 1.2 "Проведение научных исследований научными группами под руководством докторов наук и кандидатов наук", направления 1 "Стимулирование закрепления молодежи в сфере науки, образования и высоких технологий." федеральной целевой программы "Научные и научно-педагогические кадры инновационной России" на 2009-2013 годы.

Предметом исследования на 6 этапе контракта являлось исследование проблем, связанных с созданием численных алгоритмов, программных комплексов и базы данных для задач электронной томографии. 

Методы моделирования физических экспериментов с использованием суперкомпьютерных технологий активно развиваются в последнее десятилетие. Электронная микроскопия позволяет исследовать структуру объектов от микро- до атомного уровня. Результат исследования мы видим в виде двумерного изображения проекции трехмерной структуры. Структура исследуемых объектов зачастую крайне сложна и не поддается расшифровке без использования компьютерного моделирования. В электронно-томографических экспериментах данными являются наборы проекций трехмерной структуры под различными углами с общим объемом несколько сотен мегабайт. Поскольку, во многих случаях, каждую точку изображения или ближайших соседей можно обрабатывать независимо, оптимальным является применение векторных процессоров с архитектурой SIMD, практической реализацией которых являются графические ускорители.

Графические процессоры общего применения (GPGPU) реализуют модель вычислений «один оператор – множество потоков» и представляют собой периферийное вычислительное устройство по отношению к центральному процессору. Наибольшее распространение получили GPGPU двух производителей – ATI/AMD и NVIDIA. При сравнимых характеристиках имеется, однако, множество различий как в плане технической, так и логической организации. Решающим фактором большей популярности GPGPU от NVIDIA явилось наличие простых инструментов разработки приложений, а также использование распространенного языка программирования С++ с набором расширений синтаксиса для работы с графическими процессорами. Не секрет, что большое количество программных разработок выполняется специалистами в той или иной прикладной области, а не профессиональными программистами. И именно простота и скорость разработки прототипа компьютерной программы обусловило популярность NVIDIA для научных приложений. Справедливости ради стоит сказать, что в области профессиональной разработки, например, компьютерных игр, безусловно, лидирует ATI/AMD, показывая большую производительность.

Платформа разработки CUDA (Compute Unified Device Architecture) от NVIDIA включает в себя драйвер GPGPU, интерфейс программирования (API), библиотеки и компилятор. Пакет разработчика бесплатный и, что немаловажно, содержит подробную документацию и несколько десятков примеров. Библиотеки представляют собой реализацию для GPGPU таких известных и опробованных библиотек, как, например, BLAS, FFTW, RAND.

В первом разделе отчета рассмотрены алгоритмы программного комплекса для обработки результатов электронной томографии. Приводятся результаты адаптации известных алгоритмов  томографии для параллельных вычислений и графических процессоров. В частности, на платформе CUDA реализованы алгоритмы двумерной и трехмерной фильтрации, алгоритмы взвешивающих фильтров и обратной проекции с бикубической интерполяцией значений.

Во втором разделе отчета рассмотрены проблемы, связанные с созданием информационных ресурсов электронной томографии.

Метод электронной микроскопии незаменим при исследовании наноразмерных объектов. Однако изображения, получаемые с помощью этого метода, могут дать лишь представление о текстуре объекта. В то же время электронная томография является тем средством, с помощью которого может быть восстановлена трехмерная структура объекта по серии изображений, полученных под различными углами наклона образца к электронному пучку. Проблемы, которые здесь приходится решать, в первую очередь связаны с невозможностью жесткого закрепления образца подвергаемого электронному облучению, что приводит к искажению измеряемого сигнала. Другие деструктивные факторы, влияющие на реконструкцию изображений, обусловлены влиянием многократного рассеяния электронов в среде и неполнотой данных просвечивания, вызванной инструментальными особенностями электронной томографии.

Современное состояние приборной базы в электронной томографии таково, что нет возможности полностью справиться со всеми этими проблемами на физическом уровне. Естественным образом, встает вопрос о разработке математических методов обработки сигнала, минимизирующих влияние вредоносных факторов. Это, в свою очередь, приводит к необходимости построения и исследования соответствующих математических моделей и на базе этого создания эффективных методов.

Во второй главе задачи электронной томографии рассматриваются как обратные задачи для интегро-дифференциального уравнения переноса с различными граничными условиями. Обычно в этих задачах требуется определить коэффициенты уравнения или поверхности их разрывов по некоторому дополнительному условию на решение уравнения. Одна из основных гипотез, которую мы намерены проверить состоит в том, что главной характеристикой определяет томографический контраст среды при ее электронном просвечивании, является функция - мера видимости среды, введенная Д.С. Аниконовым и авторами проекта при изучении задач рентгеновской томографии.

Исследование меры видимости среды при ее электронном просвечивании позволит не только объяснить плохое качество томограмм, но и позволит адаптировать и применить оригинальные авторские методы, позволяющие увеличивать значения меры видимости (контрастность границ), например, путем соответствующего выбора энергии внешнего источника.

Во второй главе отчета приводится описание (созданной исполнителями Государственного контракта) базы данных плоховидимых веществ при электронном облучении. В качестве меры видимости используется величина разрыва коэффициента ослабления. На промежутке от 1 до 500 кэв находятся все уровни энергии, на которых имеется совпадение линейных коэффициентов ослабления некоторой пары химических элементов из набора, содержащего 104 вещества.

За  время выполнения этапа было опубликовано 5 статей в высокорейтинговых отечественных и зарубежных журналах. Участники коллектива выступили с секционными и стендовыми докладами на 5 отечественных и зарубежных научных конференциях.

 

Руководитель проекта,  д.ф.-м.н.:  Прохоров И. В.