SpinWave

فیزیک آزمایشگاهی شاخه ای از علم فیزیک بوده که در آن با مشاهده پدیده های طبیعی و جمع آوری داده و انجام آزمایش سعی در شرح پدیده های مشاهده شده و پیشبینی پدیده های جدید بر اساس از آزمایش ها و مدل های ریاضی است. آزمایشات و روش ها در این رشته بسیار متنوع بوده و مشاهده های ساده ای نظیر آزمایش کاوندیش[۱] که در آن به مطالعه نیروی گرانش بین اجسام پرداخته می شود را شامل شده و همچنین مشاهدات بسیار پیچیده تری مانند برخورد دهنده هادرونی بزرگ[۲] را در بر گرفته که یک شتاب دهنده ذره مستقر در مرکز تحقیقاتی سرن[۳] می باشد.

داده های علمی تولید شده در فرایند های مختلف مربوط به آزمایشات فیزیکی داری حجم و تنوع زیادی بوده و در بسیاری از آزمایشات مربوط به شتاب دهنده های ذرات از سرعت و نرخ تولید بسیار زیادی نیز برخوردار می باشند.

داده های علمی را به داده‌های خام ایجاد شده از آزمایشات، داده های ساخت یافته‌ی بدست آمده از فیلتر نمودن داده های خام، داده‌های انتشار یافته و داده‌های مرتبط با مقالات دسته بندی نمود [۱]. داده های خام در برخی از آزمایشات به صورت جریانی از داده ها در کسری از ثانیه توسط حسگرها دریافت می شوند، فیزیک‌دانان در تاسیسات های فیزیک آزمایشگاهی با چالش هایی برای مدیریت داده ها از جنبه های مختلفی نظیر ذخیره سازی و پردازش روبرو می باشند.

سالیانه حدود ۱۵ ترابایت داده توسط برخورد دهنده هاردونی بزرگ مستقر در سرن تولید می شود. رایانه های معمولی امکان نگهداری و پردازش چنین داده هایی را ندارند و به همین دلیل یک راه حل مناسب می تواند استفاده از چندین سامانه کامپیوتری به صورت خوشه ای جهت انجام پردازش و ذخیره داده ها باشد.

هدوپ[۴]  به عنوان یک چارچوب و محیطی برای کلان داده می باشد که با ارائه ابزار های متن باز مختلف امکان ذخیره سازی و پردازش داده های با حجم بسیار بالا را فراهم نموده است. فایل سیستم توزیع شده هدوپ[۵] با ایجاد یک سیستم فایل یکپارچه امکان استفاده از فضای ذخیره سازی رایانه های مختلف متصل به شبکه را فراهم نموده و همچنین با پیاده سازی الگوریتم نگاشت-کاهش[۶] باعث شده تا بتوان برنامه های پردازشی را بین گره های مختلف برای تحلیل داده های حجیم توزیع نمود]۲[.

پس از هدوپ پروژه اسپارک[۷] با ارائه امکان پردازش داخل حافظه سعی در بهبود عملکرد و سرعت پردازش کلان داده نمود، این ابزار نیز می تواند در کنار سایر ابزار های محیط هدوپ استفاده شود]۳[.

ما در این پایان نامه سعی داریم با استفاده از ابزارهای کلان داده راه حل هایی را برای مدیریت داده های علمی تولید شده در تاسیسات فیزیک آزمایشگاهی[۸] بپردازیم.

مطالعه نانوساختارهای مغناطیسی در طیف گسترده ای از کاربردها قابل استفاده است که ازجمله آنها می توان به ساخت حافظه های مغناطیسی (MRAM)، ساخت سنسورهای میدان مغناطیسی بسیار حساس، ایجاد منطق اسپینی قابل برنامه نویسی و ساخت فصای ذخیره سازی بسیار فشرده اشاره نمود.

در این آزمایش ما با استفاده از چارچوب میکرومغناطیس شی گرا (OOMMF) اقدام به شبیه سازی جهت گیری ممان مغناطیسی (M) در یک نانوساختار به ابعاد ۲۰۰۰ در ۵۰ در ۱ نانومتر مطابق شکل یک پرداختیم.

برای این منظور می بایست ابعاد نانو ساختار و همچنین ابعاد شبکه (mesh) را مشخص سازیم. ما در این مرحله شبکه را با اندازه های ۱x2x2‌نانومتر و همچنین ۱x1x1 نانومتر انتخاب نموده و شبیه سازی نموده ایم. برنامه شبیه ساز برآیند نیروهای مغناطیسی (M) مانند شکل ۲ را در هر شبکه بر اساس رابطه ۱ محاسبه نموده و اندازه آن را در راستای محور های x,y,z ذخیره می نماید. حال بر اساس میزان داده تولید شده و همچنین مدت زمان اجرای هر یک از این دو آزمایش می توان میزان فضای مورد نیاز برای ذخیره سازی داده ها و زمان لازم برای تولید آنها را با دقت زیاد و در مقیاس انگستروم برآورد نمود. این نتایج در جدول ۱ نشان داده شده است.

این آزمایشات در دو مرحله انجام شده ابتدا در مرحله استاتیک وضعیت اولیه ماده و جهت گیری ممان های مغناطیسی محاسبه شده و سپس این وضعیت اولیه به برنامه دینامیک داده شده تا وضعیت ممان های مغناطیسی در حضور یک موج تابیده شده محاسبه گردد.

اندازه مش تعداد مش حجم فایل استاتیک مدت زمان اجرا حجم فایل داینامیک مدت زمان اجرا
۱x2x2 nm ۲۵۰۰۰ ۴٫۵۷ MB ۵۳ دقیقه ۲۷٫۴ GB ۲ ساعت و ۴۶ دقیقه
۱x1x1 nm ۱۰۰۰۰۰ ۳۱٫۵ MB ۱۶ ساعت و ۲۸ دقیقه ۳۳۴ GB ۵۹ ساعت و ۴۹ دقیقه
۵x5x5 angstrom ۸۰۰۰۰۰ ~ ۲۵۶ MB حدود ۵ روز ~ ۲۶ TB حدود ۲۰ روز
۱x2x2 angstrom ۲۵۰۰۰۰۰۰ ~ ۴٫۵ GB حدود ۳۶ روز ~ ۸۳۳ TB حدود ۲ ماه

جدول ۱- تخمین مدت زمان اجرای آزمایش و حجم فضای ذخیره سازی مورد نیاز

 

ب : فرضيات

 

داده های علمی تولید شده در تاسیسات فیزیک آزمایشگاهی دارای مشخصه های کلان داده هستند.

ابزار های کلان داده می توانند برای مدیریت داده های علمی مورد استفاده قرار گیرند.

استفاده از ابزار کلان داده می تواند برخی از چالش های مرتبط با ذخیره سازی و پردازش داده های آزمایشات فیزیکدانان را حل نماید.

 

 

 

ج : هدف از اجراء ( شامل دلايل ضرورت انجام و كاربرد نتايج پايان نامه )

 

آزمایشات مختلف علمی از جمله آزمایشات فیزیکی صورت گرفته در تاسیسات فیزیک آزمایشگاهی داده های عظیمی را ایجاد نموده که شامل مشخصه های متنوع و زیادی هستند، نگهداری حجم زیاد داده های ایجاد شده در برخی از این آزمایشات و پردازش آنها نیازمند توان محاسباتی بالایی بوده که معمولا از حد توان یک رایانه یا سرویس دهنده خارج می باشد. ما در این تحقیق سعی داریم تا با استفاده از ابزار محیط کلان داده  امکانی را فراهم سازیم تا نیازهای فیزیک دانان برای ذخیره سازی داده و پردازش داده ها را برطرف ساخته و بدین وسیله دقت و کیفیت تحلیل‌ها و نتایج آزمایشات را ارتقاء بخشیم.

 

[۱] Cavendish experiment

[۲] Large Hadron Collider

[۳] CERN

[۴] Hadoop

[۵] HDFS

[۶] MapReduce

[۷] Spark

[۸] Experimental Physics Facilities (EPF)

 

روش پژوهش و مراحل انجام پايان نامه:

الف : طراحي پايان نامه

در فرایند های طراحی، ساخت و عملکرد تاسیسات فیزیک آزمایشگاهی شاخه های مختلفی از مهندسی و علوم دخیل هستند و این امر موجب نیاز به سیستم های اطلاعاتی برای مدیریت داده ها گردیده است ]۴[. انفجار اطلاعات یکی از چالش های اساسی سنکروترون ها در حال حاضر می‌باشد که این چالش ها به صورت کلی در زمینه های ذخیره سازی اطلاعات، تحلیل داده ها، تصور[۱]، پایش و کنترل وجود دارند. داده های علمی آزمایش‌های فیزیکی نظیر آنچه در شتاب دهنده های ذرات رخ می دهد در بازه کوتاه زمانی مانند هر برخورد ذرات که ۶۰۰ بار در ثانیه رخ می‌دهد یک مگابایت اطلاعات ایجاد می کند]۵[. با توجه به حجم و سرعت زیاد تولید داده ها و موارد مطرح شده در تعریف مسئله، استفاده از محیط کلان داده و ابزارهای آن می تواند گزینه‌مناسب برای حل اینگونه چالش ها باشد. ما سعی داریم تا با استفاده از پروژه های مرتبط با آپاچی هدوپ[۲] راهکاری را برای مدیریت داده های اینگونه تاسیسات ارائه نماییم.

شکل۱: نمایش نمادین راهکار پیشنهادی

 

همانطور که در شکل ۱ مشاهده می شود ما سعی داریم تا با ایجاد یک واسط امکان استفاده از ابزارهای موجود در محیط کلان داده را برای پاسخ‌گویی به نیاز های آزمایشات فیزیکی فراهم آوریم. چالش اولیه ای که با آن رو برو خواهیم بود ایجاد امکان حجم زیاد داده های تولید شده در فرایند شبیه سازی و آزمایشات می باشد.

در اینجا سعی خواهیم نمود با ایجاد یک ماژول جهت انتقال داده ها از فایل سیستم محیط آزمایشگاهی به فایل سیستم توزیع شده هدوپ این مشکل را حل نموده و امکان تحلیل داده ها را با استفاده از سایر ابزارهای موجود در محیط کلان داده فراهم آوریم.

از سایر چالش هایی که در مدیریت داده های آزمایشات فیزیکی با آن روبرو هستیم می توان به عنوان مثال به انتقال داده های حجیم، پیچیدگی های محاسباتی و پردازشی اشاره نمود که بعضا جزء مسائلی بوده که تاکنون راه حل کاملا بهینه ای برای آنها ارائه نشده است. بنابراین، در این پایان نامه سعی خواهیم نمود تا مدیریت داده ها را از جهات مختلف بررسی نموده و با استفاده از ابزار کلان داده راه حل های مناسبی را تا حد امکان ارائه نماییم.

 

ب : نمونه برداري

 

داده های مورد استفاده در تحقیق از طریق شبیه سازی آزمایش‌ها توسط نرم افزارهایی مانند بسته شبیه سازی میکرومغناطیسی «اِنمگ»[۳] یا «چارچوب میکرومغناطیسی شی گرا[۴]» و یا سایر نرم افزارهای شبیه سازی، در دسترس می باشند. همچنین می‌توان از داده‌های ذخیره شده از آزمایشات صورت گرفته در تاسیسات فیزیک آزمایشگاهی مانند سنکروترون‌ها استفاده نمود.

 

ج : روش آماري تجزيه و تحليل اطلاعات

 

برای تجزیه و تحلیل اطلاعات مربوط به آزمایشات در حوزه فیزیک و میکرومغناطیس الگوریتم های مربوط به حل روابط مختلف ریاضی مانند معادلات دیفرانسیل و تبدیل فوریه استفاده می شوند.

 

 سابقه علمي و فهرست منابع: *

 

تاريخچه طرح و پژوهش هاي انجام شده در اين زمينه :

 

از یک رویکرد، تاثیر کلان داده بر روی مدیریت چرخه حیات داده ها در زیرساخت های داده های علمی توسط دمچنکو و همکارانش ]۶[ مطالعه شده است، در رویکردی دیگر خانم سکینه علیزاده ]۵[ در پایان نامه و مقاله خود به مطالعه انواع آزمایش های مختلف انجام شده در سنکروترون ها که نمونه ای از تاسیسات فیزیک آزمایشگاهی هستند پرداخته  و کاربرد های استفاده از ابزارهای کلان داده در اینگونه تاسیسات را به صورت نظری مورد مطالعه قرار داده اند.

کلان داده در حوزه های مختلف نظیر سلامت عمومی ]۷[، شبیه سازی مرتبط با توسعه شهری]۸[ نیز کاربرد دارد.

در زمینه فیزیک و مطالعات مربوط به خواص میکرومغناطیسی مواد مسئله های استانداردی مانند مسئله پراکندگی امواج ]۹[ مطرح هستند که برای دستیابی به نتایج بهتر نیازمند تحلیل داده های حجیم می باشند.

همانطور که مشاهده می شود مسئله مدیریت داده ها و چالش های روبروی آن در مطالعات بسیاری که به برخی از آنها اشاره نمودیم بررسی شده‌اند اما با وجود گستره زیاد آزمایشات و حوزه های تحقیقاتی مسائل و نیازمندی های بسیاری برای تحقیقات آتی وجود دارد که موضوع انتخابی ما نیز جزئی از این تلاش ها برای پاسخگویی به چالش های موجود در زمینه فیزیک آزمایشگاهی می باشد.

 

منابع:

 

۱-Y. Demchenko, P. Grosso, C. de Laat and P. Membrey, “Addressing big data issues in Scientific Data Infrastructure,” 2013 International Conference on Collaboration Technologies and Systems (CTS), San Diego, CA, 2013, pp. 48-55.

 

۲- Dittrich, Jens, and Jorge-Arnulfo Quiané-Ruiz. “Efficient big data processing in Hadoop MapReduce.” Proceedings of the VLDB Endowment 5.12 (2012): 2014-2015.

 

۳- Zaharia, Matei, et al. “Apache spark: a unified engine for big data processing.” Communications of the ACM 59.11 (2016): 56-65.

 

۴- A. Khaleghi, J. Rahighi, M. Akhbari, K. Mahmoudi, M. Hosseinzadeh, M. Oghbai, “Conceptual Design of Developing a Mobile App for Distributed Information Services for Control Systems (DISCS)”, in proceedings of 16th Int. Conf. on Accelerator and Large Experimental Control Systems (2017), ICALEPCS2017, Barcelona, Spain

۵- S. Alizada, A. Khaleghi, “THE STUDY OF BIG DATA TOOLS USAGES IN SYNCHROTRONS”, in proceedings of 16th Int. Conf. on Accelerator and Large Experimental Control Systems (2017), ICALEPCS2017, Barcelona, Spain

 

۶- Demchenko, Yuri, et al. “Addressing big data challenges for scientific data infrastructure.” Cloud Computing Technology and Science (CloudCom), 2012 IEEE 4th International Conference on. IEEE, 2012.

 

۷- Murdoch, Travis B., and Allan S. Detsky. “The inevitable application of big data to health care.” Jama 309.13 (2013): 1351-1352.

 

۸- Pijanowski, Bryan C., et al. “A big data urban growth simulation at a national scale: configuring the GIS and neural network based land transformation model to run in a high performance computing (HPC) environment.” Environmental Modelling & Software 51 (2014): 250-268.

 

۹- Venkat, Guru, et al. “Proposal for a standard micromagnetic problem: Spin wave dispersion in a magnonic waveguide.” IEEE Transactions on Magnetics 49.1 (2013): 524-529.

[۱] Visualization

[۲] Apache Hadoop

[۳] Nmag

[۴] Object Oriented MicroMagnetic Framework (OOMMF)

0 پاسخ

دیدگاه خود را ثبت کنید

تمایل دارید در گفتگوها شرکت کنید؟
در گفتگو ها شرکت کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *