User:MaryamRahmanii/sandbox

هماهنگ‌سازی داده یک رشته ریاضی است که به دنبال بهینه‌سازی ترکیب بهینه نظریه (معمولا به شکل یک مدل عددی) با مشاهدات است. ممکن است اهداف مختلفی مورد توجه قرار گیرند - به عنوان مثال، تعیین برآورد وضعیت بهینه یک سامانه، تعیین شرایط اولیه برای یک مدل پیش‌بینی عددی، تقریب داده‌های مشاهده شده گسترده با استفاده از دانش (فیزیکی) درباره سامانه مورد مشاهده، تنظیم پارامترهای عددی بر اساس آموزش یک مدل از داده‌های مشاهده شده. بسته به هدف، روش‌های حل مختلف ممکن است استفاده شود. هماهنگ‌سازی داده از سایر اشکال یادگیری ماشین، تحلیل تصویر، و روش‌های آماری با استفاده از یک مدل پویا از سامانه‌ای که در حال تجزیه و تحلیل است، متمایز است. هماهنگ‌سازی داده ابتدا در زمینه پیش‌بینی جوّی عددی توسعه یافت. مدل‌های پیش‌بینی جوّی عددی معادلاتی هستند که رفتار پویای جوّ را توصیف می‌کنند و معمولا به صورت یک برنامه کامپیوتری کد شده‌اند. برای استفاده از این مدل‌ها برای انجام پیش‌بینی‌ها، شرایط اولیه برای مدل نیاز دارند که به طور نزدیک به وضع فعلی جوّ باشند. قرار دادن اندازه‌گیری‌های نقطه‌ای به مدل‌های عددی راه حل مناسبی فراهم نمی‌کرد. اندازه‌گیری‌های واقعی دنیای وجود دارند که خطاهایی هم به دلیل کیفیت دستگاه و هم به دلیل دقت شناسایی موقعیت اندازه‌گیری وجود دارند. این خطاها ممکن است باعث ناپایداری در مدل‌ها شوند که هر سطح توانایی در یک پیش‌بینی را حذف می‌کنند. بنابراین، روش‌های پیچیده‌تر برای شروع یک مدل با استفاده از تمام داده‌های موجود در حالت حفظ پایداری در مدل عددی نیاز بود. چنین داده‌ای به طور معمول شامل اندازه‌گیری‌ها و همچنین یک پیش‌بینی قبلی کاربردی در همان زمان که اندازه‌گیری صورت گرفت، است. اگر به صورت تکرار شده اعمال شود، این فرآیند شروع به جمع آوری اطلاعات از مشاهدات گذشته در تمام پیش‌بینی‌های بعدی می‌کند. زیرا هماهنگ‌سازی داده از حوزه پیش‌بینی جوّی عددی توسعه یافت، ابتدا بین محققان در علوم زمین محبوب شد. در واقع، یکی از معروف‌ترین مقالات در تمام علوم زمین، یک کاربرد هماهنگ‌سازی داده برای بازسازی تاریخچه مشاهده‌شده جوّ است.[|[1]]

جزِییات پروسه ی هماهنگ سازی
از نظر کلاسیک، هماهنگ‌سازی داده برای سیستم‌های دینامیکی پرتنش که با استفاده از روش‌های ساده‌ی پیش‌بینی قابل پیش‌بینی نیستند، استفاده می‌شود. علت این دشواری این است که تغییرات کوچک در شرایط اولیه می‌تواند منجر به تغییرات بزرگ در دقت پیش‌بینی شود. این گاهی به عنوان "اثر پروانه" شناخته می‌شود - وابستگی حساس به شرایط اولیه که یک تغییر کوچک در یک وضعیت از یک سیستم غیرخطی قطعی می‌تواند منجر به تفاوت‌های بزرگ در وضعیت بعدی شود. در هر زمان به‌روزرسانی، هماهنگ‌سازی داده معمولاً یک پیش‌بینی (همچنین به عنوان حدس اول، یا اطلاعات پس‌زمینه) را می‌گیرد و یک اصلاح به پیش‌بینی بر اساس مجموعه‌ای از داده‌های مشاهده شده و خطاهای تخمین زده شده که هم در مشاهدات و هم در پیش‌بینی حضور دارند، اعمال می‌کند. تفاوت بین پیش‌بینی و مشاهدات در آن زمان، به عنوان خروجی یا نوآوری شناخته می‌شود (زیرا اطلاعات جدید را به فرآیند هماهنگ‌سازی داده فراهم می‌کند). یک عامل وزنده به نوآوری اعمال می‌شود تا تعیین کند چقدر از یک اصلاح باید براساس اطلاعات جدید از مشاهدات به پیش‌بینی اعمال شود. بهترین تخمین از وضعیت سامانه براساس اصلاح به پیش‌بینی تعیین شده توسط عامل وزنده ضرب در نوآوری، تحلیل نامیده می‌شود. در یک بعد، محاسبه تحلیل ممکن است به سادگی شامل تشکیل یک متوسط وزنده از یک مقدار پیش‌بینی شده و مشاهده شده باشد. در چند بُعد، مسئله دشوارتر می‌شود. بسیاری از کارهای هماهنگ‌سازی داده بر روی تخمین مناسب عامل وزنده براساس دانش پیچیده از خطاهای سامانه تمرکز دارند. معمولاً اندازه‌گیری‌ها از یک سامانه واقعی صورت می‌گیرد، به جای نمایش ناتمام مدل آن سامانه، و بنابراین یک تابع ویژه به نام عامل مشاهده (معمولاً با h برای یک عامل غیرخطّي یا H برای خطّي سازي آن) نياز است تا متغير مدل شده را به يك فرم كه مي‌توان آن را به طور مستقيم با مشاهده مقابل قرار داد، نگاشت كند.

هماهنگ سازی داده به عنوان تخمین آماری
هماهنگ‌سازی داده به عنوان یک مسئله بیزین تخمینی موردنظر است. از این منظر، مرحله تحلیل یک اعمال قضیه بیز و فرآیند کل هماهنگ‌سازی یک مثال از تخمین بیزین بازگشتی است. با این حال، تحلیل احتمالاتی معمولاً به یک شکل قابل محاسبه ساده‌سازی می‌شود. پیشرفت توزیع احتمال در زمان به صورت دقیق در حالت کلی توسط معادله فوکر-پلانک انجام می‌شود، اما این برای سامانه‌های با ابعاد بالا قابل انجام نیست؛ بنابراین، جایگزین‌های مختلف عملکرد بر روی نمایش‌های ساده شده از توزیع احتمالات استفاده می‌شود. اغلب فرض می‌شود که توزیع‌های احتمالاتی گاوسی هستند تا بتوانند توسط میانگین و کوواریانس خود نشان داده شوند، که منجر به فیلتر کالمن می‌شود. بسیاری از روش‌ها توزیع‌های احتمالات را تنها با میانگین نمایش داده و یک کوواریانس پیش‌محاسبه شده وارد می‌کنند. یک نمونه از روش مستقیم (یا توالی) برای محاسبه این موضوع، به عنوان تقریب آماری بهینه شناسایی، یا ساده‌سازی بهینه (OI) شناخته می‌شود. یک روش جایگزین این است که به صورت تکراری یک تابع هزینه را حل کند که یک مسئله همانند را حل می‌کند. این‌ها به عنوان روش‌های واریانس، مانند 3D-Var و 4D-Var شناخته می‌شوند. الگوریتم‌های کمینه‌سازی معمول شامل روش گرادیان همجذب یا روش حداقل باقیمانده عمومی هستند. فیلتر کالمن گروه آزمایشگاهی روش توالی است که از یک روش مونت کارلو برای تخمین هم میانگین و هم کوواریانس یک توزیع احتمالات گاوسی با استفاده از یک گروه شبیه‌سازی استفاده می‌کند. به تازگی، ترکیب‌های هجین از روش‌های گروه و روش های واریانس محبوب تر شده اند (برای پیش بینی عملیاتی هم در مرکز اروپای طولانی برای پیش بینی آب و هوی مدت متوسط و هم در مرکز های ملی پیش بینی زیست محیطی .)

هماهنگ سازی داده به عنوان به روزرسانی مدل
هماهنگ‌سازی داده می‌تواند از طریق حلقه به‌روزرسانی مدل نیز انجام شود، جایی که ما یک مدل اولیه (یا حدس اولیه) را در یک حلقه بهینه‌سازی تکرار خواهیم کرد تا مدل را با داده‌های مشاهده شده محدود کنیم. روش‌های بهینه‌سازی متعدد وجود دارند و همه آن‌ها می‌توانند برای به‌روزرسانی مدل تنظیم شوند، به عنوان مثال، الگوریتم‌های تکاملی ثابت کرده‌اند که بدون فرض، اما محاسباتی گرانقیمت هستند.

کاربردهای پیش‌بینی هواشناسی
در کاربردهای پیش‌بینی عددی هواشناسی، هماهنگ‌سازی داده به عنوان روشی برای ترکیب مشاهدات متغیرهای هواشناسی مانند دما و فشار جوی با پیش‌بینی‌های قبلی به منظور مقدماتی کردن مدل‌های پیش‌بینی عددی شناخته شده است.

چرا این ضروری است؟

جو، یک مایع است. ایده پیش‌بینی هواشناسی عددی این است که وضعیت مایع را در یک زمان مشخص نمونه‌برداری کرده و از معادلات دینامیک مایع و حرارت‌شناسی برای تخمین وضعیت مایع در زمانی آینده استفاده کنیم. فرآیند وارد کردن داده‌های مشاهده شده به مدل برای تولید شرایط اولیه، به نام «آغازین‌سازی» خوانده می‌شود. در برابر زمین، نقشه‌های زمین‌شناسی با وضوح تا 1 کیلومتر (0.6 مایل) به صورت جهانی استفاده می‌شود تا به مدل‌سازی گردش‌های جوی در مناطق با توپوگرافی نامنظم کمک کند، به منظور بهتر نمایش ویژگی‌هایی مانند بادهای سردسیر، امواج کوهستان و ابرهای مرتبط که بر تابش خورشید ورودی تأثیر می‌گذارند.[2] ورودی‌های اصلی از سرویس‌های هواشناسی بر پایه کشور، شامل مشاهدات از دستگاه‌ها (به نام رادیوسند) در بالون‌های هوا است که پارامترهای مختلف جوی را اندازه‌گیری کرده و آن‌ها را به یک گیرنده ثابت انتقال می‌دهند، همچنین از ماهواره‌های هواشناسی استفاده می‌شود. سازمان هواشناسی جهانی برای استانداردسازی سازماندهی، روش‌های مشاهده و زمانبندی این مشاهدات به صورت جهانی فعالیت می‌کند.[3] ایستگاه‌ها یا ساعتی در گزارش‌های METAR[4] گزارش می‌دهند، یا هر شش ساعت در گزارش‌های SYNOP. این مشاهدات با فواصل نامنظم هستند، بنابراین توسط روش‌های همگرایی داده و تجزیه و تحلیل هدفمند پردازش می‌شوند، که کنترل کیفیت را انجام داده و مقادیر قابل استفاده توسط الگوریتم‌های ریاضی مدل را در مکان‌های قابل استفاده حصول می‌کنند.[5] برخی از مدل‌های جهانی از تفاضلات محدود استفاده می‌کنند، که جهان به عنوان نقطه‌های گسسته در یک شبکه با فواصل منظم از عرض جغرافیایی و طول جغرافیایی نمایش داده شده است؛[6] دیگر مدل‌ها از روش‌های طول موج استفاده می‌کنند که برای حل گستره‌ای از طول موج‌ها استفاده می‌کنند. سپس داده‌ها به عنوان نقطۀ شروع برای یک پیش‌بینی استفاده می‌شود.[7] برای جمع‌آوری داده‌های مشاهده شده برای استفاده در مدل‌های عددی، از روش‌های گوناگون استفاده می‌شود. اینترنت از بالون‌های هوا استفاده می‌کند که از طریق تروپوسفر به سمت استراتوسفر صعود پیدا کرده [8]و اطلاعات از ماهواره‌های هواشناسی استفاده می‌کند در جایگاه‌های داده سنتی در دسترس نبود. تجارت گزارشات خلبان را در طول مسیر هواپیما [9][10]فراهم می کند و گزارشات کشتیران در طول مسیر حمل و نقل در دریا. پروژه‌های تحقيقاتي از هواپيمايي براي پرواز در و حول سيستم هوايي همچون چرخابي هائي استفادة كرده و يكي از آن ها كيكوليك هست.[11][12] هواپیماهای بررسی نیز در فصل سرد بر روی اقیانوس‌های باز پرواز می‌کنند وارد سامانه‌هایی که باعث عدم قطعیت قابل توجه در راهنمای پیش‌بینی می‌شوند، یا انتظار می‌رود تا سه تا هفت روز آینده در قاره‌های پایین‌دست تأثیر زیادی داشته باشند.[13] یخ دریا از سال 1971 در مدل‌های پیش‌بینی آغاز به کار شد.[14] تلاش‌ها برای درگیر کردن دمای سطح دریا در آغاز مدل در سال 1972 به دلیل نقش آن در تنظیم هواشناسی در عرض‌های بالاتر اقیانوس آغاز شد.[15]

تاریخچه



در سال 1922، لوئیس فرای ریچاردسون تلاش اولیه برای پیش‌بینی هواشناسی به صورت عددی را منتشر کرد. با استفاده از یک نسخه هیدرواستاتیک از معادلات ابتدایی بیرکنس[16]، ریچاردسون به صورت دستی یک پیش‌بینی ۶ ساعته برای وضعیت جوی بر روی دو نقطه در اروپای مرکزی تولید کرد، که حداقل شش هفته زمان برای انجام این کار نیاز بود.[17] پیش‌بینی او محاسبه کرد که تغییر فشار سطحی ۱۴۵ میلیبار (معادل ۴.۳ اینچ جیوه) خواهد بود، یک مقدار غیر واقع‌بینانه که دقت آن دو دستور بزرگتر از مقدار صحیح بود. این خطا بزرگ به دلیل عدم تعادل در فیلدهای فشار و سرعت باد استفاده شده به عنوان شرایط اولیه در تجزیه و تحلیل او بود،[16] که نشان داد نیاز به یک روش جذب داده بود. اولاً، "تجزیه و تحلیل ذهنی" استفاده شده بود که در آن پیش‌بینی‌های پیش‌بینی هواشناسی توسط هواشناسان با استفاده از تخصص عملیاتی خود تنظیم می‌شد. سپس "تجزیه و تحلیل هدفمند" (به عنوان مثال الگوریتم Cressman) برای جذب داده خودکار معرفی شد. این روش‌های هدفمند از روش‌های تقسیم ساده استفاده کردند و بنابراین به روش‌های(جذب داده سه‌بعدی) بودند.

در ادامه، روش‌های (جذب داده چهار‌بعدی)، معروف به "ناجینگ"، توسعه یافتند، مانند مدل ام ام فایو. آن‌ها بر اساس ایده ساده‌ای از رخداد نیوتنی (قانون دوم نیوتن) است. آن‌ها یک عبارتی را به قسمت راست معادلات پویای مدل معرفی می‌کنند که به اندازه تفاوت متغیر هواشناسی محاسبه شده و مقدار مشاهده شده تناسب دارد. این عبارت با علامت منفی باعث می‌شود که بردار وضعیت محاسبه شده نزدیک‌تر به مشاهدات باقی بماند. ناجینگ می‌تواند به عنوان یک نسخه از فیلتر کالمن-بوسی (نسخه پیوسته از فیلتر کالمن) با ماتریس بهره‌مند شده به جای آن که از همبستگی‌ها به دست آید، تفسیر شود. پیشرفت اصلی توسط ال.گاندین (1963) صورت گرفت که روش "تقارن آماری" (یا "تقارن بهینه") را معرفی کرد، که ایده‌های قبلی کلموگورف را توسعه داد. این یک روش جذب داده ی سه بعدی است و نوعی تجزیه و تحلیل رگرسیون است که از اطلاعات درباره توزیع‌های فضایی توابع همبستگی خطاهای "حدس اولیه" (پیش‌بینی قبلی) و "میدان واقعی" استفاده می‌کند. این توابع هرگز نامعلوم نیستند. با این حال، تقریب‌های مختلف فرض شده بود. الگوریتم تقارن بهینه نسخه کاست شده الگوریتم فیلتر کالمن است و در آن ماتریس‌های همبستگی از معادلات پویای محاسبه نمی‌شوند بلکه پیشاپنداشت شده‌اند.

تلاش‌ها برای معرفی الگوریتم‌های فیلتر کالمن به عنوان یک ابزار جذب داده ی ۴ بعدی برای مدل‌های ان دبلیو پی بعدا انجام شد. با این حال، این کار (و همچنان) یک وظیفه دشوار بود زیرا نسخه کامل نیازمند حل تعداد عظیمی از معادلات اضافی است. برای پیشگیری از این دشواری، فیلترهای کالمن تقریبی یا زیربهینه توسعه یافتند. این شامل فیلتر کالمن گروهی و فیلتر کالمن با رتبه کاست شده می‌شود. [18]یک پیشرفت مهم دیگر در توسعه روش‌های جذب داده های ۴ بعدی ،استفاده از نظریه کنترل بهین (رویکرد تغیرات) در آثار دیمت و تالاگرند(۱۹۸۶)بود که بر اساس آثار قبلی جی.لی.لیونزو جی.مارچاک بود، که آخرین نخستین نظریه را در مدل‌سازی محیط زیست اعمال کرد. مزیت مهم روش‌های تغیراتی این است که میدان‌های هواشناسی معادلات پویای مدل ان دبلیو پی را برآورده می‌کنند و در عین حال کمینه‌سازی تابعی را که تفاوت آن‌ها با مشاهدات را نشان می‌دهد، انجام می‌دهند. بنابراین، مسئله کمینه‌سازی محدود حل شده است. روش‌های تغیراتی جذب داده ی سه بعدی برای اولین بار توسط ساساکی(۱۹۵۸)توسعه یافتند.

همانطور که توسط لورنس (1986) نشان داده شد، تمام روش‌های جذب داده ی ۴ بعدی مذکور در حدودی معادل هستند، به این معنی که با فرض برخی شرایط، همه آن‌ها به کمینه‌سازی یک تابع هزینه مشترک می‌پردازند. با این حال، در برنامه‌های عملی، این فرضیات هرگز برآورده نمی‌شوند، روش‌های مختلف به طرز متفاوتی عمل می‌کنند و به طور کلی واضح نیست کدام رویکرد (فیلتر کالمن یا تغیراتی) بهتر است. سوالات اساسی همچنین در برنامه‌های استفاده از تکنیک‌های پیشرفته دی اِی مانند همگرایی روش محاسباتی به حداقل کمینه‌سازی تابعی که باید کمینه شود، پیش می‌آید. به عنوان مثال، تابع هزینه یا مجموعه‌ای که جستجو برای حل در آن انجام می‌شود، ممکن است صعب‌العبور نباشد. روش جذب داده ی ۴ بعدی که در حال حاضر موفق‌ترین آن است، [19][20]فور دی-ور افزایشی هجین است، جایی که یک مجموعه از انسامبل برای افزایش خطاهای پس‌زمینه اقلیمولوژیک در آغاز پنجره زمانی تطبیق داده استفاده می‌شود، اما خطاهای پس‌زمینه در طول پنجره زمانی توسط یک نسخه ساده شده از مدل پیش‌بینی ان دبلیو پی تکامل می‌یابد. این روش تطبیق داده در مراکز پیش‌بینی مانند دفتر هواشناسی استفاده عملیاتی دارد.[21][22]

تابع هزینه

فرایند ایجاد تحلیل در تطبیق داده اغلب شامل کمینه‌سازی یک تابع هزینه است. یک تابع هزینه معمول ممکن است شامل جمع مربعات اختلافات مقادیر تحلیلی از مشاهدات با وزن دقت مشاهدات، به علاوه جمع مربعات اختلافات میدان‌های پیش‌بینی و میدان‌های تحلیلی با وزن دقت پیش‌بینی باشد. این باعث می‌شود که تحلیل از مشاهدات و پیش‌بینی‌هایی که به طور معمول قابل اعتماد هستند، خیلی دور نرود.

3D-Var
$$J(\mathbf{x}) = (\mathbf{x}-\mathbf{x}_{b})^{\mathrm{T}}\mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}_{b}) + (\mathbf{y}-\mathit{H}[\mathbf{x}])^{\mathrm{T}}\mathbf{R}^{-1}(\mathbf{y}-\mathit{H}[\mathbf{x}]),$$

در اینجا $$\mathbf{B}$$ ماتریس همبستگی خطاهای پس زمینه را نشان می دهد و $$\mathbf{R}$$ ماتریس همبستگی خطاهای مشاهداتی را نشان می دهد

$$\nabla J(\mathbf{x}) = 2\mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}_{b}) - 2\mathit{H}^T\mathbf{R}^{-1}(\mathbf{y}-\mathit{H}[\mathbf{x}])$$

4D-Var
$$J(\mathbf{x}) = (\mathbf{x}-\mathbf{x}_{b})^{\mathrm{T}}\mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}_{b}) + \sum_{i=0}^{n}(\mathbf{y}_{i}-\mathit{H}_{i}[\mathbf{x}_{i}])^{\mathrm{T}}\mathbf{R}_{i}^{-1}(\mathbf{y}_{i}-\mathit{H}_{i}[\mathbf{x}_{i}])$$

اگر $$\mathit{H}$$ یک عامل خطی (ماتریس) باشد

توسعه های آینده

عواملی که توسعه سریع روش‌های جذب داده برای مدل‌های پیش‌بینی هواشناسی را تحریک می‌کنند شامل موارد زیر است: - استفاده از مشاهدات فعلی امکان بهبود قابل توجه در مهارت پیش‌بینی در مقیاس‌های فضایی مختلف (از جهانی تا بسیار محلی) و مقیاس‌های زمانی ارائه می‌دهد. - تعداد انواع مختلف مشاهدات قابل دسترس (مانند سودار، رادار، ماهواره) به سرعت در حال افزایش است.

کاربرد های دیگر


جذب داده در دهه‌های ۱۹۸۰ و ۱۹۹۰ در چند پروژه هاپکس (آزمایش هیدروکلیمایی و جوی) برای نظارت بر انتقالات انرژی بین خاک، گیاهان و جو استفاده شده است. به عنوان مثال:

- HAPEX-MobilHy,[24] HAPEX-Sahel,[25]

- آزمایش (جذب داده‌های حساس به فضا)، یک پروژه اروپایی در برنامه FP4-ENV که در منطقه آلپیلز در جنوب شرق فرانسه (۱۹۹۶-۱۹۹۷) برگزار شد. نمودار جریان (سمت راست)، که از گزارش نهایی آن پروژه گرفته شده است، نشان می‌دهد چگونه متغیرهای مورد علاقه مانند وضعیت پوشش گیاهی، جریان‌های تابشی، بودجه محیطی، تولید به صورت کمی و کیفی و ... را از داده‌های حساس به فضا و اطلاعات کمکی استخراج کنید. در آن نمودار، پیکان‌های کوچک آبی-سبز نحوه مستقیم اجرای مدل‌ها را نشان می‌دهند

کاربرد های پیش بینی شده ی دیگر

روش‌های جذب داده در حال حاضر نیز در مشکلات پیش‌بینی محیطی دیگر مانند پیش‌بینی هیدرولوژیک و هیدروژئولوژیک استفاده می‌شود.[30] شبکه‌های بیزین نیز ممکن است در یک رویکرد جذب داده برای ارزیابی خطرات طبیعی مانند راندها استفاده شوند.[31] با توجه به فراوانی داده‌های فضایی برای سیاره‌های دیگر در منظومه شمسی، اکنون جذب داده نیز به عنوان یک روش برای به دست آوردن تجزیه و تحلیل مجدد وضعیت جوی سیارات فرازمینی به کار گرفته می‌شود. تا کنون، مارس تنها سیاره فرازمینی است که به آن از طریق جذب داده پرداخته شده است. داده‌های موجود از فضاپیماها شامل بازیابی‌های دما و ضخامت‌های نوری گرد/آب/یخ از طریق طیف‌سنج گرمایشی بر روی فضاپیمای بررسی گرده‌گیر مارس ناسا و سنجنده اقلیم مارس بر روی فضاپیمای بررسی مجدد مارس ناسا است. دو روش جذب داده به این داده‌ها اعمال شده است: یک طرح اصلاح تجزیه و تحلیل [32] و دو طرح فیلتر کالمن جمعی [33] [34] که هر دو از یک مدل جار تاخیر جهانی از جو مارس به عنوان مدل پیشرو استفاده کرده‌اند. مجموعه داده تجزیه و تحلیل داده اصلاح مارس (ماکادا)به صورت عمومی از مرکز داده هوای بریتانیایی قابل دسترس است.[35]جذب داده یک بخش از چالش برای هر مسئله پیش‌بینی است. برخورد با داده‌های تعصب‌آمیز چالش جدی در جذب داده است. توسعه روش‌های برخورد با تعصب‌ها به خصوص مفید خواهد بود. اگر چندین ساز و کار برای مشاهده یک متغیر وجود داشته باشد، آن‌ها را با استفاده از توزیع احتمالات مقایسه کردن ممکن است راهنمای باشد.

مدل‌های پیش‌بینی عددی به دلیل افزایش قدرت محاسباتی، دارای رزولوشن بالاتری شده‌اند و در حال حاضر مدل‌های جوی عملی با رزولوشن افقی حدود 1 کیلومتر (برای مثال در سازمان هواشناسی ملی آلمان، سازمان هواشناسی آلمان و دفتر هواشناسی در انگلستان) در حال اجرا هستند. این افزایش در رزولوشن‌های افقی شروع به توانایی حل و فصل ویژگی‌های آشفته مدل‌های غیرخطی می‌کند، به عنوان مثال حل کنوکشن به مقیاس شبکه یا ابرها در مدل‌های جوی. این افزایش غیرخطایی در مدل‌ها و عملگرهای مشاهده یک مسئله جدید در جذب داده ایجاد می‌کند. روش‌های موجود جذب داده مانند انواع مختلف فیلترهای کالمن جمعی و روش‌های واریانس، که با مدل‌های خطی یا نزدیک به خطی به خوبی استقرار یافته‌اند، در مدل‌های غیرخطی ارزیابی می‌شوند. روش‌های جدید بسیار در حال توسعه هستند، برای مثال فیلترهای ذرات برای مسائل با بعد بالا و روش‌های ترکیبی جذب داده.[36] کاربردهای دیگر شامل برآورد مسیر برنامه آپولو، جی پی اس و شیمی جو است.

مرتبط

 * Calibration

لینک های بیشتر
Examples of how variational assimilation is implemented weather forecasting at:

Other examples of assimilation:
 * CDACentral (an example analysis from Chemical Data Assimilation)
 * PDFCentral (using PDFs to examine biases and representativeness)
 * OpenDA – Open Source Data Assimilation package
 * PDAF – open-source Parallel Data Assimilation Framework
 * SANGOMA New Data Assimilation techniques

Category:Weather forecasting Category:Numerical climate and weather models Category:Estimation theory Category:Control theory Category:Bayesian statistics Category:Climate and weather statistics Category:Statistical forecasting