پردازش تصاویر و تحلیل داده‌های فضایی

این منبع، جلد دوم از مجموعه‌ی شش جلدی کتاب راهنمای سنجش از دور است که بر پردازش تصاویر دیجیتال و تحلیل داده‌های فضایی تمرکز دارد. این کتاب به مباحثی چون طبقه‌بندی تصویر برای کاربری‌های مختلف زمین، شناسایی تغییرات، و پردازش داده‌های سنجش از دور، از جمله تصاویر حرارتی و داده‌های LiDAR می‌پردازد. همچنین، این اثر یکپارچه‌سازی سیستم‌های اطلاعات جغرافیایی (GIS) با سنجش از دور، مدیریت داده‌ها و استخراج ویژگی‌ها را بررسی می‌کند. هدف نهایی آن ارائه دیدگاهی جامع درباره پیشرفت‌ها و کاربردهای سنجش از دور در زمینه‌های علمی و اجتماعی، و کمک به درک تکنیک‌های پیشرفته مانند یادگیری عمیق و سیستم‌های آگاه از منشأ داده (Provenance-Aware Systems) است. این مجموعه توسط دکتر پراساد اس. تنکابیل، دانشمند برجسته USGS در حوزه سنجش از دور، ویرایش شده و به همت ۳۰۰+ نویسنده تدوین شده است.

فصل 1

جلد دوم کتاب “راهنمای سنجش از دور” (Remote Sensing Handbook, Volume II)، با عنوان “پردازش تصویر، آشکارسازی تغییرات، سامانه اطلاعات جغرافیایی (GIS) و تحلیل داده‌های مکانی” به رشته تحریر درآمده است. این جلد به عنوان یک منبع عالی برای جامعه سنجش از دور و GIS، شامل متخصصین، محققان، دانشجویان و سیاست‌گذاران در نظر گرفته شده است، که از دانش متخصصین و روندهای نوظهور در این حوزه بهره‌مند خواهند شد.

فصل اول این کتاب به “پردازش تصویر” اختصاص دارد و مفاهیم و الگوریتم‌های اساسی در این زمینه را معرفی می‌کند. موضوعات کلیدی مطرح شده در این فصل عبارتند از:

  • بهبود تصویر (Image Enhancement) (بخش 1.3):
    • هدف اصلی بهبود تصویر، افزایش وضوح بصری تصویر برای تحلیل چشمی یا پردازش‌های کامپیوتری بعدی است.
    • الگوریتم‌های پایه شامل کاهش و بزرگنمایی تصویر (image reduction and magnification) و نمایه‌های مکانی و طیفی (spatial and spectral profiles) هستند.
    • تکنیک‌هایی مانند کشش هیستوگرام (histogram stretch) برای بهبود کنتراست تصویر به کار می‌روند. به عنوان مثال، کشش هیستوگرام روی باندهای قرمز و نزدیک فروسرخ (NIR) تصویر WorldView 2 نشان داده شده است.
    • باند نزدیک فروسرخ (NIR)، به ویژه باند 4 حسگر IKONOS، برای تمایز آب و خشکی بسیار مفید است، زیرا آب‌های عمیق و شفاف بازتاب بسیار پایینی دارند در حالی که خشکی بازتاب بالاتری در این باند نشان می‌دهد. این باند همچنین به دلیل بازتاب طیفی بالای پوشش گیاهی در بخش‌های نزدیک و میانی فروسرخ طیف، برای تجزیه و تحلیل پوشش گیاهی نیز کاربرد دارد.
    • تصاویر برش چگالی (density sliced) نیز به عنوان نمونه‌ای از تکنیک‌های بهبود تصویر ارائه شده‌اند.
  • پیش‌پردازش تصویر (Image Preprocessing) (بخش 1.4):
    • این مرحله به منظور کاهش محدودیت‌های استفاده عملیاتی از داده‌های سنجش از دور که ناشی از تغییرات حسگر، اثرات جوی و اثرات روشنایی ناشی از توپوگرافی است، انجام می‌شود.
    • تصحیح رادیومتریک (Radiometric Correction) (بخش 1.4.1): پرتوهای الکترومغناطیسی هنگام عبور از جو دچار فرآیندهایی مانند جذب، پراکندگی، تضعیف و انتقال می‌شوند. تصحیحات جوی به دو نوع مطلق (absolute) و نسبی (relative) تقسیم می‌شوند. تصحیح نسبی معمولاً برای نرمال‌سازی مقادیر روشنایی (BVs) در باندهای مختلف یک صحنه یا برای نرمال‌سازی تصاویر چندزمانی به یک صحنه استاندارد استفاده می‌شود.
    • درونیابی شدت (Intensity Interpolation): در rectification تصاویر، به دلیل عدم انطباق یک به یک بین مکان‌های پیکسل‌های ورودی و خروجی، یک مقدار BV جدید باید به پیکسل تصحیح شده اختصاص یابد. سه روش اصلی برای این “بازنمونه‌برداری (resampling)” عبارتند از: نزدیک‌ترین همسایه (Nearest neighbor)، درونیابی دوخطی (Bilinear interpolation) و کانولوشن مکعبی (Cubic convolution).
  • تحلیل مؤلفه‌های اصلی (Principal Component Analysis – PCA) (بخش 1.5):
    • هدف PCA کاهش ابعاد (تعداد باندها) داده‌ها و فشردگی بیشترین اطلاعات موجود در باندهای اصلی به تعداد کمتری باند جدید است.
    • این روش برای کاهش افزونگی و همبستگی بین باندها در مجموعه داده‌های چندطیفی، به ویژه در تصاویر هایپراسپرکترال، به کار می‌رود.
    • همبستگی (correlation) بین دو باند داده سنجش از دور، نسبت کوواریانس (covariance) آنها به حاصلضرب انحراف معیار (standard deviation) آنها است. دانشمندان برای بهینه‌سازی استفاده از باندهای متعدد، واریانس بالاتر و همبستگی پایین‌تر را ترجیح می‌دهند.
    • PCA با چرخش به محورهای جدیدی که نسبت به محورهای اصلی متعامد هستند، اطلاعات (یا واریانس) را در کمترین تعداد مؤلفه‌های جدید مفید به حداکثر می‌رساند. مؤلفه‌های با مرتبه بالاتر ممکن است با نویز در مجموعه داده اصلی مرتبط باشند.
  • فیلترگذاری مکانی (Spatial Filtering) (بخش 1.6):
    • عملیات “محلی” (local operations) هستند که در آن‌ها مقدار BV یک پیکسل بر اساس مقادیر پیکسل‌های همسایه آن تغییر می‌یابد.
    • فیلترها (یا ماسک‌های کانولوشن/کرنل) پنجره‌های متحرکی هستند که یک زیرپنجره کوچک با ابعاد معمولاً فرد (مانند 3×3، 5×5) تعریف می‌کنند.
    • فیلترهای پایین‌گذر (Low pass filters) برای تأکید بر ویژگی‌های فرکانس پایین و کاهش ویژگی‌های فرکانس بالا در تصویر طراحی شده‌اند. این فیلترها برای حفظ اطلاعات فرکانس پایین و حذف “نویز” (مانند speckle) در تصویر عالی هستند و مناطق با پوشش مشابه را یکنواخت نشان می‌دهند.
    • حذف نویزهایی مانند خطوط (striping) نیز می‌تواند با استفاده از تبدیل فوریه (Fourier Transform – FT) یا با ترکیب خروجی فیلترهای پایین‌گذر و بالابالاگذر (high pass filter) انجام شود.
  • نسبت باند (Band Ratio) و شاخص‌های پوشش گیاهی (Vegetation Indices – VI) (بخش 1.7):
    • نسبت باند (بخش 1.7.1): مقادیر BV اهداف مورد علاقه بسته به عوامل محیطی مانند توپوگرافی، زاویه خورشیدی، شرایط جوی و محتوای آب متفاوت است. تبدیل‌های نسبت بر روی دو یا چند باند طیفی می‌توانند این اثرات را به حداقل رسانده و اطلاعات منحصربه‌فردی ایجاد کنند.
    • شاخص پوشش گیاهی نرمال‌شده (Normalized Difference Vegetation Index – NDVI) (بخش 1.7.4): یکی از رایج‌ترین شاخص‌های پوشش گیاهی است که توسط Rouse و همکارانش (1974) معرفی شد. NDVI مشکل عدم نرمال‌سازی در “نسبت ساده (Simple Ratio – SR)” را حل می‌کند و مقایسه نتایج بین مطالعات مختلف را تسهیل می‌نماید. فرمول آن به صورت NDVI = (b_nir – b_red) / (b_nir + b_red) است.
    • سایر شاخص‌های ذکر شده در این فصل شامل نسبت ساده (SR)، شاخص پوشش گیاهی بهبودیافته (EVI) 1 و 2، و شاخص پوشش گیاهی با دامنه دینامیکی گسترده (WDRVI) و مدل سه‌باندی (TBM) هستند.

این فصل، پایه‌ای برای درک تکنیک‌های پردازش داده‌های سنجش از دور را فراهم می‌کند، از بهبودهای اساسی و تصحیحات تا تبدیل‌های پیشرفته‌تر و محاسبه شاخص‌ها.

فصل 2

بر اساس منابع ارائه شده، فصل ۲ کتاب “Remote Sensing Handbook, Volume II: Image Processing, Change Detection, GIS, and Spatial Data Analysis” با عنوان “روش‌های طبقه‌بندی تصویر در پوشش زمین و کاربری زمین” (Image Classification Methods in Land Cover and Land Use) است. نویسنده این فصل Mutlu Ozdogan می‌باشد.

این فصل به موضوعات زیر می‌پردازد:

  • مقدمه (Introduction).
  • تعاریف پوشش زمین و کاربری زمین:
    • پوشش زمین به وضعیت فیزیکی سطح زمین اشاره دارد.
    • کاربری زمین به استفاده از آن پوشش زمین برای یک هدف خاص اشاره دارد (به عنوان مثال، جنگل برای تولید چوب).
    • روش‌های طبقه‌بندی تصویر که بر روی داده‌های سنجش از دور اعمال می‌شوند، سطح زمین را تنها به دسته‌بندی‌های پوشش زمین طبقه‌بندی می‌کنند که سپس می‌توانند به کلاس‌های کاربری زمین تفسیر شوند.
  • مزایا و محدودیت‌های سنجش از دور برای طبقه‌بندی.
  • روش‌های طبقه‌بندی:
    • حداقل فاصله (Minimum Distance – MD): یکی از ساده‌ترین الگوریتم‌های طبقه‌بندی پارامتری است که در آن پیکسل‌های ناشناخته با کمینه کردن فاصله بین ماتریس مشاهده پیکسل و کلاس در فضای چند ویژگی، دسته‌بندی می‌شوند.
    • خوشه‌بندی میانگین K (K-Means Clustering – KMC): یک رویکرد تکراری است که در آن میانگین هر کلاس اطلاعات (خوشه) به نوعی (مثلاً به صورت تصادفی) مقداردهی اولیه می‌شود و هر پیکسل در ماتریس تصویر به نزدیک‌ترین خوشه در فضای ویژگی اختصاص می‌یابد. این یک روش طبقه‌بندی بدون نظارت و نیمه‌پارامتری است.
    • نظریه رزونانس تطبیقی (Adaptive Resonance Theory – ART): این چارچوب شامل چندین مدل شبکه عصبی است که از روش‌های یادگیری نظارت‌شده و بدون نظارت برای شناسایی و پیش‌بینی الگو استفاده می‌کنند. یک نسخه از آن به نام Fuzzy ARTMAP برای طبقه‌بندی پوشش گیاهی با داده‌های لندست و ویژگی‌های زمین اعمال شده است.
    • ماشین‌های بردار پشتیبان (Support Vector Machines – SVMs): اینها برای طبقه‌بندی داده‌ها، از جمله داده‌های پرطیفی، به خوبی عمل می‌کنند، حتی با وجود نویز (داده‌های آموزشی دارای برچسب اشتباه).
    • تحلیل شیء محور (Object-based Analysis): این رویکرد به جای پیکسل‌های منفرد، از اشیاء تصویر استفاده می‌کند و برای نقشه‌برداری در مقیاس وسیع و بهبود دقت طبقه‌بندی مفید است. این روش در طبقه‌بندی شهری نیز مورد استفاده قرار می‌گیرد.
    • طبقه‌بندی متنی: شامل طبقه‌بندی بافتی، که موجک‌ها (wavelets) نقش مهمی در آن دارند.
    • ارزیابی عدم قطعیت (Uncertainty Assessment): ارزیابی دقت نتایج طبقه‌بندی حاصل از داده‌های ماهواره‌ای، گامی مهم اما اغلب نادیده‌گرفته شده در تولید نقشه‌های پوشش زمین است.

این فصل منبعی عالی برای جامعه سنجش از دور و GIS، شامل دانشگاهیان، محققان، دانشجویان و همچنین متخصصان، تصمیم‌گیرندگان و سیاست‌گذاران است.

فصل 3

فصل سوم کتاب “راهنمای سنجش از دور، جلد دوم: پردازش تصویر، تشخیص تغییر، سامانه اطلاعات جغرافیایی (GIS) و تحلیل داده‌های فضایی” به طبقه‌بندی تصاویر شهری اختصاص دارد. نویسندگان این فصل شامل سو دبلیو ماینت (Soe W. Myint)، ویکتور مسو (Victor Mesev)، دیل کواتروکی (Dale Quattrochi) و الیزابت ا. ونتز (Elizabeth A. Wentz) هستند.

این فصل به بررسی رویکردهای مختلف برای طبقه‌بندی و تفسیر تصاویر شهری می‌پردازد:

  • مقدمه
  • روش‌های سنجش از دور برای طبقه‌بندی و تفسیر شهری: این بخش به روش‌های کلی مورد استفاده در این حوزه می‌پردازد.
  • روش‌های پیکسل‌محور (Per-Pixel Methods): این روش‌ها پیکسل‌ها را به صورت مجزا طبقه‌بندی می‌کنند.
    • اگرچه تکنیک‌های طبقه‌بندی تصاویر در طول زمان تکامل یافته‌اند، اما هیچ روشی لزوماً بر دیگری برتری ندارد؛ انتخاب الگوریتم خاص برای طبقه‌بندی پوشش و کاربری اراضی شهری به اهداف کاربر، سطح جزئیات مورد نیاز، فراوانی و نوع حسگرها بستگی دارد.
    • تحقیقاتی در مقایسه طبقه‌بندی پیکسل‌محور در مقابل طبقه‌بندی شیءمحور برای استخراج پوشش اراضی شهری با استفاده از تصاویر با وضوح مکانی بالا انجام شده است.
    • شایان ذکر است که از نظر حجم انتشارات، روش‌های پیکسل‌محور “کلاسیک” همچنان بیشتر از روش‌های OBIA/GEOBIA مورد توجه قرار گرفته‌اند.
    • روش‌های Geon شیءمحور می‌توانند نتایج نقشه‌برداری معادل یا بهتری را با هزینه محاسباتی کمتر نسبت به روش‌های پیکسل‌محور ارائه دهند که آن‌ها را برای نقشه‌برداری در مقیاس بزرگ مناسب‌تر می‌سازد. ترکیب رویکردهای Geon پیکسل‌محور و شیءمحور نتایج بهتری نسبت به رویکردهای پیکسل‌محور به تنهایی در نقشه‌برداری از سیل و اراضی زراعی داشته است.
  • روش‌های زیرپیکسل (Sub-Pixel Methods): این روش‌ها برای حل مشکل پیکسل‌های ترکیبی (Mixed Pixels) استفاده می‌شوند، جایی که یک پیکسل واحد نشان‌دهنده چندین نوع پوشش اراضی است.
    • این روش‌ها شامل تخمین ترکیب پوشش اراضی زیرپیکسل در حضور کلاس‌های آموزش ندیده و نقشه‌برداری زیرپیکسل از سطوح نفوذناپذیر برای تشخیص تغییر در پوشش اراضی شهری هستند.
    • طبقه‌بندی تصویر زیرپیکسل بر اساس ماشین‌های بردار پشتیبان (SVM) نیز مورد بررسی قرار گرفته است.
  • روش‌های شیءمحور (Object-Based Methods): این رویکرد به جای پیکسل‌های منفرد، اشیاء یا مناطق همگن را در تصویر طبقه‌بندی می‌کند.
    • این روش هنوز در جنبه‌های مختلفی مانند اهمیت ویژگی‌های معنایی و عدم قطعیت در نمایش مورد بحث فعال است.
    • نرم‌افزارهایی مانند eCognition در گردش کارهای اولیه OBIA برای نقشه‌برداری ویژگی‌ها از تصاویر با وضوح بالا مانند IKONOS-2 و QuickBird نقش حیاتی داشته‌اند.
    • تعداد انتشارات در زمینه OBIA/GEOBIA به شدت افزایش یافته است، به طوری که 22 درصد از آنها تنها در سال 2013 نوشته شده‌اند (اشاره به داده‌های قبل از 2014).
    • OBIA به عنوان یک “پارادایم جدید” در سنجش از دور شناخته می‌شود، به‌ویژه با افزایش دسترسی به داده‌های با وضوح بالا که امکان تولید اطلاعات درخواستی یا “اطلاعات مشروط” را فراهم می‌کند.
    • همچنین مروری بر الگوریتم‌ها و چالش‌های تقسیم‌بندی (Segmentation) برای تحلیل تصاویر شیءمحور (OBIA) از دیدگاه سنجش از دور ارائه شده است.
    • اصطلاح “تحلیل تصویر فضایی” (Spatial Image Analysis) نیز می‌تواند به عنوان یک اصطلاح کلی‌تر برای برجسته کردن روابط بین اشیاء در OBIA استفاده شود.
    • پیشرفت‌هایی در پردازش تصویر دیجیتال شامل ادغام داده‌ها، طبقه‌بندی شیءمحور تصویر (OBIA یا GEOBIA) نیز مشاهده شده است.
  • روش‌های مکانی (Geospatial Methods): این بخش به رویکردهای مکانی برای طبقه‌بندی تصاویر می‌پردازد.
    • در این روش‌ها، از بردارهای ویژگی یا شاخص‌ها برای شناسایی کلاس‌های شهری استفاده می‌شود؛ به عنوان مثال، رویکردهای موجک دودویی (dyadic wavelet) و موجک بیش از حد کامل (overcomplete wavelet) برای تحلیل بافت (texture).
  • روش‌های یادگیری ماشین (Machine Learning Methods): این روش‌ها از الگوریتم‌های پیشرفته برای طبقه‌بندی الگوها در تصاویر سنجش از دور استفاده می‌کنند.
    • پیشرفت‌ها در سخت‌افزار و نرم‌افزار رایانه، ریشه در جامعه هوش مصنوعی، و همچنین پیشرفت‌های چشمگیر اخیر از طریق تحلیل کلان‌داده‌ها، یادگیری ماشین، محاسبات ابری و هوش مصنوعی، به تولید نقشه‌های دقیق‌تر و پالایش‌شده‌تر پوشش اراضی کمک کرده است.
    • طبقه‌بندی پوشش اراضی با استفاده از طبقه‌بندی‌کننده‌های یادگیری ماشین برای مشاهدات ماهواره‌ای نیز مرور شده است.
    • همچنین مقایسه و ارزیابی حسگرهای دیده‌بان زمین در مطالعات پوشش/کاربری اراضی با استفاده از الگوریتم‌های یادگیری ماشین و طبقه‌بندی پوشش اراضی با استفاده از موتور Google Earth و طبقه‌بندی‌کننده جنگل تصادفی (Random Forest) بررسی شده است.
    • طبقه‌بندی تصاویر سنجش از دور با روش شیءمحور که با شبکه‌های عصبی پیچشی عمیق (Deep Convolutional Neural Networks) ترکیب شده است، برای طبقه‌بندی کاربری اراضی نیز مورد استفاده قرار گرفته است.
  • نتیجه‌گیری

به طور کلی، فصل 3 به موضوعات پیشرفته در طبقه‌بندی تصاویر شهری می‌پردازد و راهکارهای مختلفی از جمله روش‌های پیکسل‌محور، زیرپیکسل، شیءمحور و یادگیری ماشین را برای این منظور معرفی و بررسی می‌کند. همچنین تأکید بر تأثیر داده‌های با وضوح بالا و پیشرفت‌های هوش مصنوعی بر این حوزه، از نکات مهم این فصل است.

فصل 4

بر اساس منابع ارائه شده، فصل 4 از کتاب “Remote Sensing Handbook, Volume II: Image Processing, Change Detection, GIS, and Spatial Data Analysis” به موضوع پردازش تصاویر هایپراسپکترال: روش‌ها و رویکردها می‌پردازد [3، 101]. این فصل توسط جون لی (Jun Li) و آنتونیو پلازا (Antonio Plaza) نوشته شده است.

در ادامه، جزئیات مهم این فصل ارائه شده است:

  • مقدمه (4.1)
    • تصویربرداری هایپراسپکترال به اندازه‌گیری، تحلیل و تفسیر طیف‌های به دست آمده از یک صحنه یا شیء خاص در فاصله کوتاه، متوسط یا بلند، معمولاً توسط حسگرهای هوابرد یا ماهواره‌ای مربوط می‌شود.
    • ویژگی‌های خاص مجموعه‌داده‌های هایپراسپکترال، مسائل پردازشی متفاوتی را ایجاد می‌کنند که باید تحت فرمول‌های ریاضی خاصی مانند دسته‌بندی (classification) و قطعه‌بندی (segmentation) یا تحلیل ترکیب طیفی (spectral mixture analysis) مورد بررسی قرار گیرند.
    • طی دهه گذشته، چندین تکنیک یادگیری ماشین و پردازش تصویر برای استخراج اطلاعات مرتبط از داده‌های هایپراسپکترال به کار گرفته شده‌اند.
    • یکی از اهداف مهم و مورد نظر بسیاری از دانشمندان در تحلیل تصاویر هایپراسپکترال، تحلیل همزمان اطلاعات طیفی و مکانی است.
    • در برخی کاربردها، ادغام اطلاعات مکانی و طیفی بالا برای دستیابی به نتایج نقشه‌برداری و/یا تشخیص با دقت کافی الزامی است. به عنوان مثال، نقشه‌برداری مناطق شهری نیازمند تفکیک مکانی کافی برای تمایز کلاس‌های طیفی کوچک، مانند درختان در یک پارک یا اتومبیل‌ها در خیابان است.
  • رویکردهای دسته‌بندی (4.2) این فصل رویکردهای مختلف دسته‌بندی برای داده‌های هایپراسپکترال را شرح می‌دهد:
    • دسته‌بندی نظارت شده (4.2.1 Supervised Classification)
      • تکنیک‌های متعددی برای دسته‌بندی نظارت شده داده‌های هایپراسپکترال استفاده شده‌اند.
      • در دسته‌بندهای تفکیک‌کننده (discriminant classifiers)، انواع مختلفی از توابع تفکیک‌کننده می‌توانند به کار روند، از جمله نزدیکترین همسایه (nearest neighbor)، درختان تصمیم (decision trees)، توابع خطی و توابع غیرخطی.
      • تحلیل تفکیک‌کننده خطی (LDA) از یک تابع خطی برای به حداکثر رساندن قدرت تفکیک‌کنندگی و جداسازی مؤثر کلاس‌های موجود استفاده می‌کند. با این حال، این تابع خطی ممکن است بهترین انتخاب نباشد و استراتژی‌های غیرخطی مانند تحلیل تفکیک‌کننده درجه دوم (QDA) یا تحلیل تفکیک‌کننده لگاریتمی (LogDA) نیز به کار رفته‌اند.
      • مشکل اصلی این دسته‌بندهای نظارت شده کلاسیک، حساسیت آنها به اثر هیوز (Hughes effect) است [104، 515].
    • دسته‌بندی طیفی-مکانی (4.2.2 Spectral–Spatial Classification)
      • یک استراتژی دیگر در ادبیات، بهره‌برداری همزمان از اطلاعات مکانی و طیفی است.
      • برای ترکیب بافت مکانی در دسته‌بندهای مبتنی بر هسته (kernel-based classifiers)، یک موجودیت پیکسلی می‌تواند همزمان در دامنه طیفی (با استفاده از محتوای طیفی آن) و هم در دامنه مکانی (با اعمال استخراج ویژگی به ناحیه اطراف آن که ویژگی‌های مکانی را تولید می‌کند، مانند میانگین یا انحراف معیار در هر باند طیفی) بازتعریف شود. این موجودیت‌های جداگانه منجر به دو ماتریس هسته متفاوت می‌شوند که به راحتی قابل محاسبه هستند.
      • یکی از رویکردهای دیگر برای بهره‌برداری مشترک از اطلاعات مکانی و طیفی، استفاده از میدان‌های تصادفی مارکوف (Markov random fields – MRFs) برای توصیف اطلاعات مکانی است. MRFs از پیوستگی (به معنای احتمال) برچسب‌های همسایه بهره می‌برند. در این زمینه، چندین تکنیک از یک روش منظم‌سازی مبتنی بر MRF استفاده کرده‌اند که پیکسل‌های همسایه را ترغیب می‌کند تا هنگام انجام دسته‌بندی احتمالی مجموعه‌داده‌های هایپراسپکترال، برچسب یکسانی داشته باشند.
    • رویکردهای مبتنی بر زیرفضا (4.2.3 Subspace-Based Approaches)
      • ایده استفاده از روش‌های پروجکشن زیرفضا بر این فرض اساسی متکی است که نمونه‌ها در هر کلاس می‌توانند تقریباً در یک زیرفضای با ابعاد پایین‌تر قرار گیرند.
      • در صورت عدم وجود نمونه‌های برچسب‌دار کافی، تکنیک‌های یادگیری نیمه نظارت‌شده (semi-supervised learning) می‌توانند برای تولید نمونه‌های بدون برچسب اضافی مورد استفاده قرار گیرند تا نمونه‌های برچسب‌دار موجود را تکمیل کنند. همچنین، این نمونه‌های بدون برچسب می‌توانند برای تقویت دسته‌بندهای مبتنی بر زیرفضا در صورت وجود مسائل مربوط به ابعاد (dimensionality issues) در مطالعه موردی مورد نظر به کار روند.
      • اگر نمونه‌های برچسب‌دار کافی در دسترس باشند، استفاده از دسته‌بندی طیفی-مکانی معمولاً توصیه می‌شود، زیرا اطلاعات مکانی می‌تواند مکمل بسیار مهمی برای اطلاعات طیفی باشد.
      • در نهایت، در صورتی که هیچ نمونه برچسب‌داری در دسترس نباشد، باید از تکنیک‌های نظارت نشده (unsupervised) برای اهداف دسته‌بندی استفاده شود. به عنوان مثال، الگوریتم RHSEG تیلتون (Tilton’s RHSEG algorithm) یک روش نظارت نشده مرتبط است که با موفقیت بر روی داده‌های تصویر هایپراسپکترال اعمال شده است.
  • مقایسه تجربی (4.3 Experimental Comparison)
    • این بخش عملکرد تکنیک‌های دسته‌بندی هایپراسپکترال را با استفاده از مجموعه‌داده دانشگاه پاویا (University of Pavia) که توسط حسگر اپتیکال ROSIS جمع‌آوری شده است، نشان می‌دهد.
    • اندازه تصویر 610 × 340 پیکسل با تفکیک مکانی بسیار بالای 1.3 متر در هر پیکسل است.
    • تعداد کانال‌های داده در تصویر به دست آمده 103 کانال است (با دامنه طیفی از 0.43 تا 0.86 میکرومتر).
    • این مجموعه شامل نه کلاس مرجع مورد علاقه است که شامل ویژگی‌های شهری، همچنین ویژگی‌های خاک و پوشش گیاهی می‌شود [107، 109].
    • این صحنه به طور گسترده‌ای در جامعه تصویربرداری هایپراسپکترال برای ارزیابی عملکرد الگوریتم‌های پردازش استفاده شده است. این یک مطالعه موردی است که یک مسئله دسته‌بندی شهری چالش‌برانگیز را با یک مجموعه‌داده شامل تفکیک مکانی و طیفی بالا و یک واقعیت زمینی بسیار قابل اعتماد، با یک مجموعه آموزش‌دهنده (training set) به خوبی تعریف شده، ادغام می‌کند.
    • در مقایسه، دسته‌بندی SVM عملکرد برتری را از نظر دقت کلی دسته‌بندی (OA) در مقایسه با دسته‌بندهای تفکیک‌کننده مانند LDA، QDA یا LogDA نشان داد [108، 109]. دقت کلی برای SVM در این آزمایش 80.99% بود [109، 111، 112، 114، 116، 117].
    • استراتژی هسته ترکیبی (composite kernel strategy) که اطلاعات مکانی و طیفی را در سطح هسته ترکیب می‌کند، عملکرد بهتری را نسبت به SVM استاندارد ارائه داد.
    • نتایج گزارش شده نشان می‌دهد که ادغام اطلاعات مکانی و طیفی، چه در مرحله پیش‌پردازش (preprocessing) (مانند استفاده از Morphological EMP که OA را به 85.22% بهبود بخشید)، چه در سطح هسته (kernel level) (استفاده از هسته ترکیبی)، و چه در مرحله پس‌پردازش (postprocessing) (مانند ترکیب SVM با watershed که OA را به 86.64% بهبود داد، یا ترکیب SVM با الگوریتم RHSEG که OA را به 93.85% رساند)، می‌تواند منجر به بهبود دسته‌بندی نسبت به SVM سنتی شود.
    • استفاده از اطلاعات مکانی (به عنوان یک پس‌پردازش مبتنی بر MRF) نیز می‌تواند در بهبود عملکرد دسته‌بندی بسیار مفید باشد. در آزمایش‌های انجام شده، روش MLRsubMRF دقت کلی 94.10% را به دست آورد.
  • نتیجه‌گیری‌ها و جهت‌گیری‌های آینده (4.4 Conclusions and Future Directions)
    • این بخش به خلاصه‌ای از تکنیک‌های دسته‌بندی هایپراسپکترال و چالش‌های آینده در این زمینه می‌پردازد.
    • سناریوهای تحلیل مختلف برای دسته‌بندی در این فصل، در شکل 4.10 خلاصه شده‌اند.

فصل 5

بر اساس منابع ارائه شده، فصل ۵ کتاب “Remote Sensing Handbook, Volume II” با عنوان “بازنمایی مشارکتی برای طبقه‌بندی و شناسایی تصاویر فراطیفی” (Collaborative Representation for Hyperspectral Image Classification and Detection) است. نویسندگان این فصل کیان دو (Qian Du)، چیرانجیبی شاه (Chiranjibi Shah)، هونگجون سو (Hongjun Su) و وی لی (Wei Li) هستند.

این فصل به طور مفصل به بررسی مفاهیم و روش‌های مربوط به طبقه‌بندی و شناسایی ناهنجاری‌ها در تصاویر فراطیفی می‌پردازد.

موضوعات اصلی فصل ۵:

  • مقدمه (Introduction).
  • تعریف و کاربرد سنسورهای فراطیفی: سنسورهای تصویربرداری فراطیفی صدها باند طیفی باریک را برای یک صحنه تصویربرداری شده جمع‌آوری می‌کنند. این تصاویر دارای وضوح طیفی بالا هستند و می‌توانند برای اندازه‌گیری، تجزیه و تحلیل و تفسیر طیف‌ها برای یک شیء یا هدف خاص به کار روند. کاربردهای تجاری سنسورهای فراطیفی شامل ایمنی مواد غذایی، کشاورزی دقیق، اکتشاف زمین‌شناسی و نظارت محیطی است.
  • روش‌های طبقه‌بندی مبتنی بر بازنمایی مشارکتی (Collaborative Representation-Based Classification):
    • طبقه‌بندی مبتنی بر بازنمایی تنک (SRC): این روش‌ها که مورد توجه زیادی قرار گرفته‌اند، یک پیکسل آزمایشی را به صورت تنک با استفاده از داده‌های برچسب‌گذاری شده بازنمایی می‌کنند و برچسب کلاس آن بر اساس کمترین خطای تقریب تعیین می‌شود. این روش‌ها کاربردهای متعددی در سنجش از دور، از جمله برای تصاویر فراطیفی نوری، داشته‌اند.
    • طبقه‌بندی مبتنی بر بازنمایی مشارکتی (CRC): این الگوریتم‌ها بر اساس فرمول‌بندی‌های مختلف، از جمله حداقل فاصله (Minimum Distance – MD)، عمل می‌کنند.
    • CRC با تنظیم‌کننده تیکونوف (CRT): این روش با اضافه کردن یک عبارت تنظیم‌کننده به تابع هدف CRC، بهبود می‌یابد.
    • CRC احتمالی (ProCRC) و CRT احتمالی (ProCRT): این مدل‌ها توابع هدف خاص خود را دارند که جنبه‌های احتمالی را در نظر می‌گیرند.
    • CRC آگاه از فضا (SaCRC) و CRT آگاه از فضا (SaCRT): این روش‌ها شامل یک عبارت تنظیم‌کننده فضایی هستند که تضمین می‌کند نمونه‌های آموزشی واقع در یک همسایگی فضایی محلی، فرصت بیشتری برای مشارکت در بازنمایی داشته باشند.
    • ProCRC فضایی (SaProCRC) و ProCRT فضایی (SaProCRT): اینها نسخه‌هایی هستند که تنظیم‌کننده فضایی را در مدل‌های احتمالی ترکیب می‌کنند.
    • CRC هسته‌ای (Kernel CRC – KCRC) و CRT هسته‌ای (Kernel CRT – KCRT): در این روش‌های هسته‌ای، داده‌ها به یک فضای ویژگی با ابعاد بالا نگاشته می‌شوند تا طبقه‌بندی دقیق‌تری ارائه دهند.
    • بازنمایی در فضاهای ویژگی: طبقه‌بندهای طیفی-فضایی، ویژگی‌های فضایی و طیفی را به طور همزمان در نظر می‌گیرند. این امر می‌تواند با استفاده از پروفایل‌های ویژگی توسعه‌یافته (EMAP) یا فیلتر گابور برای استخراج ساختارهای فضایی انجام شود.
  • شناسایی ناهنجاری مبتنی بر بازنمایی مشارکتی (Collaborative Representation-Based Anomaly Detection):
    • الگوریتم Reed-Xiaoli (RX): این الگوریتم یکی از پرکاربردترین روش‌ها برای شناسایی ناهنجاری است که بر اساس مدل گاوسی چندمتغیره برای پیکسل‌های پس‌زمینه عمل می‌کند.
    • آشکارساز مبتنی بر بازنمایی مشارکتی (CRD): این روش، یک پیکسل مرکزی را با پیکسل‌های موجود در چارچوب پنجره دوگانه به صورت مشارکتی بازنمایی می‌کند. اگر پیکسل مرکزی یک ناهنجاری باشد، خطای بازنمایی توسط پیکسل‌های پس‌زمینه محلی بزرگ خواهد بود. CRD نسبت به سایر آشکارسازها ساده‌تر و کارآمدتر است.
  • آزمایش‌ها و نتایج:
    • طبقه‌بندی: از مجموعه داده دانشگاه پاویا (ROSIS) با ابعاد فضایی ۶۱۰ × ۳۴۰ پیکسل و ۱۰۳ باند طیفی برای آزمایش روش‌های طبقه‌بندی استفاده شده است. نتایج نشان داد که CRT بهتر از CRC اصلی، ProCRT بهتر از ProCRC اصلی و SaProCRC و SaProCRT عملکرد بهتری نسبت به همتایان خود دارند.
    • شناسایی ناهنجاری: از مجموعه داده فراطیفی هوابرد HyMap که منطقه‌ای در Cooke City، MT، ایالات متحده را پوشش می‌دهد، برای آزمایش‌های شناسایی ناهنجاری استفاده شد. ارزیابی عملکرد با استفاده از منحنی‌های مشخصه عملیاتی گیرنده (ROC) و مساحت زیر منحنی ROC (AUC) صورت گرفت. CRD عملکرد بهتری نسبت به الگوریتم‌های RX ارائه می‌دهد و نسخه‌های محلی عملکرد بهتری دارند.
  • نتیجه‌گیری (Conclusion).

این فصل، اهمیت روش‌های بازنمایی مشارکتی و مزایای آنها را در پردازش تصاویر فراطیفی، به ویژه در شرایطی که داده‌ها دارای وضوح مکانی بالا و پیچیدگی طیفی هستند، برجسته می‌کند.

 

 

فصل 6

فصل ۶ کتاب “Remote Sensing Handbook, Volume II” (کتاب راهنمای سنجش از دور، جلد دوم) به سنجش از دور فروسرخ حرارتی (Thermal Infrared Remote Sensing) اختصاص دارد و اصول و پیش‌زمینه‌های نظری آن را مورد بررسی قرار می‌دهد [۵, ۱۱۶]. این فصل توسط کلودیا کونزر (Claudia Kuenzer)، فیلیپ راینرز (Philipp Reiners)، جیان‌ژونگ ژانگ (Jianzhong Zhang) و استفان دچ (Stefan Dech) نوشته شده است [۵, ۱۱۶].

تمرکز اصلی و محتوای فصل ۶:

  • این فصل به طور جامع اصول و پیش‌زمینه‌های نظری سنجش از دور فروسرخ حرارتی (TIR) را ارائه می‌دهد [۱۱۶, ۱۵۵].
  • بحث‌ها و توضیحات این فصل در راستای درک بهتر داده‌های حرارتی و کاربرد آن‌ها ارائه شده‌اند [۴۶۹].

مفاهیم و قوانین کلیدی مطرح شده:

  • دامنه فروسرخ حرارتی (Thermal Infrared Domain): دامنه TIR معمولاً بین ۳ میکرومتر تا ۱۳ میکرومتر تعریف می‌شود، که شامل دو پنجره مهم اتمسفری است [۱۲۲].
  • قوانین مهم فیزیک: این فصل به توضیح قوانین اساسی فیزیک مرتبط با تابش حرارتی می‌پردازد:
    • قانون پلانک (Planck’s Law): تابش الکترومغناطیسی ساطع شده توسط یک جسم سیاه در طول موج معین را تابعی از دمای جسم سیاه توصیف می‌کند [۵, ۱۲۴, ۱۳۱].
    • قانون استفان-بولتزمن (Stefan–Boltzmann Law): این قانون امکان محاسبه کل انرژی ساطع شده از یک جسم سیاه نظری را به عنوان تابعی از دمای آن فراهم می‌کند [۵, ۱۲۵, ۱۲۶, ۱۲۷]. انرژی کلی که یک جسم ساطع می‌کند، با افزایش دمای آن بیشتر می‌شود [۱۲۶].
    • قانون وین (Wien’s Law): این قانون طول موج حداکثر تابش طیفی را به عنوان تابعی از دمای یک جسم توصیف می‌کند؛ هر چه جسم داغ‌تر باشد، حداکثر تابش آن به سمت طول موج‌های کوتاه‌تر تغییر می‌کند [۵, ۱۲۷, ۱۲۸, ۱۲۹]. مثال‌هایی از فوران آتشفشان اتنا با استفاده از داده‌های لندست-۵ TM برای نشان دادن کاربرد این قانون آورده شده است [۱۲۹, ۱۳۰].
    • قانون کیرشهف (Kirchhoff’s Law) و نقش گسیلندگی (Emissivity): این قانون بیان می‌کند که برای یک جسم سیاه، گسیلندگی و جذب در طول موج معین برابرند [۵, ۱۳۱, ۱۳۳]. گسیلندگی (ε) ضریبی است که شار تابشی یک جسم در دمای معین را بر شار تابشی یک جسم سیاه در همان دما تعریف می‌کند [۱۳۱]. مواد با گسیلندگی پایین، انرژی کمتری را جذب و ساطع می‌کنند، در حالی که مواد با گسیلندگی بالا، مقادیر زیادی از انرژی دریافتی را جذب و ساطع می‌کنند [۱۳۴]. گسیلندگی با توجه به نوع سطح و طول موج متفاوت است اما به دما وابسته نیست [۱۳۴].
      • تفاوت‌های گسیلندگی به شدت بر دمای اندازه‌گیری شده توسط حسگرهای سنجش از دور تأثیر می‌گذارند [۱۳۷, ۱۳۸]. به عنوان مثال، یک ریل فلزی صیقلی می‌تواند در تصویر حرارتی، بسیار سردتر از دمای واقعی خود به نظر برسد اگر تصحیح گسیلندگی صورت نگیرد [۱۳۸, ۱۳۹].

توانایی داده‌های فروسرخ حرارتی در سری‌های زمانی و دیورنال (Diurnal and Time Series):

  • داده‌های TIR برخلاف داده‌های چندطیفی، می‌توانند مستقل از نور خورشید به عنوان منبع روشنایی، در طول روز و شب جمع‌آوری شوند [۱۳۹, ۱۵۴].
  • منحنی دمای دیورنال (Diurnal Temperature Curve): هر شیء روی سطح زمین دارای منحنی دمای دیورنال خاص خود است که رفتار دمایی آن را در یک چرخه ۲۴ ساعته توصیف می‌کند [۱۴۱]. این منحنی به اینرسی حرارتی (Thermal Inertia) ماده، فصل، اختلالات جوی و قرار گرفتن در معرض (جهت، شیب) بستگی دارد [۱۴۱, ۱۴۲].
    • اینرسی حرارتی را نمی‌توان مستقیماً از داده‌های سنجش از دور به دست آورد، اما تفاوت بین حداقل و حداکثر دمای یک سطح در چرخه دیورنال (ΔT) را می‌توان از تصاویر حرارتی روز و شب محاسبه کرد [۱۴۳].
    • خاک‌های خشک ΔT بزرگ‌تری نسبت به خاک‌های مرطوب دارند و این مفهوم از دهه ۱۹۷۰ برای بازیابی رطوبت خاک سطحی به کار رفته است [۱۴۳].
  • علاوه بر تغییرات دیورنال، منحنی‌های دمای سالانه اشیاء نیز قابل تحلیل هستند [۱۴۶].
  • نشان داده شده است که مناطق کشاورزی با گسترش پوشش گیاهی خنک‌تر می‌شوند، در حالی که مناطق شهری معمولاً گرم‌تر به نظر می‌رسند [۱۴۶].

حسگرهای مهم حرارتی:

  • حسگرهای مختلفی قادر به جمع‌آوری داده‌های TIR هستند، از جمله MODIS، NOAA-AVHRR، MSG SEVIRI، Landsat و ASTER [۱۳۹, ۱۲۳].
  • MODIS داده‌ها را تا چهار بار در روز با وضوح مکانی ۱ کیلومتر جمع‌آوری می‌کند [۱۳۹].
  • Landsat-7 ETM+ دارای باند حرارتی با وضوح ۶۰ متر بود، اما حسگرهای جدیدتر TIRS و TIRS-2 در لندست-۸ و لندست-۹ تنها وضوح ۱۰۰ متر را ارائه می‌دهند [۱۵۵, ۴۷۰].

کاربردهای داده‌های فروسرخ حرارتی:

  • دمای سطح دریا (SST): تحلیل SST پیشرفته‌ترین کاربرد در تحلیل‌های TIR است و در درک گردش‌های جهانی، بررسی جلبک‌های دریایی و آلودگی حرارتی آب استفاده می‌شود [۱۴۸].
  • نقاط داغ و ناهنجاری‌های حرارتی (Hot Spots and Thermal Anomalies): تشخیص نقاط داغ ناشی از آتش‌سوزی‌های جنگلی، آتش‌سوزی‌های زغال‌سنگ و فعالیت‌های صنعتی (مانند سوزاندن گاز در دلتای نیجر) از دیگر کاربردهای مهم است [۱۴۹, ۱۵۰, ۴۶۸].
  • جزایر گرمایی شهری (Urban Heat Islands): داده‌های TIR برای بررسی جزایر گرمایی شهری به کار می‌روند [۱۴۷, ۴۶۸].
  • برنامه‌ریزی آبیاری، پایش خشکسالی، تشخیص بیماری‌های گیاهی، و نقشه‌برداری از ویژگی‌های خاک و عملکرد محصولات کشاورزی [۴۶۹].

جمع‌آوری داده‌های زمینی و اعتبارسنجی (Ground Data and Validation):

  • برای اعتبارسنجی دماهای استخراج‌شده از داده‌های TIR، معمولاً اندازه‌گیری‌های زمینی با استفاده از رادیومترها، دماسنج‌های تماسی و دوربین‌های حرارتی در زمان عبور ماهواره انجام می‌شود [۱۵۱].
  • اعتبارسنجی غیرمستقیم از طریق Google Earth نیز برای برخی کاربردها، مانند مکان‌های شعله‌ور گاز در دلتای نیجر، امکان‌پذیر است [۱۵۳].

محدودیت‌ها و مزایای داده‌های فروسرخ حرارتی:

  • مزایا:
    • امکان جمع‌آوری داده‌ها در روز و شب، بدون نیاز به منبع روشنایی فعال [۱۵۴, ۴۶۷].
    • نمایش یک کمیت فیزیکی مستقیم (بر حسب کلوین یا سلسیوس) که تفسیر آن را آسان می‌کند [۱۵۴, ۴۶۸].
    • آرشیو داده‌های بلندمدت از حسگرهای با وضوح متوسط، امکان تحلیل میانگین‌های دهه‌ای، سالانه و ماهانه، انحرافات و روندها را فراهم می‌کند [۱۵۴].
  • محدودیت‌ها:
    • وضوح مکانی نسبتاً پایین: بالاترین وضوح داده‌های فضایی در حال حاضر ۹۰ متر است و حسگرهای حرارتی اغلب پرهزینه‌تر از حسگرهای طیف مرئی هستند [۱۵۴, ۱۵۵, ۴۷۰].
    • داده‌های TIR، مانند داده‌های چندطیفی، تحت تأثیر پوشش ابری قرار می‌گیرند [۱۵۴].
    • جامعه سنجش از دور حرارتی نسبتاً کوچک است و صدای لابی‌گری برای حسگرهای حرارتی به اندازه کافی قوی نیست [۱۵۵].
    • انتقال از حسگر ETM+ در لندست-۷ با وضوح ۶۰ متر به TIRS و TIRS-2 در لندست-۸ و لندست-۹ با وضوح ۱۰۰ متر، کاهش وضوح مکانی را نشان می‌دهد [۱۵۵, ۴۷۰].
  • برای مطالعات تغییر اقلیم که به سری‌های زمانی ۳۰ ساله یا بیشتر نیاز دارند، باید به داده‌های AVHRR یا Landsat reliance کرد [۱۵۵].
  • داده‌های MODIS پرکاربردترین حسگر برای مطالعات سری زمانی LST با وضوح زمانی بالا است، در حالی که حسگرهای TIRS و TIRS-2 لندست برای مطالعاتی که به وضوح مکانی بالا نیاز دارند، محبوب هستند [۱۵۵].

فصل 7

فصل ۷ کتاب “Remote Sensing Handbook, Volume II” (کتاب راهنمای سنجش از دور، جلد دوم) با عنوان “قطعه‌بندی تصاویر سنجش از دور: روش‌ها، رویکردها و پیشرفت‌ها (Remote Sensing Image Segmentation: Methods, Approaches, and Advances)” توسط محمد دی. حسین (Mohammad D. Hossain) و دونگ‌می چن (Dongmei Chen) نگاشته شده است.

این فصل به بررسی جامع روش‌های قطعه‌بندی تصویر در سنجش از دور می‌پردازد و شامل مباحث زیر است:

  • مقدمه
    • با معرفی ماهواره IKONOS در سال ۱۹۹۹، پیشرفت چشمگیری در وضوح مکانی تصاویر سنجش از دور (مانند QuickBird, WorldView, Planet Labs) رخ داد. این پیشرفت منجر به ظهور تحلیل تصویر شیءگرا (GEOBIA یا OBIA) شد که بر اساس گروه‌بندی پیکسل‌ها به اشیاء قابل تشخیص در دنیای واقعی بنا شده است.
    • قطعه‌بندی به عنوان سنگ بنای GEOBIA تلقی می‌شود و می‌تواند تأثیر قابل توجهی بر دقت فرآیندهای بعدی مانند استخراج و طبقه‌بندی ویژگی‌های شیءگرا داشته باشد.
    • به طور کلی، دو دسته اصلی از تکنیک‌های قطعه‌بندی در تحلیل تصاویر سنجش از دور وجود دارد: روش‌های قطعه‌بندی سنتی و قطعه‌بندی معنایی (Semantic Segmentation).
      • روش‌های سنتی پیکسل‌ها را به اشیاء مجزا گروه‌بندی کرده و برچسب‌های عمومی (مانند منطقه A، منطقه B) به آن‌ها اختصاص می‌دهند. پس از قطعه‌بندی، یک فرآیند طبقه‌بندی اضافی برای برچسب‌گذاری اشیاء به کلاس‌های مربوطه (مانند ساختمان، درخت، جاده) مورد نیاز است.
      • قطعه‌بندی معنایی فراتر از قطعه‌بندی سنتی عمل می‌کند و با ادغام طبقه‌بندی شیء، مرز و کلاس اشیاء را به طور همزمان تعیین می‌کند. این روش‌ها، به‌ویژه آنهایی که بر پایه یادگیری عمیق (DL) هستند، با استفاده از اطلاعات مکانی و طیفی، برچسب‌های خاص (مانند ساختمان، جاده، درخت، آب) را به پیکسل‌های منفرد اختصاص می‌دهند.
  • روش‌های قطعه‌بندی سنتی
    • روش‌های طیفی (Spectrally Based Methods): این روش‌ها عمدتاً بر بررسی پیکسل‌های منفرد تمرکز دارند.
      • روش‌های مبتنی بر خوشه‌بندی (Clustering-based): فضای ویژگی طیفی را پارتیشن‌بندی کرده، هر پیکسل را به یک خوشه اختصاص داده و پیکسل‌های مجاور با مقدار خوشه یکسان را ترکیب می‌کنند تا سگمنت‌ها را تشکیل دهند.
      • روش‌های مبتنی بر آستانه‌گذاری (Thresholding-based): از جمله اولین روش‌های قطعه‌بندی تصویر هستند.
      • قطعه‌بندی سوپرپیکسل (Superpixel Segmentation): یک راه‌حل برای مشکلات “نمک و فلفل” (salt-and-pepper effects) ناشی از اختلالات جوی و نویز ارائه می‌دهد. SLIC (Simple Linear Iterative Clustering) یکی از روش‌های سوپرپیکسل است که فاصله بین پیکسل و مرکز خوشه را در یک پنجره ۲S × ۲S محاسبه می‌کند.
    • روش‌های مکانی (Spatially Based Methods):
      • روش‌های مبتنی بر لبه (Edge-Based Method): این تکنیک‌ها بر شناسایی لبه‌ها (نقاطی که خواص پیکسل به طور ناگهانی تغییر می‌کند) و سپس بستن دقیق آن‌ها با استفاده از الگوریتم‌های کانتورینگ تکیه دارند. فیلترهای صاف‌کننده حفظ‌کننده لبه (edge-preserving smoothing filter) برای حذف نویز و حفظ مرزهای شیء به کار می‌روند.
      • روش‌های مبتنی بر ناحیه (Region-Based Method): برخلاف روش‌های مبتنی بر لبه که از مرزها شروع می‌کنند، این روش‌ها از داخل شیء آغاز شده و به سمت بیرون گسترش می‌یابند تا به مرزها برسند. این روش‌ها بر این فرض عمل می‌کنند که پیکسل‌های مجاور درون یک شیء مشابه هستند و شامل عملیات ادغام (merging) و تقسیم (splitting) می‌شوند.
    • روش‌های مبتنی بر گراف (Graph-Based Method): قطعه‌بندی تصویر را به عنوان یک مسئله پارتیشن‌بندی گراف فرموله می‌کنند، جایی که گره‌ها (nodes) معمولاً پیکسل‌ها یا مناطق مجزا را نشان می‌دهند و یال‌ها (edges) مجاورت مکانی را منعکس می‌کنند. خوشه‌بندی مارکوف (Markov clustering)، Superpixels via Pseudo-Boolean (PB)، Lazy Random Walk (LRW) و Entropy Rate Superpixel (ERS) از جمله الگوریتم‌های مبتنی بر گراف هستند.
  • روش‌های قطعه‌بندی معنایی مبتنی بر یادگیری عمیق (DL-Based Semantic Segmentation Methods)
    • هدف اصلی قطعه‌بندی معنایی دستیابی به درکی عمیق از آرایش مکانی دقیق اشیاء مختلف در تصویر با دقت مکانی در سطح پیکسل، به‌ویژه در امتداد مرزهای اشیاء منحصربه‌فرد است.
    • معماری‌های شبکه‌های عصبی عمیق (DNNs) مانند AlexNet، VGGNet (که از فیلترهای ۳×۳ و تابع فعال‌سازی ReLU استفاده می‌کند)، GoogLeNet، MobileNet (که از کانولوشن عمقی و نقطه‌ای استفاده می‌کند) و EfficientNet به طور قابل توجهی قابلیت‌های مدل‌های DL را برای وظایف پیچیده‌ای مانند قطعه‌بندی معنایی در سنجش از دور افزایش داده‌اند.
    • تکنیک‌هایی مانند Atrous Spatial Pyramid Pooling (ASPP) و Conditional Random Field (CRF) برای بهبود بومی‌سازی مکانی، به ویژه در جزئیات مرزی، به کار گرفته می‌شوند.
    • یکی از چالش‌های اصلی در این روش‌ها، محدودیت در دسترس بودن مجموعه داده‌های برچسب‌گذاری شده بزرگ برای تصاویر سنجش از دور است، زیرا برچسب‌گذاری دقیق نیازمند تخصص بالایی است.
    • مزایا و معایب: روش‌های معنایی مبتنی بر DL، به ویژه با افزایش وضوح تصاویر، کارایی بالایی از خود نشان می‌دهند و دقت تشخیص ویژگی‌ها را افزایش می‌دهند. با این حال، حفظ سازگاری نتایج قطعه‌بندی با اهداف قطعه‌بندی معنایی و کاهش سردرگمی بین کلاس‌های پیش‌بینی‌شده بدون قربانی کردن اطلاعات مکانی همچنان یک چالش حیاتی است.
  • قطعه‌بندی داده‌های LiDAR
    • LiDAR (Light Detection and Ranging) راهی سریع و مقرون به صرفه برای ثبت و بصری‌سازی ساختار سه‌بعدی (3D) اشیاء سطحی با استفاده از مختصات x, y, z فراهم می‌کند.
    • الگوریتم‌های قطعه‌بندی سه‌بعدی برای شناسایی ویژگی‌های عوارض زمین از ابر نقاط (point clouds) پیچیده توسعه یافته‌اند.
    • کاربردها شامل استخراج ساختمان‌ها و طبقه‌بندی درختان (مانند مخروطیان یا پهن‌برگان) از داده‌های LiDAR هوایی است. داده‌های LiDAR خام را می‌توان به مدل‌های سطح دیجیتال (DSM)، مدل‌های ارتفاعی دیجیتال (DEM) و مدل‌های عوارض زمین دیجیتال (DTM) تبدیل کرد که برای تحقیقات قطعه‌بندی تصویر استفاده می‌شوند.
  • قطعه‌بندی داده‌های فراطیفی (Hyperspectral Data)
    • قطعه‌بندی تصویر تنها به تصاویر چندطیفی محدود نمی‌شود، بلکه به تصاویر فراطیفی و LiDAR نیز گسترش می‌یابد. (در این فصل جزئیات بیشتری در مورد روش‌های خاص قطعه‌بندی برای داده‌های فراطیفی ارائه نشده است).
  • ارزیابی قطعه‌بندی (Segmentation Evaluation)
    • تکنیک‌های ارزیابی را می‌توان بر اساس واحد ارزیابی به دو دسته تقسیم کرد: روش‌های مبتنی بر پیکسل (per-pixel) و روش‌های مبتنی بر چندضلعی/شیء (per-polygon).
    • روش‌های مبتنی بر پیکسل: هدفشان توصیف دقت از نظر نواحی به درستی تشخیص‌داده شده است، اما به دلیل آسیب‌پذیری در برابر خطاهای موقعیتی و عدم ارتباط معنادار با ویژگی‌های زمین، مورد انتقاد قرار گرفته‌اند.
    • روش‌های مبتنی بر چندضلعی: به دو زیرشاخه نظارت شده (supervised) و بدون نظارت (unsupervised) تقسیم می‌شوند.
      • روش‌های نظارت شده (empirical discrepancy methods): واریانس بین سگمنت‌های تولید شده توسط کامپیوتر و چندضلعی‌های مرجع را اندازه‌گیری می‌کنند. این روش نیازمند جمع‌آوری داده‌های مرجع زمینی است که می‌تواند چالش‌برانگیز و زمان‌بر باشد.
      • روش‌های بدون نظارت (empirical goodness methods): ارزیابی کمی را بدون نیاز به داده‌های مرجع فراهم می‌کنند. این روش‌ها کیفیت قطعه‌بندی را بر اساس معیارهای از پیش تعیین‌شده مانند یکنواختی، تمایز، سادگی و دقت مکانی مناطق ارزیابی می‌کنند.
    • هدف کاربرد نیز در انتخاب روش ارزیابی اهمیت دارد.
  • ملاحظات نهایی
    • قطعه‌بندی تصویر یک روش حیاتی در GEOBIA و در کاربردهای مختلف سنجش از دور است.
    • ظهور “داده‌های بزرگ زمینی (big earth data)” به دلیل حجم عظیم مجموعه داده‌های مشاهدات زمینی، چالشی را ایجاد کرده است که نیازمند ادغام با GEOBIA برای تحلیل موثر است.
    • ادغام روش‌های قطعه‌بندی معنایی، عمدتاً از طریق هوش مصنوعی (AI) و یادگیری عمیق (DL)، نقطه کانونی فعلی در جامعه سنجش از دور است.
    • با این حال، چالش‌هایی همچون ماهیت جعبه سیاه (black-box) هوش مصنوعی، وابستگی به مجموعه داده‌های برچسب‌گذاری شده و نیاز به تخصص انسانی برای اطمینان از نتایج معنادار همچنان باقی است.

فصل 8

فصل ۸ از کتاب “Remote Sensing Handbook, Volume II” به طور اصلی به تجزیه و تحلیل تصویر مبتنی بر شیء (Object-Based Image Analysis – OBIA) و یا تجزیه و تحلیل تصویر مبتنی بر شیء جغرافیایی (Geographic Object-Based Image Analysis – GEOBIA) می‌پردازد. این فصل، OBIA را به عنوان یک پارادایم جدید در سنجش از دور معرفی می‌کند.

مقدمه و انگیزه برای OBIA

  • سنجش از دور از دیرباز حوزه‌ای تخصصی بوده و مفهوم غالب در آن، پیکسل بوده است.
  • با این حال، نارضایتی فزاینده‌ای از تجزیه و تحلیل تصویر پیکسل به پیکسل وجود داشته است. این انتقاد جدید نبوده، اما نیاز به رویکردهای “فراتر از پیکسل‌ها” و روش‌های خاصی برای پشتیبانی از آن را برجسته کرده است.
  • OBJIA به دلیل این نیاز مطرح شد تا محدودیت‌های تحلیل مبتنی بر پیکسل، به‌ویژه در رابطه با اطلاعات مکانی، را برطرف کند.

تاریخچه OBIA

  • ریشه‌های فکری OBIA به دهه ۱۹۶۰ و عکاسی هوایی پیش از دوران دیجیتال بازمی‌گردد. اطلاعات مکانی موجود در تصاویر دیجیتال، مانند بافت تصویر (image texture)، اطلاعات متنی (contextual information)، مجاورت پیکسل (pixel proximity)، و ویژگی‌های هندسی (geometric attributes)، که اکنون در رویکرد شیء‌گرا مورد استفاده قرار می‌گیرند، در دهه ۱۹۶۰ به عنوان مولفه‌هایی برای اتوماسیون احتمالی پردازش عکس مورد بحث قرار گرفتند.
  • به‌رغم این ریشه‌ها، OBIA تا اواخر دهه ۱۹۹۰ و اوایل دهه ۲۰۰۰ به طور گسترده در کاربردهای اطلاعات مکانی مورد استفاده قرار نگرفت.
  • ظهور تصاویر ماهواره‌ای با وضوح بالا، مانند QuickBird، محرک اصلی توسعه رویکردهای شیءگرا بود.
  • کنفرانس‌های بین‌المللی GEOBIA در شهرهایی مانند گنت (۲۰۱۰) و ریو دو ژانیرو (۲۰۱۲) نقش مهمی در گسترش این حوزه ایفا کردند.
  • در مجموع، پیشرفت‌های تکنولوژیکی و روش‌شناختی در یک و نیم دهه اخیر منجر به ظهور رویکردهای شیءگرا شده است. اگرچه روش‌های پیکسل‌محور کلاسیک هنوز در انتشارات علمی بیشتر هستند، اما OBIA به عنوان یک پارادایم جدید شناخته می‌شود.

خلاصه‌ای از وضعیت هنر در OBIA

OBIA شامل سه بخش اصلی است:

  • قطعه‌بندی (Segmentation):
    • قطعه‌بندی بخشی جدایی‌ناپذیر از OBIA است.
    • هدف آن گروه‌بندی پیکسل‌های مرتبط به اشیاء یا مناطق همگن است.
    • کیفیت قطعه‌بندی تصویر به وضوح مکانی تصویر و اندازه اشیاء مورد نظر در منظره بستگی دارد. برای مثال، برای شناسایی و نقشه‌برداری دقیق اشیاء، حداقل شش پیکسل در هر شیء ضروری است.
    • روش‌های قطعه‌بندی مختلفی وجود دارد، از جمله آستانه‌گذاری و خوشه‌بندی (با سادگی محاسباتی اما وابستگی به مقادیر اولیه و پارامترهای کاربر)، و روش‌های مبتنی بر لبه (شناسایی تغییرات ناگهانی در ویژگی‌های پیکسل).
    • روش‌های دیگر شامل قطعه‌بندی مبتنی بر گراف هستند که تصویر را به عنوان یک گراف مدل‌سازی می‌کنند.
  • طبقه‌بندی (Classification):
    • پس از قطعه‌بندی، اشیاء استخراج شده طبقه‌بندی می‌شوند.
    • OBIA در مقایسه با روش‌های پیکسل‌محور، دقت طبقه‌بندی بالاتری را در کاربردهایی مانند شناسایی مناطق پاک‌تراشی شده جنگلی نشان داده است.
    • با این حال، در برخی موارد، روش‌های پیکسل‌محور ممکن است کمی دقت بهتری ارائه دهند، اگرچه رویکرد شیءگرا واقعی‌تر و متناسب با نیازهای کاربران است.
    • OBIA امکان طبقه‌بندی “هر-میدان” (per-field classification) را فراهم می‌کند که در آن برچسب‌های کلاس پوشش زمین به مناطق (land cover parcels) به جای پیکسل‌ها اختصاص داده می‌شوند.
  • وظایف پیچیده “اطلاعات جغرافیایی” (Complex “Geo-Intelligence” Tasks):
    • این بخش به کاربردهای پیشرفته‌تر OBIA، فراتر از طبقه‌بندی و قطعه‌بندی ساده، اشاره دارد.

تحولات جاری و تأثیرات متقابل

  • OBIA تأثیرات متقابلی بر رشته‌های دیگر مانند علوم اطلاعات جغرافیایی (GIScience) و سنجش از دور داشته است.
  • این رویکرد همچنین بر محیط کار در حوزه اطلاعات جغرافیایی و نحوه استفاده متخصصان از داده‌ها تأثیر گذاشته است.

چشم‌اندازهای پایانی

  • نیاز به نام‌گذاری مشترک و روش‌شناسی‌های صحیح برای پیشرفت در این حوزه.
  • حرکت به سمت اطلاعات جغرافیایی غیرنظامی (Civilian Geo-Intelligence).
  • مواجهه با چالش‌های معرفت‌شناختی (Epistemological) و هستی‌شناختی (Ontological).
  • فصل ۹ با عنوان “یکپارچه‌سازی داده‌های مکانی در OBIA—پیامدهای دقت و اعتبار” به بررسی عمیق‌تر این موضوعات می‌پردازد.

بدون دیدگاه

دیدگاهتان را بنویسید