خلاصه

هدف این مقاله پیاده‌سازی یک سیستم غربالگری برای شناسایی عکس‌های مرتبط با سیل از رسانه‌های اجتماعی است. این عکس‌ها، مرتبط با موقعیت جغرافیایی‌شان، می‌توانند اطلاعات بصری رایگان، به‌موقع و قابل اعتمادی درباره رویدادهای سیل در اختیار تصمیم‌گیرندگان قرار دهند. این سیستم غربالگری که برای کاربرد در تصاویر رسانه‌های اجتماعی طراحی شده است، شامل چندین ماژول کلیدی است: دانلود توییت/تصویر، تشخیص عکس سیل، و یک برنامه WebGIS برای تأیید انسانی. در این مطالعه، مجموعه داده آموزشی از 4800 عکس سیل بر اساس یک روش تکراری با استفاده از یک شبکه عصبی کانولوشن (CNN) توسعه یافته و آموزش دیده برای تشخیص عکس های سیل ساخته شد. این سیستم به گونه‌ای طراحی شده است که CNN می‌تواند توسط مجموعه داده‌های آموزشی بزرگ‌تر دوباره آموزش داده شود، زمانی که عکس‌های سیل تایید شده توسط تحلیل‌گران بیشتری به مجموعه آموزشی به شیوه‌ای تکراری اضافه می‌شوند. دقت کلی تشخیص عکس سیل 93٪ در یک مجموعه تست متعادل بود، و دقت بین 46 تا 63٪ در توییت‌های بلادرنگ بسیار نامتعادل است. این سیستم به صورت پلاگین فعال است و تغییرات انعطاف پذیری را در ماژول طبقه بندی می دهد. بنابراین، معماری سیستم و اجزای کلیدی ممکن است در انواع دیگر حوادث بلایای طبیعی مانند آتش‌سوزی‌ها، زلزله‌ها برای ارزیابی آسیب/تأثیر مورد استفاده قرار گیرند. اجازه تغییرات انعطاف پذیر در ماژول طبقه بندی. بنابراین، معماری سیستم و اجزای کلیدی ممکن است در انواع دیگر حوادث بلایای طبیعی مانند آتش‌سوزی‌ها، زلزله‌ها برای ارزیابی آسیب/تأثیر مورد استفاده قرار گیرند. اجازه تغییرات انعطاف پذیر در ماژول طبقه بندی. بنابراین، معماری سیستم و اجزای کلیدی ممکن است در انواع دیگر حوادث بلایای طبیعی مانند آتش‌سوزی‌ها، زلزله‌ها برای ارزیابی آسیب/تأثیر مورد استفاده قرار گیرند.

کلید واژه ها:

توییتر ؛ سیل ؛ زمان واقعی ؛ تصویر ; یادگیری عمیق

1. معرفی

سیل تهدید قابل توجهی برای اشغال انسان از چشم انداز است و منجر به بیشترین خسارت مالی ناشی از بلایای طبیعی می شود. این امر سکونتگاه‌های انسانی را مختل می‌کند، به زیرساخت‌ها آسیب می‌زند و خسارات بی‌شماری در اقتصاد محلی و املاک مسکونی ایجاد می‌کند. سیل یک نوع رایج بلایای طبیعی در ایالات متحده است [ 1 ]. در حالی که الگوی بارندگی شدید ممکن است از گرم شدن کره زمین در حال تغییر باشد، سیل در ایالات متحده بیشتر می شود [ 2 ]. در سال‌های اخیر، ایالات متحده از چندین سیل شدید مانند سیل لوئیزیانا در سال 2016، سیل هیوستون در سال 2017 و طوفان فلورانس در سال 2018 آسیب دیده است. خسارات ناشی از سیل در ایالات متحده در سال 2017 به 60 میلیارد دلار رسید [ 3 ] .].
آگاهی از موقعیت و نقشه برداری سیل مستلزم اطلاع اولیه از محل وقوع سیل و شدت آن است (که معمولاً در جامعه بلایای طبیعی به عنوان “چقدر بزرگ و چقدر بد” نامیده می شود). نقشه های سیلاب به منظور تعریف وسعت و شدت سیل، پیش بینی سیل و نقشه برداری دشت سیلابی عمل می کند [ 4 ، 5 ]. سازمان زمین شناسی ایالات متحده (USGS) معمولاً یک تیم را پس از یک رویداد سیل بزرگ برای جمع آوری واترمارک های بالا در میدان اعزام می کند. این نقشه‌ها اغلب ماه‌ها پس از وقوع سیل به‌طور رسمی منتشر می‌شوند [ 6 ]، و در حالی که برای کاهش و مدل‌سازی مفید هستند، هیچ به موقعی برای یک رویداد سیل فعلی وجود ندارد.
اطلاعات جغرافیایی داوطلبانه (VGI) یک راه حل بالقوه برای نقشه برداری سریع سیل است [ 7 ]. کاربران رسانه های اجتماعی (به عنوان مثال، توییتر، فیس بوک) که به عنوان “حسگرهای انسانی” در زمینه VGI شناخته می شوند، اطلاعاتی را در مورد محیط فیزیکی و اجتماعی خود جمع آوری و پخش می کنند [ 8 ، 9 ، 10 ]. مطالعات اخیر نشان داد که پست‌های رسانه‌های اجتماعی بلادرنگ، رایگان و دارای برچسب جغرافیایی می‌توانند در آگاهی از وضعیت سیل و نقشه‌برداری سریع مورد استفاده قرار گیرند [ 6 ، 11 ، 12 ، 13 ، 14 .]. بسیاری از این مطالعات، عکس‌های آپلود شده در پست‌های مربوط به سیل را به عنوان اطلاعات بصری در محل حیاتی برای افزایش آگاهی موقعیت سیل مشاهده کرده‌اند. به عنوان مثال، یک عکس ارسال شده توسط یکی از ساکنان که حیاط آب گرفته را نشان می دهد برای ارزیابی ارتفاع آب و شرایط کاری برای کنترل سیل در مجاورت مفید است.
با این حال، استخراج کارآمد و دقیق عکس‌های مفید مرتبط با سیل از مقادیر انبوه داده‌های شبکه‌های اجتماعی بدون ساختار، چالش‌های قابل‌توجهی ایجاد می‌کند. به عنوان مثال، در نوامبر 2018 تقریباً 5000 توییت در هر ثانیه پست شد [ 15 ]. این توییت‌ها موضوعات مختلفی را پوشش می‌دهند و موضوعات مرتبط با سیل نسبت‌های بسیار کمی را نشان می‌دهند. در میان آن مطالعات پیشگام، فیلتر دستی مبتنی بر کلیدواژه پست های مرتبط با سیل، روش غالب است [ 6 ، 11 ]] اما با محدودیت های آشکار. ابتدا، اگر هیچ کلمه کلیدی مرتبط با سیل در متن وجود نداشته باشد، ممکن است پست هایی که حاوی عکس های سیل هستند نادیده گرفته شوند. دوم، بررسی دستی پست های رسانه های اجتماعی گسترده ناکارآمد است و منجر به غیرعملی بودن تجزیه و تحلیل بلادرنگ می شود.
چالش‌های اساسی برای شناسایی خودکار مرتبط و استخراج اطلاعات مرتبط با سیل از تصاویر پست‌شده در رسانه‌های اجتماعی وجود دارد. تصاویر آپلود شده ممکن است شامل اسکرین شات از متن، پوستر، تصاویر، کارتون، تبلیغات، عکس های اصلاح شده باشد. برای یک رویداد سیل، تصاویر روی موضوع تنها بخش‌های کوچکی از کل مجموعه داده را نشان می‌دهند، و این به ویژه برای توییت‌هایی با اطلاعات جغرافیایی صادق است. به عنوان مثال، توییت های دارای برچسب جغرافیایی جهانی با “سیل” تنها 0.034٪ از توییت های دارای برچسب جغرافیایی از رابط برنامه کاربردی پخش جریانی توییتر (API) را نشان می دهد. عکس‌های توییت‌شده از دستگاه‌ها، زوایای و محیط‌های مختلف گرفته شده‌اند و اهداف مختلفی را دنبال می‌کنند. خودسری یک عکس پیوست شده، عدم قطعیت در نتایج تشخیص را تشدید می کند. بدین ترتیب، اجرای یک روش تشخیص عکس سیل کاملاً خودکار دشوار است و قبل از استفاده از عکس‌های برچسب‌گذاری شده سیل، به مرحله تأیید نهایی دستی نیاز است. علاوه بر این، اطلاعات مکان برای آگاهی و واکنش موقعیتی بلایای طبیعی حیاتی است، به طوری که تأیید مکان آن عکس‌های سیل مورد نیاز است. در حال حاضر، هیچ روش عملی برای انجام تأیید موقعیت مکانی به جز کار دستی وجود ندارد. بنابراین، یک رویکرد عملی، ساختن سیستمی است که بتواند به طور خودکار عکس های نامربوط را فیلتر کند و مقدار نسبتاً کمی از عکس های سیل را برای تأیید دستی ارائه دهد. اطلاعات مکان برای آگاهی و پاسخ به موقعیت فاجعه حیاتی است، به طوری که تأیید مکان آن عکس های سیل مورد نیاز است. در حال حاضر، هیچ روش عملی برای انجام تأیید موقعیت مکانی به جز کار دستی وجود ندارد. بنابراین، یک رویکرد عملی، ساختن سیستمی است که بتواند به طور خودکار عکس های نامربوط را فیلتر کند و مقدار نسبتاً کمی از عکس های سیل را برای تأیید دستی ارائه دهد. اطلاعات مکان برای آگاهی و پاسخ به موقعیت فاجعه حیاتی است، به طوری که تأیید مکان آن عکس های سیل مورد نیاز است. در حال حاضر، هیچ روش عملی برای انجام تأیید موقعیت مکانی به جز کار دستی وجود ندارد. بنابراین، یک رویکرد عملی، ساختن سیستمی است که بتواند به طور خودکار عکس های نامربوط را فیلتر کند و مقدار نسبتاً کمی از عکس های سیل را برای تأیید دستی ارائه دهد.
یادگیری عمیق یا رویکردهای شبکه عصبی مصنوعی چند لایه، از سال 2012 توسعه سریعی یافته است [ 16 ]. به طور گسترده ای برای شناسایی اشیاء، تشخیص گفتار یا تطبیق موارد استفاده می شود [ 16 ]. به عنوان یک روش فیلتر غیر دستی و کارآمد، یادگیری عمیق یک رویکرد امیدوارکننده برای استخراج پست های مرتبط با سیل از داده های رسانه های اجتماعی عظیم است [ 17 ]. به عنوان مثال، مطالعات اخیر [ 18 ، 19 ، 20] هم متن و هم تصویر یک پست را تجزیه و تحلیل کرد تا مشخص کند آیا پست مربوط به سیل است یا خیر. مهمتر از آن، روش یادگیری عمیق می‌تواند داده‌های عظیم رسانه‌های اجتماعی را در زمان واقعی پردازش کند و اطلاعات به موقع را برای اولین واکنش تیم مدیریت بلایای محلی ارائه دهد.
با توجه به این چالش ها و پیشرفت یادگیری عمیق، این مقاله یک گردش کار کامل را برای استخراج و تأیید عکس های سیل برای رسانه های اجتماعی بررسی می کند. ابتدا نمونه های آموزشی با بازرسی ده ها هزار عکس سیل جمع آوری شد. سپس معیارهای دقیق برای شناسایی عکس سیلاب برای سیستم تعیین شد. در نهایت، یک معماری متمرکز مبتنی بر پایگاه داده و دارای پلاگین بر اساس تکنیک یادگیری عمیق طراحی و پیاده‌سازی شد که سیستم را قادر می‌سازد عکس‌های سیل را در زمان واقعی نمایش دهد. معماری پلاگین سیستم را قادر می‌سازد تا با افزودن پلاگین‌های جدید، سایر کارهای تجزیه و تحلیل تصویر در زمان واقعی مانند غربالگری عکس‌های آتش‌سوزی را انجام دهد.

2. کارهای مرتبط

2.1. طبقه بندی تصاویر بر اساس یادگیری عمیق

هدف از طبقه‌بندی تصویر (که به آن دسته‌بندی یا برچسب‌گذاری تصویر نیز گفته می‌شود) اختصاص دادن یک تصویر به یک کلاس با توجه به محتوای آن است. به عنوان مثال، با توجه به عکس یک گربه، الگوریتم احتمالات مجموعه ای از برچسب های نامزد، مانند گربه، سگ یا ببر را برمی گرداند. یک الگوریتم واجد شرایط باید احتمال بسیار بالاتری را به برچسب گربه نسبت به سایر برچسب ها اختصاص دهد. قبل از پارادایم یادگیری عمیق، الگوریتم کیسه کلمات (BoW) محبوب ترین و موفق ترین رویکرد برای چنین برچسب گذاری تصاویر بود [ 21 ]. ویژگی‌های تصویر توسط توصیف‌گرها استخراج می‌شوند، مانند SIFT (تبدیل ویژگی ثابت مقیاس [ 22 ]) و SURF (ویژگی‌های قوی سریع‌تر [ 23 )])، که واژگان را تشکیل می دهند. روش‌های BoW با ویژگی‌ها مانند کلمات برخورد می‌کنند و سپس تصاویر را بر اساس ویژگی‌هایشان در واژگان خوشه‌بندی می‌کنند. یک روش BoW نمی تواند از بافت فضایی ویژگی ها هنگام استخراج اشیاء در تصاویر سوء استفاده کند. SVM (ماشین بردار پشتیبان) و مدل های سلسله مراتبی آن از دیگر روش های محبوب برای برچسب گذاری تصویر هستند.
رویکردهای شبکه عصبی عمیق در دهه گذشته پیشرفت چشمگیری داشته است. به عنوان مثال، در چالش ILSVRC 2012، رقبا باید با آموزش طبقه بندی کننده های خود با 1.2 میلیون تصویر، 150000 تصویر آزمایشی را در 1000 کلاس طبقه بندی می کردند. AlexNet با دقت قابل توجهی جلوتر از رتبه دوم که بر اساس روش های غیر شبکه عصبی بود (16٪ در مقابل 26.2٪ در میزان خطا) برنده شد. در سال‌های اخیر، میزان خطا به دلیل استفاده از CNN‌های پیچیده‌تر، مانند VGG [ 24 ] و ResNet [ 25 ] کاهش یافته است.]. چارچوب های یادگیری عمیق منبع باز محبوب (به عنوان مثال، Tensorflow، Pytorch) این CNN های آموزش دیده را ارائه می دهند، و کاربر می تواند به راحتی آنها را برای طبقه بندی تصاویر یا آموزش CNN ها با مجموعه داده های آموزشی سفارشی استفاده کند. ILSVRC 2017 جدیدترین چالش طبقه بندی تصویر است که در آن میزان خطا برای طرح برنده به 2.251% کاهش یافته است، که بسیار بهتر از عملکرد انسانی حتی 5% [ 26 ]. بر اساس این نتایج، سازمان‌دهنده چالش، سؤال طبقه‌بندی تصویر را حل شده در نظر گرفت و رقابت را پایان داد – بدون چالش در آینده.
CNN ها همچنین می توانند برای کارهای خاص طراحی شوند. Gebru [ 27 ] اتومبیل‌ها را در نمای خیابان Google شناسایی و طبقه‌بندی کرد، و پیش‌بینی درآمد جامعه را با همبستگی بالا با داده‌های مرجع زمینی به دست آورد (r = 0.82). CNN مبتنی بر AlexNet 50 میلیون تصویر از 200 شهر بزرگ آمریکا را شناسایی و خودروها را در 2600 دسته طبقه بندی کرد. نویسندگان از خودروهای شناسایی شده برای انجام یک مطالعه جامعه شناختی مرتبط با جمعیت شناسی محلی استفاده کردند. آشکارساز ماشین ریزدانه که توسط 347811 نمونه آموزش داده شده است، داده های اولیه را در این جستجو ارائه می دهد. گروه دیگری از نویسندگان [ 28] یک CNN را برای تشخیص بیماری های گیاهی آموزش داد. آنها از 4483 تصویر برای آموزش AlexNet برای طبقه بندی 13 بیماری برگ، از جمله سیب و هلو استفاده کردند. AlexNet آموزش دیده دقت متوسط ​​96.3٪ را به دست آورد. طبقه‌بندی تصویر بر اساس CNN در بسیاری از زمینه‌های کاربردی دیگر، مانند تجزیه و تحلیل تصویر پزشکی [ 29 ، 30 ، 31 ] و تشخیص حیوانات [ 32 ] نیز اعمال شد.

2.2. طبقه بندی عکس سیل

در حالی که تجزیه و تحلیل متن رسانه های اجتماعی به طور گسترده مورد مطالعه قرار گرفته است، اطلاعات بصری یا تصاویر ارسال شده مطابق بهترین دانش ما از ادبیات فعلی مورد بررسی قرار نگرفته است. عبارت “تصویر” مورد اشاره در این تحقیق به معنای انواع تصاویر ارسال شده در شبکه های اجتماعی از جمله عکس، اسکرین شات و سایر فایل های شطرنجی پیوست شده است. در این مطالعه، “عکس” تصویری است که از دوربین های صحنه های طبیعی (یعنی نه مصنوعی) به دست می آید. عکس‌ها اطلاعات بصری در سایت را ثبت می‌کنند، در حالی که سایر انواع تصاویر ممکن است هیچ ارتباطی با محیط در سایت نداشته باشند. در این مطالعه، ما بر تجزیه و تحلیل تصویر رسانه های اجتماعی در هنگام وقوع سیل تمرکز کردیم. به‌ویژه، عکس‌های ارسال شده که وضعیت‌های جاری سیل را نشان می‌دهند، عکس‌های سیل هستند. بازتوییت ها و اسکرین شات ها از رسانه های عمومی به سختی قابل بومی سازی هستند،
طبقه بندی عکس سیل به یک موضوع تحقیقاتی جدید در مدیریت بلایا تبدیل شده است. وظیفه ماهواره چندرسانه ای در MediaEval [ 33 ]، رقابتی برای تشخیص عکس فاجعه و طبقه بندی تصاویر ماهواره ای، با هدف ارتقاء دسترسی چند رسانه ای و الگوریتم های بازیابی است. در سال‌های 2017 و 2018، این وظیفه بر روی رویداد سیل متمرکز بود. شرکت کنندگان متن و عکس های رسانه های اجتماعی را با هم ترکیب کردند تا مشخص کنند که آیا یک توییت مرتبط با سیل است یا خیر. روش های برتر در سال 2017 به دقت بالاتر از 95 درصد رسیدند [ 34 ]. داده های آموزشی از مجموعه داده های تصویری YFCC100M [ 35 ] به دست آمد اما معیار خاصی در مورد عکس های سیلابی نداشت. محققان از عبارت «سطوح بالای آب غیرمنتظره در مناطق صنعتی، مسکونی، تجاری و کشاورزی به عنوان تعریف عکس سیل. حاشیه نویسان انسانی عکس را در مقیاس 1 تا 5 با توجه به قدرت شواهد سیل رتبه بندی کردند. این مسابقه بر کاربرد و به کارگیری این الگوریتم ها تاکیدی نداشت.
روش‌های مبتنی بر CNN برای شناسایی توییت‌های سیل‌آمیز در ادبیات غالب هستند. Paper [ 20 ] از CNN 8 لایه ای برای طبقه بندی عکس های سیل از توییت ها استفاده کرد و سپس از کلمات متداول در پست های متنی در طول یک رویداد سیل استفاده کرد تا نتایج تشخیص را اصلاح کند. دقت نهایی در یک مجموعه تست متعادل 87.4٪ بود. یک CNN ترکیبی بصری-بنی در [ 19 ] اعمال شد، که در آن یک Inception V3 [ 36 ] CNN برای تصویر توییت شده و یک Word2Vec [ 37 ] استفاده شد.روش ] برای تبدیل متن توییت شده به آرایه ای که به CNN دیگری تغذیه می شود، استفاده شد. آن دو سی‌ان‌ان استخراج‌شده از توییت، بردار 1024 بعد از تصویر و متن را تولید کردند. سپس این دو بردار برای آموزش مدل‌های یادگیری ماشین، مانند SVM، برای طبقه‌بندی توییت‌های سیل‌آمیز به هم متصل شدند. دقت 96.5 درصد در یک مجموعه تست متعادل به دست آمد.
فنگ و سستر [ 18 ] از CNN و روش‌های دیگر برای طبقه‌بندی توئیت‌های مرتبط با سیلاب استفاده کردند. هم متن و هم عکس در توییت ها با هم ترکیب شده و به عنوان مرتبط یا نامربوط طبقه بندی شدند. نویسندگان از سه زیرمجموعه (هر کدام 7600 عکس) که از توییتر و اینستاگرام جمع آوری شده بودند برای آموزش مدل استفاده کردند. زیر مجموعه 1 حاوی تصاویری از رسانه های اجتماعی است. این تصاویر بی ربط بودند و توسط حاشیه نویسان انسانی انتخاب شدند. زیرمجموعه 2 سیل عکس‌هایی از رویدادهای شناخته شده در پاریس، لندن و برلین بود. زیرمجموعه 3 شامل عکس‌هایی از سطوح آب طبیعی (غیر سیل‌زده) مانند دریاچه‌ها بود. دو طبقه‌بندی‌کننده تصویر به ترتیب برای تشخیص عکس‌های سیل از زیرمجموعه 1 و زیر مجموعه 2 آموزش داده شدند. اگر هر دو طبقه‌بندی‌کننده آن را به‌عنوان سیل در نظر بگیرند، عکسی به‌عنوان مرتبط با سیل شناسایی شد. بالاترین امتیاز F1 [ 38] به عنوان 0.9288 گزارش شده است.
اگرچه این مطالعات بر روی تشخیص عکس سیل پخش شده در رسانه های اجتماعی انجام شده است، اما اهداف آنها برای کاربردهای بیشتر و استانداردهای جمع آوری داده ها مشخص نیست. مجموعه داده های شبیه سازی شده فاقد اطلاعات زمان واقعی و ویژه رویداد هستند. ما معتقدیم که عکس‌های سیل کشف‌شده اطلاعاتی در مورد رویدادهای جاری سیل ارائه می‌کنند. همچنین، اکثر مطالعات آزمایشی به طور سیستماتیک گردش کار کلی، مانند اکتساب تصویر، کلیت سیستم و توسعه پذیری را در نظر نمی گیرند. علم و همکاران [ 39] یک سیستم پردازش تصویر آنلاین در رسانه های اجتماعی را برای ارزیابی شدت آسیب گزارش کرد، اما آنها فقط یک تابع طبقه بندی تصویر را ارائه کردند. علاوه بر این، یک سیستم تشخیص عکس سیل را می توان به عنوان یک سیستم تجزیه و تحلیل تصویر تعمیم داد تا با وظایف مختلف تجزیه و تحلیل تصاویر، مانند طبقه بندی تصویر و تشخیص اشیا، مقابله کند. در این مطالعه، ما یک تجزیه و تحلیل تصویر بلادرنگ برای رسانه های اجتماعی (RIASM) ایجاد کردیم تا این اهداف چندگانه را برآورده کنیم. ما همچنین عملکرد RIASM را هنگام اعمال آن در مجموعه داده‌های بسیار نامتعادل از محیط تولید گزارش کردیم، که در ادبیات فوق گزارش نشده بود.

3. روش شناسی

3.1. معماری سیستم

این تحقیق برای پیاده‌سازی سیستمی برای غربالگری عکس‌های سیل برچسب‌گذاری شده از پست‌های رسانه‌های اجتماعی عظیم برای آگاهی سریع از وضعیت سیل انجام شد. اولین کار جمع‌آوری نمونه‌های عکس سیل برای ایجاد یک مجموعه داده آموزشی برای طبقه‌بندی عکس‌های سیل‌آلود/غیر سیل بود. بر اساس مجموعه کوچکی از عکس‌های سیل جمع‌آوری‌شده به‌صورت دستی، یک روش تکراری برای آموزش یک طبقه‌بندی‌کننده CNN برای جمع‌آوری عکس‌های سیل بیشتر از تصاویر رسانه‌های اجتماعی استفاده شد. به منظور نمایش عکس‌های رسانه‌های اجتماعی در زمان واقعی، چندین ماژول مستقل برای وظایف فرعی زیر توسعه داده شد: دانلود توییت، دانلود تصویر، تجزیه و تحلیل تصویر، و تایید نتیجه. یک پایگاه داده MySQL برای ذخیره و تبادل داده ها از این ماژول ها استفاده شد.شکل 1 معماری سیستم پیشنهادی را نشان می دهد.
RIASM طراحی متمرکز پایگاه داده و مبتنی بر پلاگین را اتخاذ می کند که شامل چهار ماژول اصلی برای هر وظیفه فرعی است. در حال حاضر RIASM از توییتر به عنوان منبع داده استفاده می کند. به عنوان یک سیستم متمرکز در پایگاه داده، ماژول های آن فقط با پایگاه داده ارتباط دارند و مستقل از یکدیگر هستند. خرابی یک ماژول مستقیماً بر سایر ماژول ها تأثیر نمی گذارد. به عنوان مثال، زمانی که ماژول دانلود توییت ها کار نمی کند، ماژول دانلود تصویر همچنان می تواند با بازیابی توییت های دانلود شده از پایگاه داده، تصاویر را دریافت کند. اگر ماژول Image Downloading شکست خورد، Image Analyzerهنوز هم تصاویر بدون تجزیه و تحلیل را بازیابی می کند تا زمانی که همه تصاویر دانلود شده آنالیز شوند. جزئیات بیشتر در زیر بخش های زیر ارائه شده است.

3.1.1. ماژول دانلود توییت

به دلیل حجم عظیمی از داده‌های در حال پخش، ما توییت‌ها را به عنوان داده‌های داغ و داده‌های سرد [ 40 ] دسته‌بندی کردیم تا آنها را به‌طور مؤثر بازیابی و به‌روزرسانی کنیم. داده های داغ باید فوراً قابل دسترسی باشند، در حالی که داده های سرد کمتر مورد دسترسی قرار می گیرند. توییت‌های دانلود شده جدید (یعنی داده‌های داغ) به طور موقت در یک پایگاه داده رابطه‌ای (MySQL در این مطالعه) ذخیره می‌شوند و توسط ماژول‌های دیگر بازیابی می‌شوند. هنگامی که تجزیه و تحلیل تصویر مرتبط به پایان رسید، توییت ها به عنوان داده سرد مشاهده می شوند و به عنوان پردازش برچسب گذاری می شوند و سپس در Impala [ 41 ] بارگذاری می شوند، که یک موتور جستجوی SQL پردازش موازی منبع باز برای داده های ذخیره شده در یک خوشه کامپیوتری است که Apache Hadoop را اجرا می کند. .
RIASM توییت‌های دارای برچسب جغرافیایی در زمان واقعی را از Twitter Streaming API دانلود می‌کند. توییت های ارسال شده در منطقه مورد علاقه بدون توجه به زبان نوشتاری آنها جمع آوری و در پایگاه داده ذخیره می شوند و به دنبال آن کلمات کلیدی و هشتگ ها فیلتر می شوند. Streaming API توییت‌ها را در قالب JSON (JavaScript Object Notation) با ده‌ها فیلد، به عنوان مثال، شناسه توییت‌ها و آدرس‌های اینترنتی تصاویر آپلود شده، فشار می‌دهد. قبل از ذخیره توییت ها در پایگاه داده، توییت دانلود کنیدماژول بدون به تعویق انداختن سرعت ثبت توییت‌ها، مانند محاسبه امتیاز احساسات برای هر توییت، تجزیه و تحلیل متن را در زمان واقعی انجام می‌دهد. یک افزونه ترجمه در RIASM تعبیه شده است تا توییت های نوشته شده توسط زبان های غیر هدف را بتوان به زبان مقصد مانند انگلیسی ترجمه کرد و در پایگاه داده ذخیره کرد. ایموجی‌ها که به‌شدت در رسانه‌های اجتماعی استفاده می‌شوند، برای متن‌کاوی جهانی نیز بافت‌سازی شده‌اند. API استریم حدود 10 تا 20 توییت با برچسب جغرافیایی در هر ثانیه در ایالات متحده ارسال می کند و حدود 10٪ از آنها دارای مختصات طول و عرض جغرافیایی دقیق هستند. این آمار در فوریه 2019 ثبت شده است و ممکن است به دلیل عملیات توییتر یا رفتارهای کاربر تغییر کند. توییت های جمع آوری شده به صورت دوره ای (مثلاً هر دقیقه) ذخیره می شوند.
3.1.2. ماژول دانلود تصویر
در مقایسه با دانلود توییت، دانلود تصویر وقت گیر و منابع فشرده است. حدود 10 درصد از توییت ها دارای تصاویر پیوست شده اند. برای دانلود تصاویر جدید ارسال شده در زمان واقعی، یک رویکرد چند پردازشی برای سرعت بخشیدن به روند دانلود اعمال می شود. در ماژول Images Downloading ، هر فرآیند دانلود به طور مستقل با پایگاه داده ارتباط برقرار می کند، مانند دریافت توییت های پردازش نشده و برچسب گذاری آنها به عنوان پردازش شده پس از دانلود تصاویر. تصاویر دانلود شده به عنوان فایل هایی که با شناسه های توییت نام گذاری شده اند ذخیره می شوند، بنابراین فایل های تصویری را می توان به راحتی به توییت های اصلی متصل کرد.
دانلود تصاویر از توییت‌های هم‌زمان نسبتاً ساده است زیرا تصاویر ارسال‌شده دارای URL متناظر (یاب منبع یکسان) در توییت‌های JSON هستند. زیرسیستم می تواند تصویر را مستقیماً از URL دریافت کند.
در برخی از توییت ها، کاربران URL های خارجی را به اشتراک می گذارند. حدود 30 درصد از URL ها به پست های وب سایت های رسانه های اجتماعی (به عنوان مثال، Twitter.com و Instagram.com ) پیوند دارند. این تصاویر خارجی نیز دانلود می شوند. از آنجایی که توییتر URL کامل را به URL کوتاه (کوچک) کوتاه می کند، مانند « https://t.co/Qi8Xs5jopp »، ما از یک درایور مرورگر برای باز کردن URL کوتاه و دریافت URL کامل استفاده کردیم (به عنوان مثال، https:// www.instagram.com/p/8WY30zr7F6GkXdywqP7pJJfuLPrrMncIjG2yc0/ ). اگر URL از یک وب سایت رسانه اجتماعی آمده باشد، برنامه صفحه HTML خود را دریافت کرده و تصاویر تعبیه شده در فایل HTML را دانلود می کند. جدول 1 پنج توییت و آدرس های اینترنتی کوتاه آنها را به عنوان نمونه فهرست می کند. دو صفحه وب از URLهای توییت دوم و چهارم نشان داده شده استشکل 2 .
سرعت دانلود با سرعت دسترسی به اینترنت و عملکرد کامپیوتر (به عنوان مثال، هسته های CPU و پهنای باند) تعیین می شود. در تست ما، RIASM می تواند 4 تا 10 تصویر در ثانیه دانلود کند.
3.1.3. ماژول تحلیل تصویر
این ماژول تصاویر تازه دانلود شده را از پایگاه داده بازیابی می کند و سپس آن تصاویر را به یک مدل آموزش دیده برای تشخیص عکس های سیل زده تغذیه می کند. ردیاب عکس سیل از پردازنده‌های گرافیکی برای افزایش سرعت استفاده می‌کند. نتایج در پایگاه داده ذخیره می شود. ما این ماژول را به‌عنوان قابلیت پلاگین پیاده‌سازی کردیم، به این معنی که مدل تشخیص عکس سیل را می‌توان با سایر آنالیزورهای تصویر، مانند آشکارساز گردباد یا آشکارساز آتش‌سوزی جایگزین کرد. چنین تحلیلگرهایی می توانند به صورت موازی اجرا شوند و پایگاه داده و ماژول های دانلود توییت/تصویر یکسانی را به اشتراک می گذارند. به عنوان مثال، ما یک آشکارساز شی YOLO-v3 [ 42 ] و یک مدل تشخیص چهره را با استفاده از استراتژی‌های ذکر شده به عنوان ویترین اضافه کردیم. تحلیلگرهای تصویر به طور مستقل تصاویر را بازیابی می کنند و نتایج را با پرس و جوهای SQL در پایگاه داده یکسان ذخیره می کنند.
3.1.4. ماژول تأیید نتایج مبتنی بر WebGIS
عکس‌های بدون سیل اکثریت توییت‌ها را حتی در یک رویداد سیل (بیش از ۹۵ درصد) به خود اختصاص می‌دهند. بنابراین، آشکارساز ممکن است به اشتباه مقدار قابل توجهی از عکس‌های بدون سیل را به‌عنوان سیل برچسب‌گذاری کند. علاوه بر این، عکس های سیل از رسانه های اجتماعی بسیار متفاوت است. بنابراین دانش و تجربه انسانی در یک طبقه بندی قابل اعتماد مورد نیاز است. RIASM یک برنامه WebGIS را برای اپراتورهای انسانی متصل می کند تا نتایج طبقه بندی شده خودکار را غربال کند و عکس های برچسب گذاری شده را با موقعیت جغرافیایی مرتبط کند. این رابط بر اساس نقشه گوگل است که هم تصویر و هم توییت را در سیستم نمایش می دهد ( شکل 3 ). حتی کاربرانی که آموزش دیده اند نیز می توانند تعیین کنند که آیا یک عکس سیل است یا خیر. سایر اطلاعات ورودی توسط کاربران مانند ارتفاع آب نیز می تواند در پایگاه داده ثبت شود.

3.2. مجموعه داده و آموزش

یک مجموعه داده آموزشی برای آموزش CNN ها مورد نیاز است. از آنجایی که هیچ مجموعه داده عکس سیل در دسترس عمومی وجود ندارد، ما یک مجموعه داده آموزش عکس های سیل را از تصاویر رسانه های اجتماعی ساختیم. منطق استفاده از تصاویر از رسانه های اجتماعی، نمایش طیف گسترده ای از تصاویر است. دانلود تصاویر سیل از موتورهای جستجو یا سایر مجموعه داده‌های موجود روش ساده‌تری برای ساخت مجموعه داده است، اما واریانس عکس‌های سیل‌آلود و عکس غیرسیل‌آمیز کمتر نشان داده شده است. ما از تصاویر رسانه‌های اجتماعی فقط برای حفظ عکس‌های گرفته شده توسط شهروندان آماتور استفاده کردیم، نه عکس‌های نمادین سیل که توسط روزنامه‌نگاران یا عکاسان باتجربه تهیه شده بودند. در مجموعه داده‌های ما، بسیاری از عکس‌های سیل صحنه‌های سیل‌زده داخل خانه را ضبط می‌کنند و با عکس‌های سیل که از جستجوی گوگل بازیابی شده‌اند، متفاوت هستند.
عکس سیل تنها بخش کوچکی از کل مخزن توییت را اشغال می کند. به عنوان مثال، توییت‌های دارای «سیل» شامل 0.034 درصد از مخزن توییت ما با 800 میلیون توییت از سال 2016 تا 2018 در ایالات متحده است. برچسب زدن دستی عکس های سیل در کل مخزن غیرممکن است. این تحقیق از روش تکراری برای جمع آوری عکس های سیل از کل مخزن استفاده می کند. فهرستی از حدود 800 توییت جمع‌آوری شد و به صورت دستی در یک رویداد سیل در سال 2017 تأیید شد. یک تیم 11000 توییت دارای برچسب جغرافیایی را بررسی کردند و حدود 800 مورد از آنها را مرتبط با سیل برچسب‌گذاری کردند. در میان این 800 توییت، 430 تصویر سیل وجود دارد. با این حال، مجموعه داده آموزشی از 430 نمونه مثبت به اندازه کافی برای آموزش یک CNN بزرگ نیست. با استفاده از موتورهای جستجوی تصویر Google.com و Bing.com، ما 1500 تصویر سیل اضافی را برای غنی سازی مجموعه داده آموزشی جمع آوری کردیم. در مورد نمونه های منفی، 1500 تصویر بدون سیل به طور تصادفی از ImageNet انتخاب می شوند [ 43 ]. با توجه به اینکه این عکس‌های سیل‌آلود و بدون سیل از منابع مختلفی می‌آیند، می‌توانند یک مجموعه داده آموزشی اولیه را تشکیل دهند.
ساخت مجموعه داده آموزش سیل یک فرآیند تکراری است. مجموعه داده اولیه برای آموزش یک CNN 2 لایه ساده استفاده شد. سی‌ان‌ان آموزش‌دیده عکس‌های سیل را از تصاویر توییت‌های حاوی «سیل» در مخزن ما در ایالات متحده آمریکا در سال‌های 2016 تا 2017 استخراج می‌کند (به استثنای توییت‌های استفاده شده در بخش 4.1) .مورد 1: سیل هیوستون 2017). در ابتدا، CNN آموزش دیده به دلیل ناقص بودن مجموعه داده های آموزشی اولیه، دقت پایینی دریافت می کند. بسیاری از تصاویر دارای برچسب اشتباه هستند. با این حال، نسبت عکس سیل در نتایج طبقه بندی با برچسب “سیل” بالاتر از توزیع اصلی است. یک حاشیه نویس انسانی می تواند به طور موثر عکس های واقعی سیل را در نتایج “سیل” انتخاب کند. سپس عکس های سیل تایید شده به عنوان مجموعه داده آموزشی برای آموزش مجدد CNN استفاده می شود. در هر تکرار، یک حاشیه نویس انسانی به پاکسازی عکس های طبقه بندی شده سیل به عنوان مجموعه داده آموزشی جدید کمک می کند. پس از تکرارهای سروال، اکثر عکس های سیل به مجموعه داده آموزشی منتقل می شوند. در مرحله آموزش، CNN توسط یک مجموعه داده متعادل آموزش داده شد، به این معنی که تعداد عکس‌های غیر سیل و سیل یکسان بود. در مجموعه داده آموزشی نهایی، تمام تصاویر از موتورهای جستجو حذف شدند و 3000 عکس سیل باقی مانده است. در این مرحله هم عکس های سیل و هم عکس های غیر سیل از شبکه های اجتماعی گرفته شده است.

3.2.1. معیارهای شناسایی عکس سیل

ما هیچ تعریف خاصی برای عکس های سیل در ادبیات پیدا نکردیم، بنابراین معیارهایی را برای شناسایی عکس های سیل ایجاد کردیم. در ابتدا، متوجه شدیم که برخی از عکس‌هایی که سیل را نشان می‌دهند، ممکن است لزوماً برای پاسخ‌دهندگان بلایای طبیعی مفید نباشند، به‌عنوان مثال، پوسترهای «دعا برای هیوستون» و عکس‌های سیل تاریخی. این عکس‌ها «مربوط به سیل» بودند، اما برای توصیف یک رویداد جاری سیل مفید نیستند. ما متوجه هستیم که عکس سیل شناسایی شده باید اطلاعات موجود در محل را در مورد یک رویداد جاری سیل برای آگاهی موقعیتی قابل اعتمادتر منعکس کند. علاوه بر این، ویژگی‌هایی مانند خانه‌ها، ماشین‌ها یا درختان، اشیایی هستند که معمولاً در آب‌ها ظاهر نمی‌شوند. بنابراین، وجود این ویژگی ها در بدنه های آبی در شناسایی عکس های سیلاب حیاتی است. عکس سیل باید حاوی ویژگی هایی باشد که توسط آب غرق شده اند. در مقابل، عکسی که ویژگی‌های سیل‌آلود ندارد، نمی‌تواند اطلاعات بصری قابل تشخیصی درباره سیل جاری ارائه دهد، عکسی بدون سیل است. بنابراین، “عکس سیل” را به عنوان یک عکس در محل حاوی ویژگی های غرقابی تعریف می کنیم که سیل جاری را منعکس می کند و اطلاعات بصری دست اول را ارائه می دهد.
با چندین دور پالایش نتایج طبقه‌بندی طبقه‌بندی‌کننده اولیه، معیارهای تفصیلی به تدریج ایجاد شد. جدول 2 و جدول 3 قوانینی را برای شناسایی عکس های سیل و غیر سیل نشان می دهد. شکل 4 و شکل 5 نمونه هایی از آن قوانین را نشان می دهد. برای اطمینان از ثبات در هنگام توسعه معیارها، فقط یک حاشیه نویس انسانی عکس های سیل را برچسب گذاری کرد. در صورت لزوم، حاشیه نویس با سایر اعضای تیم تحقیقاتی برای رفع ابهامات و تجدید نظر در معیارها بحثی ترتیب داد.
3.2.2. آموزش و انتخاب CNN
پس از نهایی شدن مجموعه داده آموزشی، ما مجموعه داده را با قرار دادن تصادفی 75٪ از عکس های سیل در یک مجموعه آموزشی و 25٪ باقی مانده در یک مجموعه آزمایشی تقسیم کردیم. مجموعه آموزش و مجموعه آزمون توزیع یکسانی دارند که مجموعه داده به طور تصادفی تقسیم شده است. در حال حاضر هیچ قانون طلایی برای اندازه مجموعه آموزشی و ست تست وجود ندارد. نسبت 75:25 مورد استفاده در مطالعه ما مشابه قانون رایج 70:30 است که در [ 44 ] ذکر شده است. تعداد عکس های سیل در مجموعه آموزشی 2250 و در مجموعه تست 750 عکس بوده است.

در هر مجموعه تعداد عکس های سیل و غیر سیلابی برابر بود. پس از آموزش CNN با استفاده از مجموعه آموزشی، دقت با مجموعه آزمون با استفاده از متریک در معادله (1) ارزیابی شد:

آججتوrآجy=تیrتوه پoسمنتیمنvه+تیrتوه nهgآتیمنvهتیrتوه پoسمنتیمنvه+fآلس پoسمنتیمنvه+ fآلسه nهgآتیمنvه+تیrتوه nهgآتیمنvه
این مطالعه چهار معماری محبوب CNN را که از قبل آموزش دیده بودند، از جمله VGG [ 24 ] ResNet [ 25 ]، DenseNet [ 45 ] و Inception V3 [ 36 ] را تنظیم کرد تا مشخص کند کدام یک برای تشخیص عکس سیلابی مناسب‌تر است. ما مستقیماً از این چهار مدل از پیش آموزش داده شده توسط ImageNet [ 43 ] از مدل‌های داخلی PyTorch استفاده کردیم. از آنجایی که مجموعه آموزشی نسبتاً کوچک بود، ما از تمام نمونه‌ها برای آموزش مدل‌ها بدون اعمال اعتبار متقاطع k-fold استفاده کردیم. ما فقط تعداد نورون های خروجی در آخرین لایه خطی را به دو تغییر دادیم که نشان دهنده دو کلاس Flooding و Non_flooding است.و سپس مدل 200 دوره را روی دو پردازنده گرافیکی Nvidia Titan xp با استفاده از نرخ یادگیری 0.001 آموزش داد. روند آموزش حدود 10 ساعت طول کشید. به طور مشابه، VGG16 و DenseNet201 را از ابتدا آموزش دادیم. همانطور که در جدول 4 نشان داده شده است ، VGG 16 که از ابتدا آموزش داده شده است، بالاترین دقت (93%) را به همراه دارد. این مدل های آموزش دیده همچنین به فراخوان های مشابه و دقتی در حدود 0.9 منجر شدند. بنابراین، ما از VGG 16 آموزش دیده از ابتدا در سیستم RIASM خود استفاده می کنیم. علاوه بر این، هوانگ و همکاران. [ 25 ] از داده های آموزشی ما به عنوان بزرگترین زیرمجموعه استفاده کرد و با استفاده از اعتبارسنجی متقاطع پنج برابری و روش یادگیری انتقال پیچیده تر، دقت یکسانی (94/92%) را یافت. این بیشتر اعتبار مجموعه داده آموزشی ما را تأیید می کند.
شاید به دلیل تفاوت محتویات بین عکس های سیل و تصاویر ImageNet، یادگیری انتقال نتیجه رقابتی به دست نمی آورد. عکس های سیل تصاویر صحنه هستند و حاوی اشیاء زیادی هستند، در حالی که تصاویر ImageNet دارای اشیاء غالب هستند.

4. مطالعات موردی RIASM

4.1. مورد 1: سیل هیوستون در سال 2017

VGG16 آموزش دیده در سال 2017 در مجموعه داده های توییت سیل هیوستون اعمال شد. این مجموعه داده شامل حدود 140000 توییت با برچسب جغرافیایی در کلانشهر هیوستون است که سیل بی سابقه ناشی از طوفان هاروی 2017 را متحمل شد. زمان ارسال توییت ها از 115 تا 2 اوت از 1 اکتبر متغیر بود. 2017. از بین 39000 عکس دانلود شده، 2237 عکس توسط VGG16 آموزش دیده برچسب سیل زده شده است.

دقت این مجموعه داده بسیار نامتعادل توسط تصاویر غالب بدون سیل تحریف می شود، بنابراین ما از دقت و یادآوری در این مورد مطالعه استفاده کردیم، به معادلات (2) و (3) مراجعه کنید. شکل 6 و شکل 7 نمونه هایی از نتایج تشخیص را نشان می دهد. در این مجموعه داده 1400 مورد از 2237 مورد به عنوان سیل واقعی پس از بررسی دستی بر اساس قانون جدول 2 و جدول 3 تأیید شد.. بنابراین دقت عکس سیل 63 درصد (1400/2237) بود. به دلیل شدت کار، 20 درصد از نتایج غیرسیل را به صورت دستی بررسی کردیم و 15 عکس سیل پیدا کردیم، که به این معنی بود که حدود 75 عکس غیر سیل توسط CNN آموزش دیده از دست رفته است. یادآوری عکس های سیل 95٪ (100٪—75/1475) بود. این نشان می دهد که طبقه بندی کننده هنگام اعمال آن بر روی داده های واقعی با توزیع بسیار نامتعادل عملکرد قابل قبولی دارد.

پrهجمنسمنon=تیrتوه پoسمنتیمنvهتیrتوه پoسمنتیمنvه+fآلسه پoسمنتیمنvه
rهجآلل=تیrتوه پoسمنتیمنvهتیrتوه پoسمنتیمنvه+fآلسه nهgآتیمنvه

4.2. مورد 2: طوفان فلورانس سیل در سال 2018

در 14 تا 17 سپتامبر 2018، طوفان فلورانس خسارات گسترده ای را در منطقه ساحلی کارولینای شمالی و کارولینای جنوبی ایجاد کرد [ 46 ]. باعث بارندگی شدید شد که منجر به ثبت سیل در کارولینا شد [ 47 ]. بیش از 1.2 میلیون نفر در منطقه آسیب دیده تحت دستور تخلیه اجباری بودند [ 48 ]. ما از 14 تا 30 سپتامبر 6975 تصویر از 136000 توییت با برچسب جغرافیایی پست شده در کارولیناس را دانلود کردیم و VGG16 آموزش دیده 818 عکس سیل را برگرداند. از عکس‌های سیل شناسایی‌شده، 372 عکس از 818 عکس مثبت واقعی پس از تأیید دستی بودند ( شکل 8). دقت 45.5٪ (373/818)، کمتر از نتایج در هیوستون سیل 2017 بود. به دلیل حجم کاری سنگین، ما نتیجه عکس بدون سیل را بررسی نکردیم، بنابراین فراخوان محاسبه نشد.

5. بحث و گفتگو

رویکردهای به موقع برای آگاهی از وضعیت سیل و نقشه برداری سریع مورد نیاز است. در همین حال، استفاده از این رویکردها باید مقرون به صرفه باشد. به دست آوردن تصاویر سنجش از دور یک راه موثر برای جمع آوری وضعیت پیوسته یک منطقه بزرگ سیل زده است [ 49 ، 50 ]]. با این حال، شرایط آب و هوایی شدید مانند ابرها همراه با بارندگی شدید، سنسور هوابرد یا ماهواره را از به دست آوردن تصاویر نوری باز می دارد. در بهترین سناریوها، ماهواره‌های نوری تجاری می‌توانند چندین روز پس از یک رویداد تصاویری با وضوح بالا به دست آورند. این به شدت استفاده قابل اعتماد از سنجش از راه دور ماهواره ای را برای مرحله واکنش اضطراری (یعنی 3 روز اول یک فاجعه) محدود می کند. سایر محدودیت‌های تکنیک‌های سنجش از دور شامل زمان پیش پردازش طولانی برای تصحیح هندسی و جوی تصویر، راندمان پایین و خطر بالای استقرار سیستم‌های هوایی بدون سرنشین (UAS) و دشواری تخمین ارتفاع آب از تصاویر دو بعدی است. ما معتقدیم که منابع سنجش از دور هوایی یا ماهواره ای نقش مهمی دارند. با این حال،
عکس های سیل استخراج شده توسط RIASM برای چندین هدف مفید است. عکس های سیل را می توان به عنوان مشاهدات مستقل از رویدادهای سیل استفاده کرد. ارتفاع آب تخمین زده شده از عکس های سیل را می توان برای به دست آوردن یک نقشه به موقع طغیان بدون بازدید میدانی استفاده کرد، که در یک رویداد سیل در حال انجام چالش برانگیز بوده است [ 6 ]]. همچنین، زمان وقوع سیل را می توان از ابرداده ها (زمان ارسال شده یا متن) استخراج کرد، از این رو یک نقشه سیلابی پویا ایجاد کرد. بررسی میدانی سنتی واترمارک های بالا فاقد بعد زمانی است زیرا بررسی پس از رویداد سیل از اطلاعات حکایتی (مثلاً خطوط زباله یا خطوط آب) انجام می شود، در حالی که عکس های سیل استخراج شده از رسانه های اجتماعی ارتباط زمانی بالایی را ارائه می دهند. عکس‌های سیل همچنین می‌توانند به‌عنوان منبع داده تکمیلی برای اصلاح ارزیابی‌ها بر اساس تصاویر سنجش از دور استفاده شوند. به عنوان مثال، Schnebele و Cervone [ 10 ] و Huang [ 12 ، 13 ، 14] از VGI ادغام کننده پهپاد، EO-1 و تصاویر Landsat 8 برای بهبود واکنش سیل استفاده کرد. این محققان VGI مربوط به سیل (عمدتاً عکس‌ها) را به‌عنوان نقاط مشاهده قابل اعتماد در نظر گرفتند و از این نکات برای اصلاح احتمال سیل در مناطق مجاور استفاده کردند. از این نظر، RIASM این پتانسیل را دارد که در سیستم‌های سنتی نقشه‌برداری سیل گنجانده شود تا شکاف‌های دانش را پر کند و تأیید بیشتری از وسعت یا بزرگی یک فاجعه ارائه دهد.
RIASM را می توان به عنوان یک پلت فرم تجزیه و تحلیل تصویر رسانه های اجتماعی در زمینه های مختلف مشاهده کرد. مکانیزم پلاگین RIASM را قادر می‌سازد تا با اتصال الگوریتم‌ها و مدل‌های دسته‌بندی تصویر جدید، مانند گردباد، آتش‌سوزی، زلزله، و آشکارسازهای عمومی اشیا، سایر وظایف آنالیز تصاویر را به راحتی انجام دهد. یک مدل YOLO-v3 برای تشخیص اشیاء معمولی (به عنوان مثال، شخص، ماشین و گربه) اضافه شد و نتایج برخی از پدیده های جالب را نشان می دهد. به عنوان مثال، در ایالات متحده، سگ ها بیشتر از سایر کشورها در عکس های رسانه های اجتماعی ظاهر می شوند. سایر مدل‌های مبتنی بر دیداری نیز می‌توانند مورد استفاده قرار گیرند، مانند تشخیص خشونت [ 51 ، 52 ]، تشخیص چهره [ 53 ]، استخراج جنسیت و سن [ 54 ]، یا تجزیه و تحلیل رنگ پوست [ 55 ]].
از نظر مقیاس‌پذیری، RIASM می‌تواند تمام توییت‌های بلادرنگ را از API رایگان توییتر استریمینگ (حدود ۵۰ توییت در ثانیه) پردازش کند و می‌تواند در هنگام پردازش توییت‌های از پیش‌دانلود شده در ایستگاه کاری ۸ هسته‌ای CPU ما، ۲۰۰ توییت در ثانیه را مدیریت کند. طبقه بندی تصویر یا سایر تحلیل های تصویر مانند تقسیم بندی معنایی [ 56] به چنین محاسبات GPU قابل توجهی نیاز ندارد. از آنجایی که هر ماژول RIASM به عنوان یک فرآیند مستقل طراحی شده است، قابلیت دانلود و تجزیه و تحلیل داده ها را می توان با شروع فرآیندهای بیشتر به دست آورد. در نتیجه، RIASM می‌تواند با سخت‌افزارهای قدرتمندتر مانند هسته‌های بیشتر CPU و کارت‌های GPU افزایش یابد. در رابطه با راستی‌آزمایی انسانی، دو مطالعه موردی نشان دادند که عکس‌های سیل استخراج‌شده تنها حدود 1 درصد از توییت‌های دارای برچسب جغرافیایی در طول رویدادهای سیل را تشکیل می‌دهند. با در نظر گرفتن حداکثر سرعت دانلود 50 توییت در ثانیه، حدود 30 عکس سیل در هر دقیقه استخراج می‌شود که می‌تواند توسط یک نفر در طول فرآیند تأیید انسانی مدیریت شود.
RIASM به خوبی طراحی شده است تا توییت ها را به چندین زبان از جمله ایموجی ها ذخیره کند. تحقیقات دیگر در مورد تجزیه و تحلیل متن توییت می تواند در سیستم تعبیه شود، برای مثال، استفاده از متن و تصاویر با هم برای طبقه بندی توییت های مرتبط با سیل [ 20 ]. معماری RIASM همچنین این پتانسیل را دارد که با استخراج خودکار اطلاعات جمعیت شناختی (به عنوان مثال، جنسیت، سن و نژاد) از عکس‌های توییت، با مسائل معرف داده‌های توییتر [ 57 ] مقابله کند، که ممکن است برای مطالعات تحرک انسان بر اساس رسانه‌های اجتماعی مفید باشد. 58 ، 59 ].
مطالعات بین فرهنگی مبتنی بر RIASM امیدوارکننده است، اگرچه ما فقط تحقیقات اولیه را آغاز کرده ایم. تصاویر بصری و بدون زبان هستند. با توجه به توییت‌های دارای برچسب جغرافیایی دانلود شده، حدود 40 درصد از توییت‌ها به بیش از 30 زبان غیر از انگلیسی مانند پرتغالی (13٪)، اسپانیایی (9٪) و ژاپنی (6٪) نوشته شده‌اند. بدیهی است که نسبت توییت هایی که از یک زبان خاص استفاده می کنند بسته به منطقه جغرافیایی در جهان متفاوت است. قابل ذکر است، تحقیق بر اساس محتوای تصویر محدود به زبان نیست. تصویر “بدون زبان” است. برای متن کاوی، RIASM به API ترجمه Google متصل شده است تا توییت‌ها را به انگلیسی یا زبان‌های دیگر ترجمه کند. سایر کتابخانه های ترجمه منبع باز (به عنوان مثال، Open NMT [ 60]) را می توان در یک رویکرد مشابه تعبیه کرد. تحقیقات قابل توجهی برای کشف اهمیت و تفاوت به دلیل زبان در توییت های جغرافیایی باقی مانده است.

6. محدودیت ها و تحقیقات آینده

حدود 4800 عکس سیل جمع‌آوری‌شده در این تحقیق از تصاویر رسانه‌های اجتماعی منتشر شده در ایالات متحده طی سال‌های 2016 تا 2017 با اضافه شدن دو رویداد سیل گرفته شده است. این عکس‌ها برای آموزش مجدد CNN برای شناسایی عکس‌های جدید سیل که در رویدادهای سیل آینده ارسال می‌شوند، مفید هستند. با این حال، این 4800 عکس سیل و عکس‌های غیرسیل‌آمیز به‌طور تصادفی انتخاب‌شده در این مطالعه هنوز هم نشان‌دهنده تصاویر رسانه‌های اجتماعی هستند که دارای تنوع زیاد و توزیع طبقاتی بسیار نامتعادل هستند. این عدم بازنمایی منجر به دقت پایین هنگام استفاده از CNN آموزش دیده در تصاویر رسانه های اجتماعی بلادرنگ می شود. افزایش داده ها، مانند چرخش و چرخش در تمرینات آزمایش شده است، اما نتایج بهبود قابل توجهی را ارائه نمی دهد. روش‌های تقویت داده‌ها و استراتژی‌های آموزشی بیشتری باید آزمایش شوند. بودا و همکاران56 ] نمونه برداری بیش از حد را به عنوان اولین انتخاب برای مجموعه داده آموزشی نامتعادل توصیه می کند، به این معنی که از ماکت عکس های سیل برای تشکیل نمونه های مثبت بیشتر برای مطابقت با نمونه های منفی استفاده کنید. با این حال، شناسایی تعداد معقولی از عکس‌های بدون سیل برای آموزش مجدد انواع تصاویر رسانه‌های اجتماعی نیاز به تحقیقات بیشتری دارد.
هنگام استفاده از CNN آموزش دیده در مجموعه داده های هیوستون سیل در سال 2017، یادآوری عکس های سیل 95٪ و دقت 63٪ بود. در سیل طوفان فلورانس در سال 2018، دقت 46٪ بود. در مقایسه با مجموعه تست متعادل در فرآیند آموزش ( بخش 3.2این نتایج دو محدودیت CNN آموزش دیده را نشان می دهد. اولین محدودیت، دقت کمتر در تصاویر شبکه های اجتماعی بسیار نامتعادل است. در دو مورد مطالعه، عکس‌های سیل شامل کمتر از 5٪ از کل مجموعه تصویر بود که بسیار کمتر از مجموعه آزمایشی (50٪) مجموعه داده آموزشی بود. دقت سی‌ان‌ان از بیش از 90 درصد به حدود 50 درصد کاهش یافت و بسیاری از عکس‌های غیرسیل‌آمیز را به اشتباه به‌عنوان سیل نامگذاری کرد. با این حال، فراخوان 95 درصد در سیل هیوستون در سال 2017 قابل قبول بود. محدودیت دیگر این بود که در حوادث سیل شدید، ساکنان در معرض خطر احتمالاً قبل از سیل تخلیه می‌شوند که منجر به تعداد کم پست‌های رسانه‌های اجتماعی می‌شود. بنابراین، تعداد عکس‌های کشف‌شده سیل ممکن است کاهش یابد، زیرا پست‌های رسانه‌های اجتماعی کمتر با برچسب‌های جغرافیایی در محل سیل یا ساکنان اصلاً پست نکرده‌اند. از این رو، ممکن است تعداد عکس‌های سیل شناسایی شده به دلیل پست‌های کمتر در رسانه‌های اجتماعی کاهش یابد. مورد مطالعه طوفان فلورانس در سال 2018 به وضوح این کاهش را نشان داد.
این مطالعه بر روی نمونه‌سازی سیستمی برای تشخیص عکس سیل در زمان واقعی از رسانه‌های اجتماعی، به جای بررسی یک آشکارساز عکس سیلابی پیشرفته تمرکز داشت. تحقیقات بیشتری برای بهبود دقت و یادآوری در محیط تولید مورد نیاز است. برای آموزش یک مدل با کارایی بالا باید فاکتورهای زیادی در نظر گرفته شود. معماری های محبوب آزمایش شده در این مطالعه نتایج مشابهی در این مجموعه آزمایشی به دست آوردند، معماری های جدید توسعه یافته ممکن است عملکرد بهتری داشته باشند. متخصصانی که می‌خواهند از CNN برای طبقه‌بندی تصاویر در حوزه‌های خود استفاده کنند، باید مجموعه داده‌های آموزشی را با دقت با توجه به سؤالات تحقیقاتی خود بسازند. به عنوان مثال، عکس سیل در تحقیق ما به عنوان عکسی در محل تعریف شد که اطلاعات بصری دست اول در مورد سیل در حال انجام را ارائه می دهد و باید ویژگی های غرقابی داشته باشد.

7. نتیجه گیری

این تحقیق سیستمی به نام RIASM را برای جمع آوری، ذخیره و تجزیه و تحلیل تصاویر ارسال شده در توییتر در زمان واقعی طراحی و نمونه سازی کرد. ما با رویکردی عملی برای به دست آوردن بینش های سیل آسا از داده های رسانه های اجتماعی عظیم بر اساس یادگیری عمیق، به ادبیات و جامعه کمک می کنیم. این سیستم به مدل CNN اجازه می دهد تا زمانی که عکس های سیل تایید شده توسط تحلیلگر بیشتری به مجموعه آموزشی به شیوه ای تکراری اضافه می شود، توسط مجموعه داده های آموزشی بزرگتر دوباره آموزش داده شود. دقت کلی تشخیص عکس سیل 93٪ در یک مجموعه تست متعادل بود، و دقت بین 46 تا 63٪ در توییت های بسیار نامتعادل در دنیای واقعی در طول دو رویداد سیل متغیر است. عکس‌های سیل استخراج‌شده از رسانه‌های اجتماعی با RIASM با ارائه مشاهدات مستقل از رویدادهای سیل روی زمین، آگاهی موقعیتی را برای امدادگران اضطراری افزایش می‌دهد.

منابع

  1. اتحادیه دانشمندان نگران تغییر آب و هوا، بارش شدید و سیل: آخرین علم. 2018. در دسترس آنلاین: https://www.ucsusa.org/global-warming/global-warming-impacts/floods (در 22 مارس 2019 قابل دسترسی است).
  2. Wuebbles، DJ; Fahey، DW; هیبارد، کالیفرنیا گزارش ویژه علم آب و هوا: چهارمین ارزیابی ملی آب و هوا . برنامه تحقیقاتی تغییر جهانی ایالات متحده: واشنگتن دی سی، ایالات متحده آمریکا، 2017؛ جلد اول. [ Google Scholar ]
  3. سرویس ملی هواشناسی خلاصه آمار خطرات طبیعی برای سال 2017 در ایالات متحده ; سرویس ملی آب و هوا: بهار نقره، MD، ایالات متحده آمریکا، 2017.
  4. وزارت کشور آمریکا؛ سازمان زمین شناسی ایالات متحده (USGS). نمایشگر رویداد سیل. در دسترس آنلاین: https://water.usgs.gov/floods/FEV/ (در 22 مارس 2019 قابل دسترسی است).
  5. کونیگ، TA; بروس، جی ال. اوکانر، جی. مک گی، بی دی؛ هلمز، آر.آر.، جونیور؛ هالینز، آر. فوربس، بی تی؛ کوهن، ام اس; شلکنز، ام. مارتین، ZW; و همکاران شناسایی و حفظ داده های علامت گذاری آب بالا ؛ تکنیک ها و روش ها؛ سازمان زمین شناسی ایالات متحده: Reston، VA، ایالات متحده آمریکا، 2016; پ. 60.
  6. لی، ز. وانگ، سی. امریش، سی تی. Guo, D. رویکردی جدید برای استفاده از رسانه های اجتماعی برای نقشه برداری سریع سیل: مطالعه موردی سیل 2015 کارولینای جنوبی. کارتوگر. Geogr. Inf. علمی 2018 ، 45 ، 97-110. [ Google Scholar ] [ CrossRef ]
  7. Goodchild، MF; Glennon، JA جمع سپاری اطلاعات جغرافیایی برای واکنش به بلایا: یک مرز تحقیقاتی. بین المللی جی دیجیت. زمین 2010 ، 3 ، 231-241. [ Google Scholar ] [ CrossRef ]
  8. شث، الف. حس شهروندی، سیگنال‌های اجتماعی، و غنی‌سازی تجربه انسانی. محاسبات اینترنتی IEEE. 2009 ، 13 ، 87-92. [ Google Scholar ] [ CrossRef ][ نسخه سبز ]
  9. ناگاراجان، م. شث، ا. Velmurugan، S. Citizen Sensor Data Mining، تجزیه و تحلیل رسانه های اجتماعی و برنامه های کاربردی وب محور توسعه. در مجموعه مقالات بیستمین کنفرانس بین المللی همکار در شبکه جهانی وب، حیدرآباد، هند، 28 مارس تا 1 آوریل 2011; ACM: نیویورک، نیویورک، ایالات متحده آمریکا، 2011; صص 289-290. [ Google Scholar ]
  10. آدام، NR; شفیق، بی. Staffin, R. محاسبات فضایی و رسانه های اجتماعی در زمینه مدیریت بلایا. IEEE Intell. سیستم 2012 ، 27 ، 90-96. [ Google Scholar ] [ CrossRef ]
  11. فورینگر، جی. درانش، دی. کرایبیچ، اچ. شروتر، ک. رسانه های اجتماعی به عنوان منبع اطلاعاتی برای نقشه برداری سریع طغیان سیل. نات. سیستم خطرات زمین. علمی 2015 ، 15 ، 2725-2738. [ Google Scholar ] [ CrossRef ][ نسخه سبز ]
  12. وانگ، سی. لی، ز. Huang, X. ارزیابی جغرافیایی دینامیک سیل و خطرات سیل 15 اکتبر کارولینای جنوبی. جنوب شرقی. Geogr. 2018 ، 58 ، 164-180. [ Google Scholar ] [ CrossRef ]
  13. هوانگ، ایکس. وانگ، سی. لی، زی. بازسازی احتمال طغیان سیل با تقویت تصاویر زمان واقعی با سنج‌ها و توییت‌های بی‌درنگ. IEEE Trans. Geosci. Remote Sens. 2018 , 56 , 4691–4701. [ Google Scholar ] [ CrossRef ]
  14. هوانگ، ایکس. وانگ، سی. لی، زی. رویکرد نقشه‌برداری سیل در زمان واقعی با ادغام رسانه‌های اجتماعی و تصاویر ماهواره‌ای پس از رویداد. ان GIS 2018 ، 24 ، 113-123. [ Google Scholar ] [ CrossRef ]
  15. Sayce, D. تعداد توییت‌ها در روز؟ در دسترس آنلاین: https://www.dsayce.com/social-media/tweets-day/ (در 23 مارس 2019 قابل دسترسی است).
  16. LeCun، Y.; بنژیو، ی. هینتون، جی. یادگیری عمیق. طبیعت 2015 ، 521 ، 436-444. [ Google Scholar ] [ CrossRef ]
  17. تکاچنکو، ن. زوبیاگا، ا. Procter، R. WISC در MediaEval 2017: Multimedia Satellite Task. در مجموعه مقالات MediaEval 2017: کارگاه آموزشی معیار چند رسانه ای، دوبلین، ایرلند، 13 تا 15 سپتامبر 2017؛ پ. 4. [ Google Scholar ]
  18. فنگ، ی. Sester, M. استخراج اطلاعات جغرافیایی داوطلبانه مربوط به سیل پلویال (VGI) توسط یادگیری عمیق از متون و عکس‌های تولید شده توسط کاربر. ISPRS Int. J. Geo-Inf. 2018 ، 7 ، 39. [ Google Scholar ] [ CrossRef ] [ نسخه سبز ]
  19. هوانگ، ایکس. لی، ز. وانگ، سی. نینگ، اچ. شناسایی رسانه‌های اجتماعی مرتبط با فاجعه برای واکنش سریع: معماری CNN ترکیب شده بصری-متن. بین المللی جی دیجیت. زمین 2019 ، 1–23. [ Google Scholar ] [ CrossRef ]
  20. هوانگ، ایکس. وانگ، سی. لی، ز. Ning، H. یک رویکرد ترکیبی بصری-متن برای برچسب‌گذاری خودکار توییت‌های مرتبط با سیل در طول یک رویداد سیل. بین المللی جی دیجیت. زمین 2018 ، 1-17. [ Google Scholar ] [ CrossRef ]
  21. دروژکوف، پ.ن. Kustikova، VD بررسی روش‌های یادگیری عمیق و ابزارهای نرم‌افزاری برای طبقه‌بندی تصویر و تشخیص اشیا. تشخیص الگو تصویر مقعدی 2016 ، 26 ، 9-15. [ Google Scholar ] [ CrossRef ]
  22. Lowe، DG تشخیص شیء از ویژگی‌های تغییرناپذیر مقیاس محلی. در مجموعه مقالات هفتمین کنفرانس بین المللی IEEE در بینایی کامپیوتر، کرکیرا، یونان، 20-27 سپتامبر 1999. جلد 2، ص 1150–1157. [ Google Scholar ]
  23. بی، اچ. تویتلارس، تی. Van Gool، L. Surf: Speed ​​Up Probust Features. در مجموعه مقالات کنفرانس اروپایی بینایی کامپیوتر، گراتس، اتریش، 7-13 مه 2006. Springer: برلین/هایدلبرگ، آلمان، 2006; ص 404-417. [ Google Scholar ]
  24. سیمونیان، ک. زیسرمن، الف. شبکه های پیچیده بسیار عمیق برای تشخیص تصویر در مقیاس بزرگ. arXiv 2014 ، arXiv:1409.1556. [ Google Scholar ]
  25. او، ک. ژانگ، ایکس. رن، اس. Sun، J. یادگیری باقیمانده عمیق برای تشخیص تصویر. arXiv 2015 , arXiv:1512.03385. [ Google Scholar ]
  26. روساکوفسکی، او. دنگ، ج. سو، اچ. کراوز، جی. ستایش، س. ما، س. هوانگ، ز. کارپاتی، ا. خسلا، ع. برنشتاین، ام. و همکاران چالش تشخیص بصری در مقیاس بزرگ ImageNet. بین المللی جی. کامپیوتر. Vis. 2015 ، 115 ، 211-252. [ Google Scholar ] [ CrossRef ][ نسخه سبز ]
  27. گبرو، تی. کراوز، جی. وانگ، ی. چن، دی. دنگ، ج. Fei-Fei، L. تشخیص ماشین ریزدانه برای تخمین سرشماری بصری. در مجموعه مقالات سی و یکمین کنفرانس AAAI در مورد هوش مصنوعی، سانفرانسیسکو، کالیفرنیا، ایالات متحده آمریکا، 4 تا 10 فوریه 2017؛ جلد 2، ص. 6. [ Google Scholar ]
  28. اسلادوویچ، اس. آرسنوویچ، م. آندرلا، ا. کولیبرک، دی. استفانوویچ، دی. شبکه‌های عصبی عمیق تشخیص بیماری‌های گیاهی با طبقه‌بندی تصویر برگ. در دسترس آنلاین: https://www.hindawi.com/journals/cin/2016/3289801/ (در 11 نوامبر 2018 قابل دسترسی است).
  29. تاجبخش، ن. شین، جی. گورودو، اس آر. هرست، RT؛ کندال، CB; گوتوی، مگابایت؛ لیانگ، جی. شبکه های عصبی کانولوشنال برای تجزیه و تحلیل تصویر پزشکی: آموزش کامل یا تنظیم دقیق؟ IEEE Trans. پزشکی تصویربرداری 2016 ، 35 ، 1299-1312. [ Google Scholar ] [ CrossRef ][ نسخه سبز ]
  30. وانگ، دی. خسلا، ع. گرگیا، ر. ارشاد، ح. بک، AH یادگیری عمیق برای شناسایی سرطان سینه متاستاتیک. arXiv 2016 , arXiv:1606.05718. [ Google Scholar ]
  31. بار، ی. دیامانت، آی. ولف، ال. گرین اسپن، H. یادگیری عمیق با آموزش غیرپزشکی که برای شناسایی آسیب شناسی قفسه سینه استفاده می شود. در مجموعه مقالات تصویربرداری پزشکی 2015: تشخیص به کمک رایانه. انجمن بین المللی اپتیک و فوتونیک، اورلاندو، فلوریدا، ایالات متحده آمریکا، 21 تا 26 فوریه 2015. جلد 9414، ص. 94140 ولت. [ Google Scholar ]
  32. یون، ی.-سی. یون، ک.-جی. تشخیص حیوانات در تصاویر هوایی عظیم با استفاده از پنجره کشویی مبتنی بر CNN. در مجموعه مقالات کارگاه بین المللی مرزهای بینایی کامپیوتری (IWFCV)، کارگاه بین المللی مرزهای بینایی کامپیوتری (IWFCV)، هاکودیت، ژاپن، 21 تا 23 فوریه 2018. [ Google Scholar ]
  33. بیشکه، بی. هلبر، پی. شولزه، سی. سرینیواسان، وی. دنگل، ا. Borth, D. The Multimedia Satellite Task at MediaEval 2017. In Proceedings of the MediaEval 2017: MediaEval Benchmark Workshop, Dublin, Ireland, 13–15 سپتامبر 2017. [ Google Scholar ]
  34. بیشکه، بی. بهاردواج، پ. گوتام، آ. هلبر، پی. بورث، دی. دنگل، الف. تشخیص وقایع سیل در تصاویر چندرسانه ای اجتماعی و ماهواره ای با استفاده از شبکه های عصبی عمیق. در مجموعه مقالات MediaEval 2017: MediaEval Benchmark Workshop، دوبلین، ایرلند، 13 تا 15 سپتامبر 2017. [ Google Scholar ]
  35. تومی، بی. Shamma، DA; فریدلند، جی. الیزالد، بی. نی، ک. لهستان، دی. بورث، دی. لی، ال.-جی. YFCC100M: داده های جدید در تحقیقات چند رسانه ای. Commun ACM 2016 ، 59 ، 64-73. [ Google Scholar ] [ CrossRef ]
  36. سگدی، سی. ونهوک، وی. آیوف، اس. شلنز، جی. Wojna, Z. بازنگری در معماری اولیه برای بینایی کامپیوتر. در مجموعه مقالات کنفرانس IEEE در مورد بینایی کامپیوتری و تشخیص الگو، لاس وگاس، NV، ایالات متحده، 26 ژوئن تا 1 ژوئیه 2016. ص 2818-2826. [ Google Scholar ]
  37. Kim, Y. شبکه های عصبی کانولوشن برای طبقه بندی جملات. arXiv 2014 ، arXiv:14085882. [ Google Scholar ]
  38. گوت، سی. Gaussier, E. یک تفسیر احتمالی از دقت، یادآوری و امتیاز F، با مفهومی برای ارزیابی. در مجموعه مقالات کنفرانس اروپایی در مورد بازیابی اطلاعات، سانتیاگو د کامپوستلا، اسپانیا، 21-23 مارس 2005. Springer: برلین/هایدلبرگ، آلمان، 2005; صص 345-359. [ Google Scholar ]
  39. علم، ف. عمران، م. Ofli، F. Image4Act: پردازش تصویر رسانه اجتماعی آنلاین برای واکنش به بلایا. در مجموعه مقالات کنفرانس بین‌المللی IEEE/ACM 2017 درباره پیشرفت‌ها در تحلیل و استخراج شبکه‌های اجتماعی، سیدنی، استرالیا، 31 ژوئیه تا 3 اوت 2017؛ ص 601–604. [ Google Scholar ]
  40. لواندوسکی، جی جی. لارسون، پی. Stoica, R. شناسایی داده های سرد و گرم در پایگاه های حافظه اصلی. در مجموعه مقالات بیست و نهمین کنفرانس بین المللی مهندسی داده IEEE 2013 (ICDE)، بریزبن، QLD، استرالیا، 8 تا 12 آوریل 2013. ص 26-37. [ Google Scholar ]
  41. کورناکر، ام. بهم، ع. بیت ترف، وی. بوبرویتسکی، تی. چینگ، سی. چوی، ا. اریکسون، جی. گروند، م. هچت، دی. جاکوبز، ام ایمپالا: یک موتور مدرن و منبع باز SQL برای Hadoop. در مجموعه مقالات CIDR، Asilomar، CA، USA، 4-7 ژانویه 2015. جلد 1، ص. 9. [ Google Scholar ]
  42. ردمون، جی. فرهادی، A. YOLOv3: یک پیشرفت افزایشی. arXiv 2018 , arXiv:1804.02767. [ Google Scholar ]
  43. کریژفسکی، آ. سوتسکور، آی. هینتون، GE ImageNet طبقه بندی با شبکه های عصبی پیچیده عمیق. در پیشرفت در سیستم های پردازش اطلاعات عصبی 25 ; Pereira, F., Burges, CJC, Bottou, L., Weinberger, KQ, Eds. Curran Associates, Inc.: New York, NY, USA, 2012; صص 1097–1105. [ Google Scholar ]
  44. Ng, A. اشتیاق یادگیری ماشین. در دسترس آنلاین: https://www.deeplearning.ai/machine-learning-yearning/ (در 3 فوریه 2020 قابل دسترسی است).
  45. هوانگ، جی. لیو، ز. ون در ماتن، ال. واینبرگر، شبکه‌های کانولوشن با اتصال متراکم KQ. arXiv 2016 , arXiv:160806993. [ Google Scholar ]
  46. وزارت بازرگانی آمریکا طوفان تاریخی فلورانس 12–15 سپتامبر 2018. در دسترس آنلاین: https://www.weather.gov/mhx/Florence2018 (در 26 دسامبر 2019 قابل دسترسی است).
  47. عرفان، بارندگی “1000 ساله” طوفان یو. فلورانس، توضیح داده شده است. در دسترس آنلاین: https://www.vox.com/2018/9/20/17883492/hurricane-florence-rain-1000-year (دسترسی در 25 مارس 2019).
  48. لانگون، ا. مارتینز، جی. کواکنبوش، سی. د لا گارزا، A. طوفان فلورانس به خشکی می رسد و به نظر می رسد که در اطراف بماند. در دسترس آنلاین: https://time.com/5391394/hurricane-florence-track-path/ (دسترسی در 26 دسامبر 2019).
  49. فنگ، Q. لیو، جی. Gong, J. نقشه‌برداری سیل شهری بر اساس سنجش از راه دور وسیله نقلیه هوایی بدون سرنشین و طبقه‌بندی تصادفی جنگل – موردی از Yuyao، چین. آب 2015 ، 7 ، 1437-1455. [ Google Scholar ] [ CrossRef ]
  50. Tralli، DM; بلوم، آر جی. زلوتنیکی، وی. دانلان، ا. Evans، DL سنجش از دور ماهواره ای خطرات زلزله، آتشفشان، سیل، رانش زمین و آبگرفتگی ساحلی. ISPRS J. Photogramm. Remote Sens. 2005 ، 59 ، 185-198. [ Google Scholar ] [ CrossRef ]
  51. برنده، دی. Steinert-Threlkeld، ZC; جو، جی. شناسایی فعالیت اعتراضی و تخمین خشونت ادراک شده از تصاویر رسانه های اجتماعی. در مجموعه مقالات بیست و پنجمین کنفرانس بین المللی ACM در چند رسانه ای، Mountain View، CA، ایالات متحده آمریکا، 23-27 اکتبر 2017؛ صص 786-794. [ Google Scholar ]
  52. کالیاتاکیس، جی. احسان، س. فصلی، م. لئوناردیس، ا. گال، جی. McDonald-Maier, K. تشخیص نقض حقوق بشر در تصاویر: تشخیص نقض حقوق بشر در تصاویر: آیا شبکه های عصبی کانولوشن می توانند کمک کنند؟ arXiv 2017 , arXiv:1703.04103. [ Google Scholar ]
  53. شروف، اف. کالنیچنکو، دی. فیلبین، جی. فیس نت: تعبیه یکپارچه برای تشخیص چهره و خوشه بندی. در مجموعه مقالات CVPR، بوستون، MA، ایالات متحده آمریکا، 7-12 ژوئن 2015. صص 815-823. [ Google Scholar ]
  54. جیا، اس. Lansdall-Welfare، T.; کریستیانینی، N. طبقه بندی جنسیتی توسط یادگیری عمیق بر روی میلیون ها تصویر با برچسب ضعیف. در مجموعه مقالات شانزدهمین کنفرانس بین المللی IEEE 2016 در کارگاه های داده کاوی (ICDMW)، بارسلون، اسپانیا، 12 تا 15 دسامبر 2016؛ صص 462-467. [ Google Scholar ]
  55. ریو، اچ جی. آدم، اچ. Mitchell, M. InclusiveFaceNet: بهبود تشخیص ویژگی چهره با تنوع نژادی و جنسیتی. arXiv 2017 ، arXiv:171200193. [ Google Scholar ]
  56. بودا، ام. مکی، ع. Mazurowski، MA مطالعه سیستماتیک مشکل عدم تعادل کلاس در شبکه های عصبی کانولوشن. شبکه عصبی 2018 ، 106 ، 249-259. [ Google Scholar ] [ CrossRef ][ نسخه سبز ]
  57. جیانگ، ی. لی، ز. بله، X. درک سوگیری های جمعیتی و اجتماعی-اقتصادی کاربران توییتر دارای برچسب جغرافیایی در سطح شهرستان. کارتوگر. Geogr. Inf. علمی 2019 ، 46 ، 228-242. [ Google Scholar ] [ CrossRef ]
  58. مارتین، ی. لی، ز. کاتر، SL از توییتر برای سنجش انطباق تخلیه: تجزیه و تحلیل فضایی و زمانی طوفان متیو استفاده می کند. PLoS ONE 2017 , 12 , e0181701. [ Google Scholar ] [ CrossRef ][ نسخه سبز ]
  59. جیانگ، ی. لی، ز. کاتر، شبکه اجتماعی SL، فضای فعالیت، احساسات و تخلیه: رسانه های اجتماعی چه چیزی می توانند به ما بگویند؟ ان صبح. دانشیار Geogr. 2019 . [ Google Scholar ] [ CrossRef ]
  60. کلاین، جی. کیم، ی. دنگ، ی. سنلارت، جی. راش، AM OpenNMT: جعبه ابزار منبع باز برای ترجمه ماشین عصبی. arXiv 2017 , arXiv:170102810. [ Google Scholar ]
شکل 1. معماری RIASM.
شکل 2. صفحات وب خارجی آدرس های اینترنتی کوتاه شده از توییت ها.
شکل 3. ماژول تأیید نتایج مبتنی بر WebGIS.
شکل 4. نمونه هایی از عکس های سیل.
شکل 5. نمونه هایی از عکس های بدون سیل.
شکل 6. عکس هایی که توسط VGG16 آموزش دیده در مجموعه داده هوستون سیل 2017 به عنوان سیل شناسایی شده است. این 25 عکس به طور تصادفی انتخاب شده حاوی 14 عکس واقعی سیل است.
شکل 7. عکس های بدون سیل شناسایی شده توسط VGG16 آموزش دیده در مجموعه داده هوستون سیل 2017. این 25 عکس به طور تصادفی انتخاب شده همه به درستی برچسب گذاری شده اند.
شکل 8. نمونه هایی از عکس های تایید شده سیل که در طوفان فلورانس سیل ارسال شده است.

بدون دیدگاه

دیدگاهتان را بنویسید