آخرین پیشرفت‌ها در روش‌های مبتنی بر یادگیری عمیق و قابلیت‌های محاسباتی فرصت‌های جدیدی را برای ردیابی خودرو فراهم می‌کند. در این مطالعه، YOLOv2 (شما فقط یک بار نگاه می کنید-نسخه 2) به عنوان یک شبکه عصبی کانولوشن منبع باز (CNN)، برای پردازش تصاویر ماهواره ای با وضوح بالا، به منظور تولید مسیرهای GIS مکانی-زمانی (سیستم اطلاعات جغرافیایی) استفاده می شود. از وسایل نقلیه در حال حرکت در مرحله اول، YOLOv2 با مجموعه ای از تصاویر با وضوح 1024 × 1024 از پایگاه داده VEDAI آموزش داده می شود. مدل نتایج رضایت بخشی را با دقت 91 درصد نشان داد و سپس در مرحله دوم برای پردازش تصاویر هوایی استخراج شده از فیلم هوایی استفاده شد. جعبه‌های مرزبندی خروجی خودرو پردازش شده و به الگوریتم LinkTheDots مبتنی بر GIS وارد شده‌اند که امکان شناسایی وسایل نقلیه و تولید مسیرهای مکانی-زمانی در قالب GIS را فراهم می‌کند.

کلید واژه ها

یادگیری عمیق ، YOLOv2 ، ردیابی خودرو ، GIS

1. مقدمه

ردیابی وسایل نقلیه موضوع مهمی با کاربردهای جالب است. این به طور گسترده از زوایای مختلف، با استفاده از هر دو روش کلاسیک تشخیص اشیاء سنتی و روش‌های GIS، مبتنی بر GPS و ابزارهای ارتباطی بلادرنگ مورد مطالعه قرار گرفته است.

به عنوان یکی از مهمترین وظایف در بینایی کامپیوتر، تشخیص اشیا به لطف آخرین پیشرفت ها در روش های مبتنی بر یادگیری عمیق و قدرت محاسباتی با خوشه های واحدهای پردازش گرافیکی (GPU) به سرعت در حال رشد است. این فرصت‌های جدیدی را برای ردیابی خودرو، از طریق استفاده از تصاویر ماهواره‌ای با وضوح بالا و روش‌های یادگیری عمیق، بر اساس شبکه‌های عصبی کانولوشنال (CNN) ارائه می‌کند [ 1 ]. در این مقاله، برای اهداف ردیابی خودرو، مدل YOLOv2 [ 2 ]، یک سی‌ان‌ان منبع باز در حال رشد سریع، بر روی تصاویر VEDAI، مجموعه داده باز از تصاویر وسایل نقلیه، آموزش می‌یابد. عملکردهای GIS و الگوریتم LinkTheDotes برای ایجاد، کنترل و تجسم مسیرهای مکانی-زمانی استفاده می شود.

طرح این مقاله به شرح زیر است. این بخش مروری بر ادبیات برخی از مطالعات در مورد ردیابی خودرو و تشخیص اشیا، با مفاهیم اساسی یادگیری عمیق، CNN و YOLO ارائه می‌کند. بخش 2 رویکرد کلی، آماده سازی داده های ورودی، آموزش YOLOv2 و الگوریتم LinkTheDots و همچنین ویژگی های GIS مورد استفاده را ارائه می کند. بخش 3 نتایج به دست آمده را بررسی می کند و بخش 4 برخی از نتایج را ارائه می دهد.

1.1. ردیابی خودرو

ردیابی وسایل نقلیه با کاربردهای مهم در بسیاری از زمینه‌ها مانند نظارت بر ترافیک شهری [ 3 ]، سیستم‌های حمل‌ونقل هوشمند [ 4 ]، نظارت زمینی [ 5 ]، ایمنی و امنیت رانندگی [ 6 ]، سیستم‌های کمک رانندگی پیشرفته [ 7 ]، به یک وظیفه مهم تبدیل شد. و غیره.

در حالی که روش‌های کلاسیک ردیابی خودرو مبتنی بر ترکیب GPS، GSM، GPRS و فناوری‌های اینترنتی [ 8 ] [ 9 ] [ 10 ] [ 11 ] است، روش‌های جدید مبتنی بر تصاویر و هوش مصنوعی به سرعت در حال تکامل هستند [ 12 ] – [ 17 ] . مزیت این روش های جدید توانایی آنها برای پردازش داده ها در مقیاس های بزرگ، بدون نیاز به نصب تجهیزات ویژه در وسایل نقلیه ردیابی است. آن‌ها از پیشرفت‌های شتاب‌زده در هوش مصنوعی، به‌ویژه یادگیری عمیق بهره می‌برند و بنابراین هزینه دسترسی به این داده‌های تحلیلی را برای بیشترین تعداد محقق و کسب‌وکار علاقه‌مند کاهش می‌دهند.

1.2. تشخیص شی و GIS

تشخیص اشیا شامل تشخیص نمونه هایی از یک کلاس خاص (مانند وسایل نقلیه، انسان ها یا درختان) در تصاویر دیجیتال است. این یک موضوع بینایی کامپیوتری است که کاربردهای متعددی در زمینه‌های مختلف مانند تشخیص چهره [ 18 ]، رانندگی خودکار [ 19 ] و اخیراً تشخیص ماسک صورت در میان همه‌گیری COVID-19 [ 20 ] پیدا می‌کند. هدف اصلی تشخیص اشیاء، توسعه سیستم‌های محاسباتی است که اطلاعات کلیدی را به برنامه‌های بینایی کامپیوتری ارائه می‌دهد که عبارتند از: “اشیاء کجا هستند”؟ [ 21 ]، که همچنین اساس کاربردهای متعدد GIS (سیستم های اطلاعات جغرافیایی) است. این دو حوزه از یکدیگر سود می برند و مکمل یکدیگر هستند [ 22 ] [ 23 ] [ 24 ].

1) تشخیص شی و طبقه بندی تصویر

هدف از طبقه بندی تصویر استخراج طبقات موجود از اشیاء بصری است، بدون اینکه لزوماً مکان آنها در تصویر مشخص شود. این به این سوال پاسخ می دهد که “چه جسمی در تصویر وجود دارد؟”.

از سوی دیگر، تشخیص شی نمونه‌هایی از کلاس‌ها را روی تصویر، با جعبه‌های مرزی یا چندضلعی‌های محدود [ 25 ] همانطور که در شکل 1 نشان داده شده است، قرار می‌دهد .

2) شناسایی شی

شناسایی شی زمانی اتفاق می افتد که اشیاء شناسایی شده در تصویر باشند

شکل 1 . جعبه‌های محدودکننده (چپ) در مقابل چندضلعی‌های محدودکننده (راست).

کدهای شناسایی منحصر به فرد اختصاص داده شده است. به عنوان مثال برای برنامه های کاربردی ردیابی شی در زمان واقعی استفاده می شود [ 26 ].

1.3. پردازش تصویر با یادگیری عمیق

1) یادگیری عمیق (DL)

تحقیقات اخیر نشان می‌دهد که روش‌های یادگیری عمیق به عنوان روش‌های یادگیری ماشینی قدرتمند برای شناسایی و تشخیص اشیا [ 27 ] [ 28 ] [ 29 ] [ 30 ] [ 31 ] پدید آمده‌اند. یادگیری عمیق با غیرخطی بودن پیچیده، هنگام ترکیب بسیاری از توابع غیرخطی [ 32 ] اتفاق می افتد. در حالی که رویکردهای سنتی هوش مصنوعی و یادگیری ماشین یادگیری نمایش‌های سلسله مراتبی مربوط به داده‌های تحلیل شده را ممکن می‌سازد [ 33 ]، ما تمایل داریم باور کنیم که با شبکه‌های عصبی یادگیری عمیق، یک تکامل تدریجی در نمایش داده‌های خام به دسته‌ها وجود دارد. از انتزاعات هنگامی که سیستم با داده تغذیه می شود [ 34] [ 35 ]. بنابراین، با ظرفیت افزایش یافته خود برای تنظیم میلیاردها پارامتر به لطف قابلیت‌های محاسباتی موازی عظیم، موفقیت الگوریتم‌های یادگیری عمیق در کاربردهای هوش مصنوعی مانند پردازش تصویر و ویدیو فوق‌العاده است [ 36 ].

2) شبکه های عصبی کانولوشن (CNN)

بر خلاف رویکردهای سنتی، مدل‌های یادگیری عمیق ویژگی‌ها را بلافاصله از پیکسل‌های خام یاد می‌گیرند و زمینه‌های دریافتی محلی را از لایه‌های پایین‌تر به لایه‌های بالایی توسعه می‌دهند. به عنوان مثال، لایه‌های پایین‌تر ویژگی‌های ساده‌ای مانند خطوط و گوشه‌ها را تشخیص می‌دهند، در حالی که لایه‌های بالاتر ویژگی‌های پیچیده‌ای را استخراج می‌کنند که نشان‌دهنده اشیاء واقعی مانند وسایل نقلیه است. موفقیت‌های DL در پردازش تصویر توسط کار چالش برانگیز طبقه‌بندی ImageNet در هزاران کلاس [ 30 ] [ 37 ] با استفاده از نوعی شبکه عصبی عمیق به نام شبکه‌های عصبی کانولوشنال (CNN) [ 38 ] گواهی می‌شود.

ساختار CNN ها در ابتدا بر اساس سازمان قشر بینایی حیوانات [ 39 ] بود. پس از شروع آهسته در اوایل دهه 1990 به دلیل محدودیت های ظرفیت محاسباتی [ 40 ] [ 41 ]، CNN ها با توسعه سریع این قابلیت ها، از جمله، رایانش ابری، رونق عظیمی را تجربه کردند.

CNN ها از چندین لایه شبیه به شبکه های عصبی پیشخور ساخته شده اند. خروجی ها و ورودی های لایه ها به صورت مجموعه ای از ماتریس های تصویر ارائه می شوند. CNN ها را می توان با ترکیب های مختلفی از لایه های کانولوشن (که عملیات کانولوشن روی فیلترهای مشخص انجام می شود)، لایه های ادغام شده و لایه های کاملاً متصل (به طور کلی، قبل از خروجی) با توابع فعال سازی غیرخطی ساخت. یک معماری معمولی CNN در شکل 2 نشان داده شده است [ 38 ].

3) تک شات CNN: YOLO

You Only Look Once (YOLO) یک سیستم تشخیص شی شبکه عصبی کانولوشن است که تشخیص اشیا را به عنوان یک مشکل رگرسیونی، از پیکسل های تصویر گرفته تا جعبه های مرزی با احتمالات کلاس خود، کنترل می کند. عملکرد آن بسیار بهتر از سایر روش های سنتی تشخیص اشیا است، زیرا مستقیماً روی تصاویر کامل آموزش می بیند.

YOLO از 27 لایه CNN، با 24 لایه کانولوشن، دو لایه کاملاً متصل، و یک لایه تشخیص نهایی [ 2 ] تشکیل شده است ( شکل 3 ).

YOLO تصاویر ورودی را به یک سلول شبکه N به N تقسیم می‌کند، سپس در حین پردازش، برای هر یک از آنها چندین جعبه محدود را پیش‌بینی می‌کند تا شی مورد شناسایی را پیش‌بینی کند. بنابراین، یک تابع ضرر باید محاسبه شود. YOLO ابتدا، برای هر جعبه مرزی، تقاطع روی اتحاد (IoU) را محاسبه می کند. سپس از خطای مجموع مربع برای محاسبه افت خطا بین نتایج پیش‌بینی‌شده و اشیاء واقعی استفاده می‌کند. ضرر نهایی مجموع سه تابع ضرر است: 1) افت طبقه بندی: مربوط به احتمال کلاس، 2) از دست دادن محلی سازی: مربوط به موقعیت و اندازه جعبه مرزی و 3) از دست دادن اطمینان برای اندازه گیری احتمال اشیاء در جعبه [ 42 ]. ].

شکل 2 . معماری شبکه های عصبی کانولوشنال [ 38 ].

شکل 3 . معماری YOLO [ 2 ] [ 42 ].

2. روش شناسی

به منظور تولید مسیرهای زمانی وسایل نقلیه در قالب GIS از ویدئوی هوایی، یک فرآیند سه مرحله ای اتخاذ شده است:

• برای حل مشکل مدیریت جریان ویدئوی هوایی پیوسته، که یک چالش فنی بزرگ را نشان می‌دهد [ 43 ]، جریان ویدئو به یک سری تصاویر با وضوح مناسب برای الگوریتم آموزش‌دیده YOLOv2 تبدیل می‌شود.

• سپس هر تصویر جداگانه با الگوریتم YOLOv2 که از قبل آموزش داده شده است، پردازش می شود.

• با الگوریتم LinkTheDots، وسایل نقلیه شناسایی شده سپس در سراسر سری خروجی تصاویر ردیابی می شوند و یک مسیر تاریخی خاص GIS برای هر وسیله نقلیه ایجاد می کنند.

شکل 4 روند کلی را نشان می دهد و شکل 5 روند آموزش الگوریتم YOLOv2 را نشان می دهد (فرآیند الگوریتم LinkTheDots در ادامه این بخش توضیح داده شده است).

2.1. داده های ورودی: از ویدیوی منطقه ای تا یک سری عکس

از یک فیلم هوایی از یک پارکینگ شلوغ [ 44 ]، مجموعه ای از فریم ها استخراج شد. شکل 6 یکی از تصاویر استخراج شده را نشان می دهد.

شکل 4 . روند کلی روش

شکل 5 . آموزش الگوریتم YOLOv2.

شکل 6 . فریمی از مجموعه تصاویر استخراج شده از ویدئوی منطقه ای [ 44 ].

فراداده هر فریم حاوی تاریخ دقیق تصویر است که توسط تمام وسایل نقلیه شناسایی شده روی قاب به ارث می رسد.

در این مرحله از مطالعه، مجموعه تصاویر با الگوریتم آموزش دیده YOLOv2 برای تشخیص وسایل نقلیه آماده پردازش یک به یک هستند.

2.2. آموزش الگوریتم YOLOv2

1) داده های آموزشی

الگوریتم‌های YOLO و CNN به طور کلی، زمانی که روی داده‌های تصویری اعمال می‌شوند، می‌توانند با داده‌ها از هر جایی آموزش ببینند و با همان درجه از اطمینان در جاهای دیگر اعمال شوند [ 45 ]. به همین دلیل، در غیاب منابع داده محلی از تصاویر منطقه، از VEDAI (تشخیص خودرو در تصاویر هوایی) منبع داده [ 45 ] استفاده می شود. علاوه بر دسترسی باز و تعداد مهم تصاویر ارائه شده (بیش از 10000)، پایگاه داده VEDAI برچسب هایی را برای هر وسیله نقلیه ارائه می دهد، آماده استفاده برای آموزش الگوریتم های تشخیص شکل 7 .

مدل YOLOv2 با مجموعه ای از تصاویر با وضوح 1024 × 1024 آموزش و آزمایش شد. به طور کلی، مجموعه داده ای از 1200 تصویر استفاده شد. 70 درصد آنها به عنوان داده های آموزشی و 30 درصد برای آزمون.

2) پلت فرم آموزشی

آموزش الگوریتم YOLO، مانند همه مدل های یادگیری عمیق، به ظرفیت محاسباتی قابل توجهی نیاز دارد [ 32 ]. بنابراین، پلت فرم مورد استفاده در فضای ابری با پیکربندی مشخص شده در جدول 1 قرار داشت. یکی از مهمترین جنبه های این پیکربندی، GPU (واحد پردازش گرافیکی) با کارایی بالا است، زیرا دارای معماری موازی کارآمد برای یادگیری مدل است. در ترکیب با خوشه ها یا محاسبات ابری، زمان آموزش شبکه را به میزان قابل توجهی کاهش می دهد.

Darknet [ 46 ] به عنوان یک چارچوب آموزشی استفاده شد. این یک چارچوب شبکه عصبی منبع باز است که به زبان C و CUDA نوشته شده است که از محاسبات CPU و GPU پشتیبانی می کند.

شکل 7 . تصویر مجموعه داده VEDAI.

2.3. الگوریتم LinkTheDots

به منظور ردیابی یک وسیله نقلیه در فریم های متوالی، الگوریتم LinkTheDots توسعه داده شد. وظیفه اصلی آن این است که مرکز جعبه محدود کننده وسایل نقلیه را در یک قاب خاص به مرکز جعبه محدود کننده همان وسیله نقلیه در قاب بعدی متصل کند. این نشان می دهد که، بین دو لحظه فریم، این وسیله نقلیه خاص از نقطه اول به نقطه دوم حرکت کرده است.

پس از اینکه همه فریم ها با الگوریتم آموزش دیده YOLOv2 پردازش شدند و تمام جعبه های مرزی تولید شدند، تمام مرکزهای وسایل نقلیه با ابزار GIS ایجاد می شوند. الگوریتم LinkTheDots تمام این فریم‌های به‌دست‌آمده را پردازش می‌کند، از اولی شروع می‌شود، جایی که همه نقاط باید با شناسه خودرو شناسایی شوند. از آنجا، با شروع فریم دوم، الگوریتم باید بررسی کند که آیا وسیله نقلیه مرتبط قبلاً در فریم قبلی شناسایی شده است تا شناسه آن را به دست آورد، در غیر این صورت، باید یک شناسه وسیله نقلیه جدید نسبت داده شود. شکل 8 روند دقیق الگوریتم LinkTheDots را نشان می دهد.

LinkTheDots با انجام یک جستجوی جغرافیایی، در فاصله Δmax، موقعیت موقعیت خودرو را در فریم قبلی شناسایی می‌کند، که فراتر از آن، با توجه به پارامترهای فرضی مانند حداکثر، هیچ وسیله نقلیه‌ای هرگز نمی‌تواند – فرضاً – بین زمان دو فریم حرکت کند. سرعت وسیله نقلیه بنابراین Δmax به عنوان پارامتر تنظیم الگوریتم در نظر گرفته می شود.

3. نتایج و بحث

3.1. نتایج آموزش الگوریتم YOLOv2

در زیر، در جدول 2 ، پارامترهای اصلی یک آموزش YOLOv2:

شکل 8 . فرآیند الگوریتم LinkTheDots

تکامل میانگین تلفات در طول تکرارهای فرآیند یادگیری در شکل 9 و تصویر نتایج آزمون در شکل 10 ارائه شده است .

شکل 9 . تکامل میانگین از دست دادن با توجه به تعداد تکرار.

شکل 10 . تصویر نتایج آزمون YOLOv2.

این مدل 91 درصد از وسایل نقلیه آزمایشی را شناسایی کرد. این نتایج نشان می‌دهد که مدل آموزش‌دیده می‌تواند وسایل نقلیه را با دقت رضایت‌بخشی که الزامات برنامه مورد نظر برای ردیابی مکانی-زمانی را برآورده می‌کند، شناسایی کند. با مجموعه ای بزرگتر از تصاویر آموزشی، می توان این دقت را به میزان قابل توجهی بهبود بخشید.

3.2. نتایج ردیابی وسایل نقلیه

نتایج الگوریتم آموزش‌دیده YOLOv2 و پردازش داده‌های خروجی ( شکل 4 )، 1) جدول موقعیت‌های وسایل نقلیه در حال حرکت، تولید شده توسط الگوریتم LinkTheDots است که عصاره‌ای از آن در جدول 4 ارائه شده است . و 2) موقعیت وسایل نقلیه در طول زمان ویدیوی منطقه ورودی، که در شکل 11 نشان داده شده است.

شکل 11 . سانتروئیدها در طول زمان تولید شده است.

با استفاده از ابزار GIS برای تبدیل مجموعه ای از نقاط به خطوط، این نقاط به مدار تبدیل شدند که بر اساس شماره شناسه وسایل نقلیه مرتب شدند. بنابراین، مسیرهای مکانی-زمانی وسایل نقلیه در حال حرکت در ویدئوی منطقه به دست آمد ( شکل 12 ).

3.3. محدودیت های الگوریتم LinkTheDots

الگوریتم LinkTheDots بر این فرض استوار است که نزدیکترین مرکز جعبه مرزی در تصویر زیر مربوط به همان وسیله نقلیه است. سپس پارامتر الگوریتم Dmax باید روی مقداری تنظیم شود که از سردرگمی بین دو وسیله نقلیه مختلف در دو فریم متوالی جلوگیری کند.

اجازه دهید:

د: مسافت طی شده وسیله نقلیه بین دو قاب

وسیله نقلیه : عرض وسیله نقلیه

سپس، برای جلوگیری از سردرگمی بین وسایل نقلیه، باید داشته باشیم:

Δ < W وسیله نقلیه (1)

شکل 12 . مسیرهای مکانی-زمانی GIS وسایل نقلیه.

این بدان معناست که Dmax باید کمتر از حداقل عرض خودرو باشد.

اجازه دهید:

وسیله نقلیه : سرعت وسیله نقلیه

دوربین V : سرعت دوربین

r : تعداد فریم در ثانیه (نرخ فریم)

سپس:

Δ =Vوسیله نقلیهVدوربینافrΔ=Vvehicle−VcameraFr(2)

از (1) و (2):

Vوسیله نقلیهVدوربینافr<دبلیووسیله نقلیهVvehicle−VcameraFr<Wvehicle(3)

این بدان معناست که در مورد یک دوربین ثابت (دوربین = 0)، برای عرض متوسط ​​وسیله نقلیه 2 متر و نرخ فریم دوربین 15 فریم در ثانیه، حداکثر سرعتی که می توان یک وسیله نقلیه را تا آن زمان ردیابی کرد 30 است. متر بر ثانیه (108 کیلومتر در ساعت).

مفهوم دیگر این است که اگر قرار است وسیله نقلیه ای با سرعت 150 کیلومتر در ساعت ردیابی شود – هنوز با یک دوربین ثابت – دوربین مورد استفاده باید سرعت 21 فریم در ثانیه یا بهتر داشته باشد.

4. نتیجه گیری

در این کار مدل YOLOv2 برای تشخیص وسایل نقلیه بر روی تصاویر هوایی آموزش داده شد. مدل آموزش دیده با الگوریتم LinkTheDots برای ردیابی مکانی-زمانی GIS همراه شد. محدودیت ها و شرایط اعتبار الگوریتم پیشنهادی با توجه به نرخ فریم در فیلم هوایی خام و سرعت وسایل نقلیه ردیابی شده مورد بحث قرار گرفت. دقت مدل آموزش دیده که حدود 91 درصد یافت می شود را می توان با مجموعه ای بزرگتر از تصاویر آموزشی به طور قابل توجهی بهبود بخشید.

منابع

[ 1 ] Yoon, Y., Jeon, HG, Yoo, D., Lee, JY and So Kweon, I. (2015) یادگیری یک شبکه کانولوشن عمیق برای وضوح تصویر فوق العاده میدان نور. مجموعه مقالات کنفرانس بین المللی IEEE در کارگاه های آموزشی بینایی کامپیوتر، سانتیاگو، 7-13 دسامبر 2015، 24-32.
https://doi.org/10.1109/ICCVW.2015.17
[ 2 ] Redmon, J., Divvala, S., Girshick, R. and Farhadi, A. (2016) You Only Once Look: Unified, Real-Time Object Detection. مجموعه مقالات کنفرانس IEEE در مورد بینایی کامپیوتری و تشخیص الگو، لاس وگاس، 27-30 ژوئن 2016، 779-788.
https://doi.org/10.1109/CVPR.2016.91
[ 3 ] Cao, X., Jiang, X., Li, X. and Yan, P. (2016) ردیابی اهداف چندگانه مبتنی بر همبستگی با ساختار لایه سلسله مراتبی. معاملات IEEE در سایبرنتیک، 48، 90-102.
https://doi.org/10.1109/TCYB.2016.2625320
[ 4 ] Chen, L. and Englund, C. (2015) مدیریت تقاطع تعاونی: نظرسنجی. معاملات IEEE در سیستم های حمل و نقل هوشمند، 17، 570-586.
https://doi.org/10.1109/TITS.2015.2471812
[ 5 ] Ulmke, M. and Koch, W. (2006) ردیابی هدف متحرک زمینی به کمک نقشه راه. معاملات IEEE در هوا فضا و سیستم های الکترونیکی، 42، 1264-1274.
https://doi.org/10.1109/TAES.2006.314571
[ 6 ] ابراهیم، ​​VM و ویکتور، AA (2012) سیستم امنیتی ضد سرقت مبتنی بر میکروکنترلر با استفاده از شبکه های GSM با پیام متنی به عنوان بازخورد. مجله بین المللی تحقیق و توسعه مهندسی، 2، 18-22.
[ 7 ] Hasberg, C., Hensel, S. and Stiller, C. (2011) مکان یابی و نقشه برداری همزمان برای حرکت محدود شده مسیر. معاملات IEEE در سیستم های حمل و نقل هوشمند، 13، 541-552.
https://doi.org/10.1109/TITS.2011.2177522
[ 8 ] Almomani, IM, Alkhalil, NY, Ahmad, EM and Jodeh, RM (2011) سیستم ردیابی و مدیریت خودروهای GPS همه جا حاضر. 2011 کنفرانس IEEE اردن در مورد مهندسی برق کاربردی و فن آوری های محاسباتی (AEECT)، امان، 6-8 دسامبر 2011، 1-6.
https://doi.org/10.1109/AEECT.2011.6132526
[ 9 ] Maurya, K., Singh, M. and Jain, N. (2012) سیستم ردیابی خودرو در زمان واقعی با استفاده از فناوری GSM و GPS-یک سیستم ردیابی ضد سرقت. مجله بین المللی مهندسی علوم الکترونیک و کامپیوتر، 1، 1103.
[ 10 ] Lee, S., Tewolde, G. and Kwon, J. (2014) طراحی و پیاده سازی سیستم ردیابی خودرو با استفاده از فناوری GPS/GSM/GPRS و برنامه تلفن هوشمند. 2014 انجمن جهانی IEEE در اینترنت اشیا (WF-IoT)، سئول، 6-8 مارس 2014، 353-358.
https://doi.org/10.1109/WF-IoT.2014.6803187
[ 11 ] Pham, HD, Drieberg, M. and Nguyen, CC (2013) توسعه سیستم ردیابی خودرو با استفاده از GPS و مودم GSM. 2013 کنفرانس IEEE در سیستم های باز (ICOS)، کوچینگ، 2-4 دسامبر 2013، 89-94.
https://doi.org/10.1109/ICOS.2013.6735054
[ 12 ] Tang, Z., Naphade, M., Liu, MY, Yang, X., Birchfield, S., Wang, S., Hwang, JN, et al. (2019) Cityflow: معیاری در مقیاس شهر برای ردیابی و شناسایی مجدد خودرو با دوربین چند هدفه. مجموعه مقالات کنفرانس IEEE/CVF در مورد دید کامپیوتری و تشخیص الگو، لانگ بیچ، 15-20 ژوئن 2019، 8797-8806.
https://doi.org/10.1109/CVPR.2019.00900
[ 13 ] Tang, Z., Wang, G., Xiao, H., Zheng, A. and Hwang, JN (2018) ردیابی وسیله نقلیه تک دوربینی و بین دوربینی و تخمین سرعت سه بعدی بر اساس تلفیق ویژگی های بصری و معنایی. مجموعه مقالات کنفرانس IEEE در کارگاه های آموزشی بینایی کامپیوتری و تشخیص الگو، سالت لیک سیتی، 18-23 ژوئن 2018، 108-115.
https://doi.org/10.1109/CVPRW.2018.00022
[ 14 ] Chen, Y., Jing, L., Vahdani, E., Zhang, L., He, M. and Tian, ​​Y. (2019) ردیابی و شناسایی مجدد خودرو با دوربین چندگانه در چالش شهر هوش مصنوعی 2019. کارگاه های آموزشی CVPR, جلد 2، 324-332.
[ 15 ] Hua, S., Kapoor, M. and Anastasiu, DC (2018) ردیابی خودرو و تخمین سرعت از ویدیوهای ترافیک. مجموعه مقالات کنفرانس IEEE در کارگاه های آموزشی بینایی کامپیوتری و تشخیص الگو، سالت لیک سیتی، 18-23 ژوئن 2018، 153-160.
https://doi.org/10.1109/CVPRW.2018.00028
[ 16 ] Peri، N.، خرمشاهی، P.، Rambhatla، SS، Shenoy، V.، Rawat، S.، Chen، JC و Chellappa، R. (2020) Towards Real-Time Systems for Vehicle Re-identification, Multi-Camera Tracking و تشخیص ناهنجاری. مجموعه مقالات کنفرانس IEEE/CVF در کارگاه های آموزشی بینایی رایانه و تشخیص الگو، سیاتل، 14-19 ژوئن 2020، 622-623.
https://doi.org/10.1109/CVPRW50498.2020.00319
[ 17 ] Li، P.، Li، G.، Yan، Z.، Li، Y.، Lu، M.، Xu، P.، Chuxing، D.، و همکاران. (2019) سازگاری مکانی-زمانی و تطابق سلسله مراتبی برای ردیابی خودرو با دوربین چند هدفه. کارگاه های آموزشی CVPR، لانگ بیچ، 16-20 ژوئن 2019، 222-230.
[ 18 ] Yang, D., Alsadoon, A., Prasad, PC, Singh, AK and Elchouemi, A. (2018) یک مدل تشخیص احساسات بر اساس تشخیص چهره در محیط یادگیری مجازی. Procedia Computer Science, 125, 2-10.
https://doi.org/10.1016/j.procs.2017.12.003
[ 19 ] Grigorescu, S., Trasnea, B., Cocias, T. and Macesanu, G. (2020) بررسی تکنیک های یادگیری عمیق برای رانندگی خودمختار. مجله رباتیک میدانی، 37، 362-386.
https://doi.org/10.1002/rob.21918
[ 20 ] Loey, M., Manogaran, G., Taha, MHN and Khalifa, NEM (2021) مبارزه با COVID-19: یک مدل یادگیری عمیق جدید بر اساس YOLO-v2 با ResNet-50 برای تشخیص ماسک پزشکی صورت. شهرها و جامعه پایدار، 65، شناسه مقاله: 102600.
https://doi.org/10.1016/j.scs.2020.102600
[ 21 ] Zou, Z., Shi, Z., Guo, Y. and Ye, J. (2019) تشخیص شی در 20 سال: یک بررسی.
[ 22 ] Ardeshir, S., Zamir, AR, Torroella, A. and Shah, M. (2014) تشخیص شی به کمک GIS و مکان یابی جغرافیایی. در: کنفرانس اروپایی بینایی کامپیوتر، Springer، Cham، 602-617.
https://doi.org/10.1007/978-3-319-10599-4_39
[ 23 ] Campbell, A., Both, A. and Sun, QC (2019) تشخیص و نقشه برداری علائم ترافیکی از تصاویر نمای خیابان گوگل با استفاده از یادگیری عمیق و GIS. کامپیوتر، محیط زیست و سیستم های شهری، 77، شناسه مقاله: 101350.
https://doi.org/10.1016/j.compenvurbsys.2019.101350
[ 24 ] Cheng, G. and Han, J. (2016) نظرسنجی در مورد تشخیص اشیاء در تصاویر سنجش از دور نوری. ISPRS مجله فتوگرامتری و سنجش از دور، 117، 11-28.
https://doi.org/10.1016/j.isprsjprs.2016.03.014
[ 25 ] Hurtik, P., Molek, V., Hula, J., Vajgl, M., Vlasanek, P. and Nejezchleba, T. (2020) Poly-YOLO: سرعت بالاتر، تشخیص دقیق تر و تقسیم بندی نمونه برای YOLOv3.
[ 26 ] Bathija, A. and Sharma, G. (2019) تشخیص و ردیابی شی بصری با استفاده از Yolo و Sort. مجله بین المللی فناوری تحقیقات مهندسی، 8، 705-708.
[ 27 ] دنگ، ال و یو، دی (2014) یادگیری عمیق: روش ها و کاربردها. مبانی و روند در پردازش سیگنال، 7، 197-387.
https://doi.org/10.1561/2000000039
[ 28 ] Szegedy, C., Toshev, A. and Erhan, D. (2013) شبکه های عصبی عمیق برای تشخیص اشیا.
[ 29 ] Krizhevsky, A., Sutskever, I. and Hinton, GE (2012) طبقه بندی شبکه تصویری با شبکه های عصبی پیچیده عمیق. پیشرفت‌ها در سیستم‌های پردازش اطلاعات عصبی، 25، 1097-1105.
[ 30 ] Russakovsky, O., Deng, J., Su, H., Krause, J., Satheesh, S., Ma, S., et al. (2015) چالش تشخیص بصری در مقیاس بزرگ Imagenet. International Journal of Computer Vision, 115, 211-252.
https://doi.org/10.1007/s11263-015-0816-y
[ 31 ] Yan, K., Wang, Y., Liang, D., Huang, T. and Tian, ​​Y. (2016) CNN در مقابل Sift برای بازیابی تصویر: جایگزین یا مکمل؟ مجموعه مقالات بیست و چهارمین کنفرانس بین المللی ACM در چند رسانه ای، آمستردام، 15-19 اکتبر 2016، 407-411.
https://doi.org/10.1145/2964284.2967252
[ 32 ] Fan, J., Ma, C. and Zhong, Y. (2019) مروری انتخابی بر یادگیری عمیق.
[ 33 ] Ilin, R., Watson, T. and Kozma, R. (2017) سلسله مراتب انتزاعی در شبکه های عصبی یادگیری عمیق. کنفرانس مشترک بین‌المللی شبکه‌های عصبی 2017 (IJCNN)، انکوریج، 14-19 مه 2017، 768-774.
https://doi.org/10.1109/IJCNN.2017.7965929
[ 34 ] Schmidhuber, J. (2015) یادگیری عمیق در شبکه های عصبی: یک مرور کلی. شبکه های عصبی، 61، 85-117.
https://doi.org/10.1016/j.neunet.2014.09.003
[ 35 ] Gülcehre, C. and Bengio, Y. (2016) مسائل دانش: اهمیت اطلاعات قبلی برای بهینه سازی. مجله تحقیقات یادگیری ماشین، 17، 226-257.
[ 36 ] LeCun، Y.، Bengio، Y. و Hinton، G. (2015) یادگیری عمیق. طبیعت، 521، 436-444.
https://doi.org/10.1038/nature14539
[ 37 ] دنگ، جی.، برگ، ا.، ساتش، اس.، سو، اچ.، خوسلا، ا. و لی، FF (2012) چالش تشخیص بصری در مقیاس بزرگ.
https://image-net.org/challenges/LSVRC/2012/
[ 38 ] Ucar, A., Demir, Y. and Güzelis, C. (2017) تشخیص و تشخیص اشیاء با یادگیری عمیق برای برنامه‌های رانندگی خودکار. شبیه سازی، 93، 759-769.
https://doi.org/10.1177/0037549717709932
[ 39 ] Hubel، DH و Wiesel، TN (1968) میدان های پذیرنده و معماری عملکردی قشر مخطط میمون. مجله فیزیولوژی، 195، 215-243.
https://doi.org/10.1113/jphysiol.1968.sp008455
[ 40 ] LeCun, Y., Boser, B., Denker, JS, Henderson, D., Howard, RE, Hubbard, W. and Jackel, LD (1989). محاسبات عصبی، 1، 541-551.
https://doi.org/10.1162/neco.1989.1.4.541
[ 41 ] LeCun, Y., Boser, BE, Denker, JS, Henderson, D., Howard, RE, Hubbard, WE and Jackel, LD (1990) تشخیص ارقام دست نویس با یک شبکه انتشار برگشتی. کنفرانس بین المللی سیستم های پردازش اطلاعات عصبی، جلد. 2، 396-404.
[ 42 ] Chen, RC (2019) تشخیص خودکار پلاک خودرو از طریق شبکه تاریک پنجره کشویی-YOLO Deep Learning. محاسبات تصویر و بینایی، 87، 47-56.
https://doi.org/10.1016/j.imavis.2019.04.007
[ 43 ] بانو، بی.، راویشانکار، CV، روی-چادری، AK، آغاجان، اچ و ترزوپولوس، دی. (2011) شبکه های حسگر ویدئوی توزیع شده. Springer Science & Business Media، برلین.
https://doi.org/10.1007/978-0-85729-127-1
[ 44 ] بریگان، تی (2017) پارکینگ پرمشغله—تایم لپس هوایی.
[ 45 ] Bengio، Y. (2009) یادگیری معماری عمیق برای هوش مصنوعی. Now Publishers Inc., Delft.
https://doi.org/10.1561/9781601982957
[ 46 ] Redmon, J. and Farhadi, A. (2017) YOLO9000: Better, Faster, Stronger. مجموعه مقالات کنفرانس IEEE در مورد دید کامپیوتری و تشخیص الگو، هونولولو، 21-26 جولای 2017، 7263-7271.
https://doi.org/10.1109/CVPR.2017.690

بدون دیدگاه

دیدگاهتان را بنویسید